KR20150046317A - 디지털 매개 통신의 지리적 기점 표시 - Google Patents

디지털 매개 통신의 지리적 기점 표시 Download PDF

Info

Publication number
KR20150046317A
KR20150046317A KR1020157007938A KR20157007938A KR20150046317A KR 20150046317 A KR20150046317 A KR 20150046317A KR 1020157007938 A KR1020157007938 A KR 1020157007938A KR 20157007938 A KR20157007938 A KR 20157007938A KR 20150046317 A KR20150046317 A KR 20150046317A
Authority
KR
South Korea
Prior art keywords
location
augmented reality
computing device
presentation
geographic
Prior art date
Application number
KR1020157007938A
Other languages
English (en)
Other versions
KR101730473B1 (ko
Inventor
마크 말라무드
로이스 레비엔
Original Assignee
엠파이어 테크놀로지 디벨롭먼트 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 filed Critical 엠파이어 테크놀로지 디벨롭먼트 엘엘씨
Publication of KR20150046317A publication Critical patent/KR20150046317A/ko
Application granted granted Critical
Publication of KR101730473B1 publication Critical patent/KR101730473B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/362Destination input or retrieval received from an external device or application, e.g. PDA, mobile phone or calendar application
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3629Guidance using speech or audio output, e.g. text-to-speech
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3632Guidance using simplified or iconic instructions, e.g. using arrows
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3647Guidance involving output of stored or live camera images or video streams
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3652Guidance using non-audiovisual output, e.g. tactile, haptic or electric stimuli
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3697Output of additional, non-guidance related information, e.g. low fuel level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/20Services signaling; Auxiliary data signalling, i.e. transmitting data via a non-traffic channel
    • H04W4/21Services signaling; Auxiliary data signalling, i.e. transmitting data via a non-traffic channel for social networking applications

Abstract

증강 현실 장면에서 표시를 프레젠테이션 함으로써 수신자의 위치에 대한 디지털 매개 통신의 지리적 기점을 나타내기 위한 기술이 설명된다. 예컨대, 증강 현실 장면은 수신자에게 프레젠테이션 된다. 착신하는 디지털 통신의 지리적 기점이 결정될 수 있으며 수신자의 위치에 대한 기점의 상대적 위치가 연산될 수 있다. 상대적 위치를 프레젠테이션 하기 위한 포맷은 디지털 통신 및 지리적 기점으로부터 도출될 수 있다. 증강 현실 장면은 도출된 포맷에 기초하여 상대적 위치로 업데이트될 수 있다. 디지털 통신, 위치 기반 서비스 및 증강 현실 어플리케이션을 통합하기 위한 기법은 착신하는 디지털 통신의 상대적 위치 또는 지리적 기점을 즉시 결정하기위한 능력과 같이 자연스러운 통신의 일부 본질적인 양상의 손실로의 지각적인 해법을 제공함으로써 수신자의 경험을 향상시킬 수 있다.

Description

디지털 매개 통신의 지리적 기점 표시 {INDICATING THE GEOGRAPHIC ORIGIN OF A DIGITALLY-MEDIATED COMMUNICATION}
스마트폰과 같은 개인 전자 장치의 확산 및 인터넷과 다른 네트워크를 통한 데이터 네트워크 및 서비스로의 접근성은 증가하는 수의 디지털 매개 통신, 위치 기반 서비스 및 증강 현실 어플리케이션의 액세스 및 이용을 가능하게 해왔다. 이메일, 전화 통화, 텍스트 메시지 및 채팅과 같은 디지털 매개 통신은 사용자가 즉각적으로 정보를 교환하도록 허용한다. 마찬가지로, 위치 기반 서비스는 사용자가, 예컨대, 그들의 위치를 소셜 네트워크 어플리케이션에 지리적으로 태그(tag)할 수 있게 한다. 또한, 증강 현실은 사용자에게 디스플레이 하기 위해 실시간으로 비디오 및 이미지로 혼합되는 컴퓨터 그래픽 오브젝트(object)를 포함하는 컴퓨터 생성 데이터를 현실 세계와 조합하는 것에 집중한다.
그러나, 오늘날의 디지털 세계에서는 자연스러운 통신(natural communication)의 일부 본질적인 양상이 손실된다. 이러한 양상은 착신하는 디지털 통신의 상대적인 위치 또는 지리적 기점(geographical origin)을 즉시 결정하는 사람의 능력을 포함한다. 예컨대, 현실 세계에서, 누군가가 사람의 이름을 부르면, 그 사람은 소리가 비롯된 곳으로부터의 방향의 즉각적인 감각을 가진다. 이에 비해, 디지털 매개 통신은 그들의 지리적 기점에 대하여 작은 정보를 제공하거나 제공하지 않는다. 예컨대, 사람이 그 또는 그녀의 전화 상에 문자 메시지를 수신하면, 그 사람은 메시지의 지리적 기점(geographic origin)의 표시를 가지지 않을 수 있다.
다양한 실시예에서, 증강 현실 어플리케이션에서 수신자에게 표시를 프레젠테이션(presentation) 함으로써 통신의 수신자의 위치에 대한 디지털 매개 통신의 지리적 기점을 나타내기 위한 시스템, 방법 및 컴퓨터 판독가능 매체가 개시된다.
일 실시예에서, 제1 및 제2 사용자는 각각 제1 및 제2 컴퓨팅 장치를 이용하여 통신을 할 수 있다. 예컨대, 제1 사용자는 제2 사용자로부터 이메일을 수신할 수 있으며 디지털 통신의 지리적 기점을 이해하기 원할 수 있다.
일 실시예에서, 증강 현실 장면은 제1 통신 장치 상에서 렌더링될 수 있다. 증강 현실 장면은 제1 사용자와 연관된 물리적 및 가상적 환경의 표시일 수 있다.
또한, 디지털 통신의 지리적 기점이 결정될 수 있다. 예컨대, 디지털 통신은 제2 사용자로부터 송신되고 제1 사용자에 의해 수신된 이메일에 대응할 수 있다. 지리적 기점은 동일한 디지털 통신을 수신하는 제1 컴퓨팅 장치의 위치에 대한 디지털 통신을 개시하는 제2 컴퓨팅 장치의 위치를 나타낼 수 있다. 일 실시예에서, 지리적 기점은 제1 및 제2 컴퓨팅 장치와 연관된 위성 위치확인 시스템(global positioning system)에 기초하여 연산될 수 있거나 소셜 네트워킹 어플리케이션 내 제1 및 제2 사용자의 지리적 태그와 같은 디지털 프린트로부터 검색될 수 있다. 추가적으로, 지리적 기점은 통신의 내용으로부터 도출될 수 있다.
일 실시예에서, 지리적 기점이 증강 현실 장면에서 프레젠테이션될 수 있는 증강 현실 포맷이 결정될 수 있다. 포맷은 증강 현실 장면 내 제2 사용자의 상대적인 위치의 지각적이고 양상적인 프레젠테이션을 포함할 수 있다. 예컨대, 포맷은 제1 사용자의 현재 지리적 위치에 대한 수신된 디지털 통신이 위치하기 위한 시각, 청각 및 촉각 3차원 큐(cue)를 포함할 수 있다. 큐는 증강 현실 포맷에서 제1 사용자에게 프레젠테이션될 수 있다.
이상의 요약은 단순히 예시적인 것으로서 어떠한 방식으로든 제한적으로 의도된 것이 아니다. 이하의 상세한 설명과 도면을 참조함으로써, 상기 설명된 예시적인 양태들, 실시예들, 그리고 특징들에 더하여, 추가적인 양태들, 실시예들, 그리고 특징들 또한 명확해질 것이다.
본 개시의 전술한 특징 및 다른 특징은 첨부 도면과 결합하여, 다음의 설명 및 첨부된 청구범위로부터 더욱 충분히 명백해질 것이다. 이들 도면은 본 개시에 따른 단지 몇 개의 실시예를 묘사할 뿐이고, 따라서, 본 개시의 범위를 제한하는 것으로 고려되어서는 안 될 것임을 이해하면서, 본 개시는 첨부 도면의 사용을 통해 더 구체적이고 상세하게 설명될 것이다.
도 1은 본 개시의 다양한 실시예가 구현될 수 있는 예시적인 컴퓨팅 장치를 예시하는 블록도이고;
도 2는 본 개시의 다양한 실시예가 구현될 수 있는 예시적인 네트워크 환경을 도시하고;
도 3은 증강 현실 시스템의 예시적인 실시예를 도시하고;
도 4는 컴퓨팅 장치 상에 증강 현실을 디스플레이하는 증강 현실 어플리케이션의 예시를 도시하고;
도 5는 디지털 통신 지리적 기점의 증강 현실 포맷으로의 표시를 프레젠테이션하기 위한 예시적인 아키텍처를 도시하고;
도 6a-도 6c는 디지털 통신으로부터 유도된 증강 현실 지리적 기점의 예시적인 프레젠테이션을 도시하고;
도 7a-도 7b는 디지털 통신으로부터 유도된 증강 현실 지리적 기점의 다른 예시적인 프레젠테이션을 도시하며;
도 8은 증강 현실 포맷의 위치 표시를 프레젠테이션하기 위한 예시적인 동작적인 절차를 도시한다.
이하의 상세한 설명에서 본 개시의 일부를 이루는 첨부된 도면이 참조된다. 문맥에서 달리 지시하고 있지 않은 한, 통상적으로, 도면에서 유사한 부호는 유사한 컴포넌트를 나타낸다. 상세한 설명, 도면, 그리고 청구범위에 설명되는 예시적인 실시예는 제한적으로 여겨지지 않는다. 본 개시에서 제시되는 대상의 범위 또는 사상에서 벗어나지 않으면서도 다른 실시예가 이용되거나, 다른 변경이 이루어질 수 있다. 여기에서 일반적으로 설명되고, 도면에 도시되는 본 개시의 양태는 다양한 다른 구성으로 배열, 대체, 조합, 분리, 및 설계될 수 있음과 이 모두가 여기에서 명시적으로 고려됨이 기꺼이 이해될 것이다.
본 개시는, 그 중에서도, 일반적으로 증강 현실에 관한 방법, 기기, 시스템, 장치 및 컴퓨터 프로그램 제품에 관한 것이다. 간단히 말하자면, 복수의 증강을 표본으로 지칭되는 클러스터로 자동적으로 그룹화하고 표본을 설명적인 포맷으로 렌더링하는 것을 포함하는 증강 현실 데이터를 처리하기 위한 시스템에 대한 기술이 일반적으로 설명된다.
도 1은 본 개시의 다양한 실시예가 구현될 수 있는 예시적인 컴퓨팅 장치(100)를 예시하는 블록도를 도시한다. 매우 기본적인 구성(102)에서, 컴퓨팅 장치(100)는 전형적으로 하나 이상의 프로세서(104) 및 시스템 메모리(106)를 포함한다. 메모리 버스(108)는 프로세서(104) 및 시스템 메모리(106) 사이의 통신을 위해 사용될 수 있다.
요구되는 구성에 따라, 프로세서(104)는 마이크로프로세서(μP), 마이크로컨트롤러(μC), 디지털 신호 프로세서(DSP) 또는 그 임의의 조합을 포함하는 임의의 유형일 수 있지만, 이에 한정되는 것은 아니다. 프로세서(104)는 레벨 1 캐시(110) 및 레벨 2 캐시(112)와 같은 하나 이상의 레벨의 캐싱, 프로세서 코어(114) 및 레지스터(116)를 포함할 수 있다. 예시적인 프로세서 코어(114)는 ALU(arithmetic logic unit), FPU(floating point unit), DSP 코어(digital signal processing core), 또는 그 임의의 조합을 포함할 수 있다. 예시적인 메모리 컨트롤러(118)는 또한 프로세서(104)와 사용될 수 있거나, 또는 일부 구현예에서, 메모리 컨트롤러(118)는 프로세서(104)의 내부 부품일 수 있다.
요구되는 구성에 따라, 시스템 메모리(106)는 (RAM과 같은) 휘발성 메모리, (ROM, 플래시 메모리 등과 같은) 비휘발성 메모리, 또는 그 임의의 조합을 포함할 수 있지만, 이에 한정되지 않는 임의의 유형일 수 있다. 시스템 메모리(106)는 운영 체제(120), 하나 이상의 어플리케이션(122) 및 프로그램 데이터(124)를 포함할 수 있다. 어플리케이션(122)은 도 3 내지 도 8에서 설명된 동작에 관하여 설명된 바를 포함하여 여기에서 설명된 바와 같은 기능을 수행하도록 배열되는 위치 결정 및 증강 현실 프로세스(126)를 포함할 수 있다. 프로그램 데이터(124)는 여기에서 설명된 바와 같이 증강 현실 포맷에서의 디지털 통신의 지리적 기점을 프레젠테이션하기 위한 기법과의 동작에 유용할 수 있는 위치 및 증강 데이터(128)를 포함할 수 있다. 일부 실시예에서, 어플리케이션(122)은 디지털 통신의 지리적 기점 또는 상대적 위치가 지각적 포맷에 기초한 증강 현실로서 결정되고 렌더링될 수 있도록 운영 체제(120) 상에서 프로그램 데이터(124)로 동작하도록 배열될 수 있다. 이러한 기술된 기본 구성(102)은 내부 파선 내에 컴포넌트에 의해 도 1에서 도시된다.
컴퓨팅 장치(100)는 추가적인 특징 또는 기능, 및 기본 구성(102)과 임의의 요구되는 장치와 인터페이스 간 통신을 용이하게 하기 위한 추가적인 인터페이스를 가질 수 있다. 예를 들면, 버스/인터페이스 컨트롤러(130)는 저장 인터페이스 버스(134)를 통한 기본 구성(102)과 하나 이상의 데이터 저장 장치(132) 간의 통신을 용이하게 하는데 사용될 수 있다. 데이터 저장 장치(132)는 분리형 저장 장치(136), 비분리형 저장 장치(138), 또는 그들의 조합일 수 있다. 분리형 저장 장치 및 비분리형 저장 장치의 예로는, 몇 가지 말하자면, 플렉서블 디스크 드라이브 및 하드 디스크 드라이브(HDD)와 같은 자기 디스크 장치, 컴팩트 디스크(CD) 드라이브 또는 디지털 다기능 디스크(DVD) 드라이브와 같은 광 디스크 드라이브, 고체 상태 드라이브(solid state drive; SSD), 및 테이프 드라이브가 포함된다. 예시적인 컴퓨터 저장 매체는, 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 다른 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성의, 분리형 및 비분리형 매체를 포함할 수 있다.
시스템 메모리(106), 분리형 저장 장치(136) 및 비분리형 저장 장치(138)는 모두 컴퓨터 저장 매체의 예이다. 컴퓨터 저장 매체는 RAM, ROM, EEPROM, 플래시 메모리 또는 다른 메모리 기술, CD-ROM, 디지털 다기능 디스크(DVD) 또는 다른 광학 저장 장치, 자기 카세트, 자기 테이프, 자기 디스크 저장 장치 또는 다른 자기 저장 장치, 또는 원하는 정보를 저장하는데 사용될 수 있고 컴퓨팅 장치(100)에 의해 액세스될 수 있는 임의의 다른 매체를 포함하지만, 이에 한정되는 것은 아니다. 그러한 임의의 컴퓨터 저장 매체는 장치(100)의 일부일 수 있다.
컴퓨팅 장치(100)는 버스/인터페이스 컨트롤러(130)를 통한 다양한 인터페이스 장치(예를 들면, 출력 장치(142), 주변 인터페이스(144) 및 통신 장치(146))로부터 기본 구성(102)으로의 통신을 용이하게 하기 위한 인터페이스 버스(140)도 포함할 수 있다. 예시적인 출력 장치(142)는 그래픽 처리 유닛(148) 및 오디오 처리 유닛(150)을 포함하며, 이는 하나 이상의 A/V 포트(152)를 통해 디스플레이 또는 스피커와 같은 다양한 외부 장치로 통신하도록 구성될 수 있다. 예시적인 주변 인터페이스(144)는 직렬 인터페이스 컨트롤러(154) 또는 병렬 인터페이스 컨트롤러(156)를 포함하며, 이는 하나 이상의 I/O 포트(158)를 통해 입력 장치(예를 들면, 키보드, 마우스, 펜, 음성 입력 장치, 터치 입력 장치 등) 또는 다른 주변 장치(예를 들면, 프린터, 스캐너 등)와 같은 외부 장치와 통신하도록 구성될 수 있다. 예시적인 통신 장치(146)는 네트워크 컨트롤러(160)를 포함하며, 이는 하나 이상의 통신 포트(164)를 통해 네트워크 통신 상에서의 하나 이상의 다른 컴퓨팅 장치(162)와의 통신을 용이하게 하도록 배치될 수 있다.
네트워크 통신 링크는 통신 매체의 일 예시일 수 있다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파 또는 다른 전송 메커니즘 같은 변조된 데이터 신호 내의 다른 데이터에 의해 구현될 수 있고, 임의의 정보 전달 매체를 포함할 수 있다. "변조된 데이터 신호"는 신호 내에 정보를 인코딩하기 위한 방식으로 설정되거나 변경된 특성 중 하나 이상을 갖는 신호일 수 있다. 제한적인지 않은 예로서, 통신 매체는 유선 네트워크 또는 직접 유선 접속과 같은 유선 매체, 및 음파, 무선 주파수(RF), 마이크로웨이브, 적외선(IR) 및 다른 무선 매체와 같은 무선 매체를 포함할 수 있다. 여기서 사용되는 컴퓨터 판독가능 매체라는 용어는 저장 매체 및 통신 매체 둘 다를 포함할 수 있다.
컴퓨팅 장치(100)는, 휴대 전화, PDA(personal data assistant), 개인용 미디어 플레이어 장치, 무선 웹-워치(web-watch) 장치, 개인용 헤드셋 장치, 특수 용도 장치, 또는 위 기능 중 임의의 것을 포함하는 하이브리드 장치 같은 소형 폼 팩터(small-form factor)의 휴대용(또는 모바일) 전자 장치의 일부로서 구현될 수 있다. 컴퓨팅 장치(100)는 또한 랩톱 컴퓨터 및 랩톱이 아닌 컴퓨터 구성을 모두 포함하는 개인용 컴퓨터로서 구현될 수 있다.
도 2는 본 개시의 다양한 실시예가 구현될 수 있는 예시적인 네트워크 환경을 도시한다. 특히, 도 2는 컴퓨팅 장치(210)로 구성된 예시적인 컴퓨팅 배열(200)을 도시하고, 컴퓨팅 장치(210) 각각은 여기에서 설명된 바와 같이 위치 결정 및 증강 현실 어플리케이션을 제공하도록 구성될 수 있다. 컴퓨팅 장치(210)는, 예컨대, 데스크톱 컴퓨터(210a), 랩톱 컴퓨터(210b), 전화(210c), 태블릿 컴퓨팅 장치(210d), PDA(personal digital assistant)(210e) 및 모바일 전화(210f) 중 임의의 것을 포함할 수 있으며, 이들 각각은 사용자에게 위치 및 증강 현실 데이터를 처리하고 디스플레이 하도록 구성될 수 있다.
장치(210) 각각은 통신 네트워크(250)를 이용하여 통신하도록 구성될 수 있다. 통신 네티워크(250)는 컴퓨팅 장치(210) 및 컴퓨팅 장치(210)에 의해 액세스된 임의의 서버(220) 사이의 통신을 제공하기에 적합한 임의의 유형의 네트워크일 수 있다. 통신 네트워크(250)는 상이한 기술을 이용할 수 있는 개별 네트워크의 조합을 포함할 수 있다. 예컨대, 통신 네트워크(250)는 LAN(local area network), WAN(wide area network), 셀룰러 네트워크, WiFi 네트워크, 광섬유 네트워크 또는 이들의 조합을 포함할 수 있다. 통신 네트워크(250)는 무선 및 유선 네트워크의 조합을 포함할 수 있다. 예시적인 실시예에서, 통신 네트워크(250)는 인터넷을 포함할 수 있고 추가적으로 인터넷과 통신하도록 구성된 임의의 네트워크를 포함할 수 있다. 통신 네트워크(250)는 컴퓨팅 장치(210) 및 서버(220) 사이에서 비디오, 오디오 및 다른 데이터를 통신하도록 구성되는 무선 전화 네트워크를 포함할 수 있다.
일 실시예에서, 위치 및 증강 데이터는 컴퓨팅 장치(210) 중 임의의 것과 같은 증강 현실 장치에 의해 처리될 수 있다. 증강 현실 장치는 서버(220)와 같은 컴퓨팅 장치 상에 호스팅된 분석 엔진에 결합될 수 있다.
일 예시적인 시나리오에서, 증강 현실 장치(210)는, 예컨대, 증강 현실 어플리케이션을 활성화하도록 사용자에 의해 운용될 수 있다. 증강 현실 어플리케이션은 위치 및 증강 현실 데이터를 처리하여 증강을 증강 현실 장치(210) 상에서 사용자에게 프레젠테이션할 수 있다. 위치 데이터는 사용자의 위치, 사용자의 일부 범위 내의 오브젝트, 장소 및 사람의 상대적인 위치를 포함할 수 있다. 사용자의 위치는 증강 현실 장치(210)의 위치로부터 도출될 수 있다. 증강 현실 데이터는 사용자 및 일부 범위 내의 오브젝트, 장소 및 사람에 대한 위치 및 설명 정보를 포함하는 사용자의 물리적 및 가상 환경과 연관된 정보를 포함할 수 있다.
증강 현실 장치(210)는 통신 네트워크(250)를 통하여 서버(220)와 통신할 수 있다. 서버(220)는 증강 데이터의 저장소를 포함할 수 있으며 증강 서비스를 제공하도록 구성될 수 있다. 예컨대, 서버(220)는 증강의 실시간 렌더링을 수행하도록 구성된 알고리즘 및 렌더링 모델의 라이브러리를 포함할 수 있다. 증강 현실 장치(210)는 서버(220)에 쿼리(query)하여 적어도 증강 현실 장치의 위치에 기초하여 증강을 결정하고 수신할 수 있다. 일 시나리오에서, 서버(220)는 증강 및 대응하는 렌더링 포맷을 사용자로의 수신된 증강을 렌더링할 수 있는 증강 현실 장치(210)에 전송할 수 있다. 대안적인 시나리오에서, 서버(220)는 증강을 렌더링할 수 있으며 렌더링된 증강을 증강 현실 장치(210)에 전송할 수 있다.
또 다른 시나리오에서, 증강 데이터는 증강 현실 장치(210)에 저장될 수 있다. 그럼으로써, 증강 데이터의 렌더링은 증강 현실 장치(210) 상에서 로컬로 처리되어, 서버(220)에 쿼리하기 위한 증강 현실 장치에 대한 요구를 제거할 수 있다. 추가적인 시나리오에서, 증강 현실 장치(210)는 위치 및 증강 데이터 및 서비스를 교환하도록 다른 컴퓨팅 장치(210)와 통신할 수 있다. 예컨대, 태블릿(210d)은 사용자에게 인터페이스를 제공하도록 구성될 수 있고 서버는 사용자의 위치를 데스크톱(210a)에 제공할 수 있다. 결국, 데스크톱(210a)은 증강 서비스를 인터페이스 태블릿(210d)을 통하여 사용자에게 제공하도록 구성될 수 있다.
도 3은 증강 현실 시스템의 예시적인 실시예를 도시한다. 장면(310)은 증강 현실 장치(210)에 의해 보여지고 캡처될 수 있다. 예컨대, 증강 현실 장치(210)는 이미지 또는 비디오 캡처 장치를 통합할 수 있다. 대안적으로 또는 추가적으로, 증강 현실 장치(210)는 증강 현실 장치(210)의 지리적 위치에 기초하여 장면(310)의 이미지를 검색하도록 구성될 수 있다. 이미지는 증강 현실 장치(210) 상에 로컬로 또는 도 2에 도시된 바와 같이 증강 현실 장치(210)와 통신하는 다른 장치(210) 또는 서버(220) 상에 외부적으로 저장된 데이터로부터 검색될 수 있다. 장면(310)은 장면 좌표(X, Y, Z)의 세트와 연관될 수 있다. 장면(310)의 이미지 및/또는 사용자의 콘텍스트(context)에 기초하여, 증강 현실 장치(210)는 증강(320)을 결정하고 검색할 수 있다(도면 참조 번호 315로 나타냄). 증강(320)은 장면(310)과 연관된 사람, 장소 또는 오브젝트의 가상 표현 및 장면(310)의 가상 표현을 포함할 수 있다. 예컨대, 증강(320)은 장면(310)에 관련된 다른 이미지, 메타데이터(metadata), 정보 또는 설명을 포함할 수 있다. 증강(320)은 또한 좌표(X, Y, Z)의 세트와 연관될 수 있다. 또한, 증강 현실 장치(210)는 장면(310)의 이미지를 증강(320)과 머징(merging)하여 장면(310)의 가상 이미지를 생성할 수 있다(도면 참조 부호 325로 나타냄). 그럼으로써, 증강 현실 장치(210)는 가상 이미지를 렌더링하고 디스플레이할 수 있다(도면 참조 번호 330으로 나타냄). 가상 이미지의 생성은 증강 현실 장치(210) 내부 또는 외부의 표준 컴퓨터 그래픽 시스템으로 수행될 수 있다. 그래픽 시스템은 연관된 좌표(X, Y, Z)에 기초하여 장면(310)의 이미지 및 증강(320)을 정렬할 수 있다. 또한, 그래픽 시스템은 가상 이미지가 정확히 렌더링될 수 있도록 오브젝트와 연관된 실세계 정보를 이용할 수 있다. 증강(320)의 결정, 가상 이미지를 생성하기 위한 이미지 및 증강(320)의 머징 및 정렬, 그리고 가상 이미지의 렌더링은 증강 현실 장치(210)에 의해 로컬로 또는 증강 현실 장치(210)와 통신하는 다른 장치(210) 또는 서버(220)의 의해 외부적으로 달성될 수 있거나, 증강 현실 장치(210), 다른 장치(210) 및/또는 서버(220) 간에 분배될 수 있다.
도 4는 증강 현실 데이터를 컴퓨팅 장치 상에 디스플레이 하는 증강 현실 어플리케이션의 예시를 도시한다. 특히, 도 4는 도 2의 증강 현실 장치(210) 상에 디스플레이 된 가상 이미지(410)를 도시한다. 도시된 바와 같이, 가상 이미지(410)는 장면에서 기념물을 설명하는 증강(420a-420d)과 머징된, 파리의 전경 또는 그 일부와 같은 장면의 이미지를 포함할 수 있다. 증강(420a-420d)은 증강 현실 장치(210)의 사용자에 의해 생성된 설명적인 제목 및 코멘트를 포함할 수 있다. 코멘트는 1 내지 5 별 등급의 형식으로의 평가 및 피드백 텍스트 필드를 포함할 수 있다. 사용자(430)는 임의의 수의 증강(420a-420d)을 선택 및 확장할 수 있다. 예컨대, 사용자(430)는 증강(420a-420d)에 포함된 기념물에 대한 추가적인 정보를 검색하고 디스플레이하도록 증강 현실 장치(210)를 흔들거나, 마우스 오버(mouse over)하거나, 단일 클릭하거나, 더블 탭핑하거나 증강(420a-420d) 상의 모션을 할 수 있다. 추가적인 정보는 증강 현실 장치(210)에 로컬로 또는 외부적으로 저장된 데이터로부터 검색될 수 있다. 예컨대, 추가적인 정보는 관광객(예컨대, 다른 사용자)에 의해 얻어진 이미지, 가까운 명소의 목록 및 메뉴, 가격, 광고, 등이 있는 레스토랑의 목록을 포함할 수 있다.
디지털 통신, 증강 현실 및 위치 기반 서비스가 보편화 되어가는 세계에서, 이러한 상이한 디지털 도구를 통합하기 위한 방식을 가지는 것은 유용할 수 있다. 도 5 내지 도 8은 착신하는 디지털 통신의 지리적 기점 또는 상대적 위치를 결정하도록 사용자의 능력과 같이, 자연스러운 통신의 일부 본질적인 양상의 손실에 지각적인 해법을 제공하도록, 이러한 도구를 통합하기 위한 실시예를 제시한다. 지각적인 해법은 디지털 통신의 지리적 기점의 2 차원 표시 및/또는 3 차원 표시로 향상된 풍부한 증강 현실 환경을 사용자에게 프레젠테이션함으로써 디지털 통신을 향상시킬 수 있다. 표시는 시각적, 청각적 또는 촉각적 큐(cue)의 조합을 포함할 수 있는 한편, 정보는, 예컨대, 그 주변에서의 사람, 장소 및 오브젝트에 더하여 디지털 통신의 기점을 설명할 수 있다.
도 5는 디지털 통신의 증강 현실 포맷으로의 표시 및 그 지리적 기점을 표현하기 위한 예시적인 아키텍처(500)를 도시한다. 복수의 사용자는 네트워크를 통하여 디지털 통신을 할 수 있다. 디지털 통신은 적어도 실시간 통신 (예컨대, 전화 통화, 인스턴트 메시지, 채팅), 저장 전달 통신 (예컨대, 이메일, 데이터 교환), 및 소셜 미디어 통신의 조합을 포함할 수 있다. 도 5에 도시된 바와 같이, 수신자(522)와 같은 제1 사용자는 제1 통신 장치(520)와 연관될 수 있다. 제1 컴퓨팅 장치(520)는 태블릿(210d)과 같이, 도 2의 장치(210) 중 임의의 것일 수 있다. 마찬가지로, 발신자(512)와 같은 제2 사용자는 제2 컴퓨팅 장치(510)와 연관될 수 있다. 제2 컴퓨팅 장치(510)는 모바일 전화(210f)와 같이, 도 2의 장치(210) 중 임의의 것일 수 있다. 제1 및 제2 사용자는 통신 네트워크(540)를 너머 컴퓨팅 장치(520 및 510)를 통하여 디지털 통신할 수 있다. 통신 네트워크(540)는 도 2의 통신 네트워크(250) 중 일부 또는 모든 요소를 구현할 수 있다. 예컨대, 통신 네트워크(540)는 셀룰러 및 WiFi 네트워크를 포함할 수 있다. 추가적으로, 서비스 프로바이더(530)는 컴퓨팅 장치(510 및 520)에 제공된 일부 서비스 및 통신 네트워크(540)를 관리할 수 있다. 서비스 프로바이더(530)는 도 2의 서버를 포함할 수 있으며 서비스 프로바이더, 케이블 오퍼레이터, 모바일 네트워크 오퍼레이터, 소셜 네트워크 오퍼레이터 등과 연관될 수 있다.
일 실시예에서, 제1 및 제2 사용자는 지리적 위치와 연관될 수 있다. 지리적 위치는 컴퓨팅 장치(510 및 520)의 위치로부터 도출될 수 있다. 예컨대, 컴퓨팅 장치(510 및 520)는 GPS와 같은 위성 기반 시스템으로부터의 위치 정보를 수신 및 처리하기 위한 컴포넌트 및 어플리케이션으로 장비될 수 있다. 수신된 정보는 GPS 좌표를 포함할 수 있다. 다른 예시에서, 서비스 프로바이더(530)는 셀룰러 삼각법(cellular triangulation) 또는 무선 액세스 포인트 보간 기법을 이용하여 지리적 위치를 연산할 수 있다. 서비스 프로바이더(530)는 자동적으로 또는 요청에 의해 연산된 위치를 컴퓨팅 장치(510 및 520)에 전송할 수 있다. 추가적인 실시예에서, 지리적 위치는 지리적 태깅("지오 태깅"으로도 지칭됨) 기법을 이용하여 연산될 수 있다. 지오 태깅 기법은 사용자가 지리적 식별 메타 데이터를 사진, 비디오, 웹사이트, 문자 메시지, RSS 피드 (really simple syndication feed), 등과 같은 다양한 캡처된 미디어에 추가하도록 허용한다. 예컨대, 지오 태깅 하드웨어 및 소프트웨어는 컴퓨팅 장치(510 및 520)에 내장될 수 있다. 그럼으로써, 발신자(512) 및 수신자(522)는 컴퓨팅 장치(510 및 520)로 얻은 그들 각각의 위치의 사진을 지오 태깅할 수 있다. 지오 태깅된 사진은 서비스 프로바이더(530)에 의해 호스팅될 수 있는 서버에 업로드될 수 있다. 추가적으로 또는 대안적으로, 서버는 통신 네트워크(540)를 통하여 컴퓨팅 장치(510 및 520)와의 통신에서 소셜 미디어 네트워크 상에 호스팅될 수 있다. 지오 태그 서비스를 제공하는 소셜 미디어 네트워크의 예시는 FACEBOOK, GOOGLE+ 및 FOUR SQUARE를 포함한다.
일 실시예에서, 지리적 위치는 컴퓨팅 장치 상에 로컬로 저장될 수 있다. 예컨대, 발신자(512)와 연관된 위치(514)는 제2 컴퓨팅 장치(510) 상에 저장될 수 있다. 추가적으로, 지리적 위치는 컴퓨팅 장치(510 및 520)와의 통신에서 서버 상에 원격으로 저장될 수 있다. 예컨대, 위치(514)는 서비스 프로바이더(530) 상에 저장될 수 있다. 마찬가지로, 제1 컴퓨팅 장치(520)에 의해 캡처되고 수신자(522)와 연관된 지리적 위치(524)를 포함하는 지오 태깅된 사진은 FACEBOOK 서버와 같은 소셜 미디어 서버 상에 저장될 수 있다. 추가적인 실시예에서, 지리적 위치는 자동적으로 또는 요청에 의해 컴퓨팅 장치(510 및 520) 및 서버 사이에서 교환될 수 있다. 예컨대, 위치(514)는 제2 컴퓨팅 장치(510) 상에 로컬로 저장될 수 있으며 서버 및 제1 컴퓨팅 장치(520)에 자동적으로 전송될 수 있다. 마찬가지로, 제1 컴퓨팅 장치(520)로부터의 요청에 의해, 서버는 위치(514 및 524)를 제1 컴퓨팅 장치(520)로 전송할 수 있다.
일 실시예에서, 제1 및 제2 사용자는 디지털 통신과 연관된 지리적 위치를 제어할 수 있다. 제어는 공유 정도, 해상 레벨(resolution level) 및 프레젠테이션 프리뷰를 포함할 수 있다. 공유 정도는 사용자의 지리적 위치를 다른 사용자 및 서버와 공유하기 위한 프라이버시 레벨을 포함할 수 있다. 예컨대, 발신자(512)는 제2 컴퓨팅 장치(510) 상에서 그 또는 그녀의 지리적 위치의 결정을 인에이블(enable) 또는 디스에이블(disable)할 수 있다. 그러한 제어는 위치 기반 서비스를 키거나 끄도록 구성된 하드 또는 소프트 버튼에 의해 실시될 수 있다. 마찬가지로, 발신자(512)는 서버 또는 제1 컴퓨팅 장치(520)와의 그 또는 그녀의 지리적인 교환을 인에이블 또는 디스에이블할 수 있다. 해상 레벨은 공유된 지리적 위치의 상세하고 정확한 범위를 통한 제어를 포함할 수 있다. 예컨대, 발신자(512)는 3 피트, 10 야드, 거리 레벨, 도시 레벨, 등 내에서의 그 또는 그녀의 위치를 공유하도록 요구할 수 있다. 마찬가지로, 발신자는 문자 설명 (예컨대, "전 파리, 16 rue de la fleur에 있음") 또는 그래픽적인 표현 (예컨대, 세계의 2D 맵 상에서 파리 상의 3D 에펠탑 그래픽)을 공유하도록 요구할 수 있다. 그러한 제어는 제2 컴퓨팅 장치(510) 상에서 하드 또는 소프트 슬라이더 버튼에 의해 실시될 수 있다. 프레젠테이션 프리뷰는 사용자의 컴퓨팅 장치를 통하여 사용자에게 지리적 위치를 프레젠테이션하는 것 및 사용자가 지리적 위치를 다른 사용자 또는 서버와 공유하기에 앞서 프레젠테이션된 정보를 편집하도록 허용하는 것을 포함할 수 있다. 예컨대, 발신자(512)에 의해 생성된 지오 태깅된 사진은 제1 컴퓨팅 장치(520)로의 전송에 앞서 제2 컴퓨팅 장치(510) 상에서 프리뷰 및 편집될 수 있다. 제어의 예시로서, 마크(Mark)가 그의 친구 로이(Roy)에게 전송할 계획인 문자 메시지를 작성하는 경우, 마크는 그의 스마트폰 상에서 위치 서비스가 완전히 "버지니아주, 알렉산드리아, 코트하우스 스퀘어 400, 제이미슨 그릴에 있는 바 뒤 테이블에"와 같이 그의 정확한 위치를 문자 메시지로 포함하게 할 수 있다. 그러나, 마크가 그의 상사 이브(Eve)와 채팅하는 경우, 마크는 이브가 "미국 특허 상표 메인 캠퍼스 근방"과 같이 그의 위치의 일반적인 관념만 수신할 수 있도록 그의 위치 서비스 설정을 수정할 수 있다.
일 실시예에서, 제1 사용자는 제2 사용자에 의해 개시된 착신하는 디지털 통신의 지리적 기점을 결정하는 것에 관심이 있을 수 있다. 지리적 기점은 위치 기반 서비스 어플리케이션을 이용하여 도출될 수 있다. 위치 기반 서비스 어플리케이션은 제1 컴퓨팅 장치(520)에 내장될 수 있다. 추가적으로, 위치 기반 서비스 어플리케이션은 원격 서버 상에 호스팅된 분석 엔진에 결합될 수 있다. 그럼으로써, 지리적 기점을 결정하는 것은 제1 컴퓨팅 장치(520) 상에서 로컬로 처리될 수 있거나 제1 컴퓨팅 장치(520) 및 원격 서버 사이에서 분배될 수 있다. 또한, 위치 기반 서비스 어플리케이션은 지리적 기점을 직접적으로 그리고 간접적으로 결정할 수 있다. 직접적인 결정은 제2 컴퓨팅 장치(510)와 연관된 지리적 위치로부터 직접적으로 도출될 수 있다. 예컨대, 컴퓨팅 장치(510 및 520)는 지리적 정보가 컴퓨팅 장치(510 및 520) 사이에서 직접적으로 교환될 수 있는 피어-투-피어 네트워크 아키텍처에서 구성될 수 있다. 간접적인 결정은 제3 자의 지원을 요구할 수 있다. 예컨대, 발신자(512) 및 수신자(522) 사이의 휴대 전화 대화 중, 서비스 프로바이더(530)는 제2 컴퓨팅 장치(510)의 위치(514)를 결정하도록 셀룰러 삼각 기법을 이용할 수 있다. 요청에 의해, 서비스 프로바이더(530)는 디지털 통신 내에서의 페이로드(payload)로서 제1 컴퓨팅 장치(520)에 결정된 위치(514)를 전달할 수 있다. 또한, 위치 기반 서비스 어플리케이션은 명백히 또는 암시적으로 지리적 기점을 결정할 수 있다. 명백한 결정은 단일 디지털 전송의 분석을 수반할 수 있다. 예컨대, 수신자(522)는 지리적 메타데이터를 포함하는 지오 태깅된 사진을 발신자(512)로부터 수신할 수 있다. 암시적인 결정은 복수의 디지털 전송의 분석을 수반할 수 있다. 예컨대, 발신자(512)는 첫 번째 이메일에서 "저는 시애틀에 있어요" 및 두 번째 이메일에서 "저는 파이어니어 스퀘어에 있어요"라고 기술하는 수신자(522)로의 두 개의 이메일 전송을 송신할 수 있다. 각 이메일은 그 자체로 요구되는 해상으로 발신자(512)의 위치를 결정하기에 충분하지 않을 수 있다. 위치 기반 서비스 어플리케이션은 수신된 이메일을 분석하고 "발신자가 시애틀, 파이오니어 스퀘어에 있음"과 같은 보다 정확한 위치를 도출하도록 구성될 수 있다.
일 실시예에서, 상대적인 위치가 결정될 수 있다. 상대적인 위치는 제1 컴퓨팅 장치(520)의 지리적 위치(524)에 대한 제2 컴퓨팅 장치(510)의 지리적 위치(514)일 수 있다. 제1 컴퓨팅 장치(520)는 결국, 지리적 위치(514 및 524)를 비교함으로써 상대적인 위치를 연산할 수 있는 위치 기반 서비스 어플리케이션을 실행할 수 있다. 예컨대, 컴퓨팅 장치(520 및 510)는 워싱턴 주 시애틀 유니온 스트리트 제1 애버뉴 그리고 워싱턴 주 시애틀, 유니온 스트리트 제3 애버뉴의 코너에 각각 위치할 수 있다. 그럼으로써, 위치 기반 어플리케이션은 제2 컴퓨팅 장치(510)가 제1 컴퓨팅 장치(520)의 두 블록 동쪽이라고 결정할 수 있다. 마찬가지로, 상대적인 위치는 제1 및 제2 컴퓨팅 장치(520 및 510)와 통신하는 서버 상에서 처리될 수 있다. 위에서 설명된 바와 같이, 서버는 컴퓨팅 장치(520 및 510) 사이의 통신을 관리할 수 있고 지리적 위치(524 및 514)로의 액세스를 가질 수 있다. 제1 컴퓨팅 장치(520)로부터의 요청에 의해, 서버는 제1 컴퓨팅 장치(520)로 상대적 위치를 연산하고 전송할 수 있다. 예컨대, 서비스 프로바이더(530)는 셀룰러 삼각 기법을 적용할 수 있으며 컴퓨팅 장치(520 및 510)가 각각 워싱턴 주 시애틀 유니온 스트리트 제1 애버뉴의 코너 및 오래곤 주 포트랜드 사우스웨스트 오크 스트리트 사우스웨스트 브로드웨이의 코너에 위치한다고 결정할 수 있다. 제1 컴퓨팅 장치(520)로부터의 요청에 의해, 서비스 프로바이더(530)는 제1 컴퓨팅 장치(520)로 제2 컴퓨팅 장치(510)가 제1 컴퓨팅 장치(520)의 약 200마일 남쪽이라는 표시를 전송할 수 있다.
일 실시예에서, 제1 컴퓨팅 장치(520) 상에 착신하는 디지털 통신의 지리적 기점을 프레젠테이션하기 위한 포맷이 결정될 수 있다. 추가적으로, 포맷은 상대적인 위치의 프레젠테이션을 포함할 수 있다. 프레젠테이션은 결정된 포맷에 기초한 증강 현실로서 지리적 기점 및 상대적 위치를 렌더링하고 디스플레이하는 것을 포함할 수 있다. 렌더링 및 디스플레이하는 것은 제1 컴퓨팅 장치(520) 상에 로컬로 처리될 수 있거나 제1 컴퓨팅 장치(520) 및 제1 컴퓨팅 장치(520)와 통신하는 서버 사이에 분배될 수 있다. 포맷은 증강 현실 어플리케이션에서 지리적 기점 및 상대적 위치를 프레젠테이션하기 위한 명령어를 포함할 수 있다. 명령어는 제1 컴퓨팅 장치(520)와 연관된 증강 현실 장면(526) 내에서 상대적 위치 및 지리적 기점을 통합하기 위한 정보를 포함할 수 있다. 또한, 포맷은 증강 현실 장면 내에서 상대적 위치 및 지리적 기점의 지각적인 표시를 제공할 수 있다. 지각적인 표시는 감각적인 표현을 포함할 수 있으며 지리적 기점 및 상대적 위치의 3 차원(3D) 지각을 제공하도록 구성된 상이한 양상(modality)을 포괄할 수 있다. 예컨대, 포맷은 방향을 나타내기 위한 3D 화살표와 같은 시각적인 표현, 거리를 나타내기 위한 핑(ping)과 같은 청각적 큐 및 목적지에 도달함을 나타내기 위한 진동과 같은 촉각적 자극을 제공할 수 있다.
일 실시예에서, 포맷은 적어도 디지털 통신, 지리적 기점, 상대적 위치 및 프레젠테이션 요구사항에 기초하여 결정될 수 있다. 예컨대, 디지털 통신의 유형 및 내용이 분석되어 포맷을 유도할 수 있다. 지리적 기점 및 상대적 위치는 포맷을 업데이트 하도록 분석될 수 있는 거리, 방향, 지향(orientation), 좌표 및 제어 레벨과 같은 정보를 포함할 수 있다. 추가적으로, 프레젠테이션 요구사항은 포맷을 보다 개선하는 데 이용될 수 있는 사이즈, 폰트, 배경, 애니메이션 및 프레젠테이션 지속성을 포함할 수 있다. 예컨대, 디지털 통신은 제2 사용자가 프랑스의 에펠탑에서 기다리고 있음을 설명하는 이메일을 포함할 수 있다. 그럼으로써, 지리적 기점의 포맷은 에펠탑을 표현하는 3D 오브젝트의 옆에 위치한 3D 봉투 모양으로의 글리프(glyph)를 포함할 수 있다. 추가적으로, 지리적 기점에 기초하여 제1 사용자가 제2 사용자의 10 블록 남쪽이라고 결정될 수 있다. 포맷은 10 블록 거리의 길이 표현 및 방향을 표현하는 북쪽 지향이 있는 화살표를 포함하도록 업데이트될 수 있다. 추가적으로, 프레젠테이션 요구사항은 확인(acknowledgment)이 제1 사용자로부터 수신될 때까지 글리프를 애니메이션화하는 데 이용된 점멸 속도를 포함할 수 있다.
일 실시예에서, 포맷은 3 차원 환경에서 지각적인 지리적 힌트를 제공하도록 구성된 상대적 위치 및 지리적 기점의 교차-양상 프레젠테이션을 포함할 수 있다. 교차-양상 프레젠테이션은, 예컨대, 시각적, 청각적 및 촉각적 큐의 조합을 포함할 수 있다. 지각적인 지리적 힌트는 제2 사용자(512) 또는 제2 컴퓨팅 장치(510)와 연관된 최근 디지털 통신의 위치의 3차원 지향을 제1 컴퓨팅 장치(520)를 통하여 제1 사용자(522)에게 제공하도록 구성될 수 있다. 예컨대, 제1 및 제2 컴퓨팅 장치(520 및 510)의 (X, Y, Z) 좌표가 유도될 수 있다. 좌표는 제1 사용자(522)가 뉴욕의 엠파이어 스테이트 빌딩으로부터 스트리트 레벨 3 블록 남쪽에 있는 한편, 제2 사용자(512)가 빌딩의 맨 위에 있음을 나타낼 수 있다. 그럼으로써, 증강 현실 장면(526) 내에서 제1 사용자(522)에게 3 블록 북쪽을 지향하고 엠파이어 스테이트 빌딩의 맨 위를 나타내는 102 층의 기울기로 위쪽으로 가리키는 3D 화살표가 프레젠테이션될 수 있다. 마찬가지로, 제1 사용자(522)는 고속도로에서 서쪽으로 운전하는 한편 제2 사용자(512)로부터 긴 이메일을 수신할 수 있다. 제1 컴퓨팅 장치(520)는 제2 사용자(522)가 제1 사용자(522)의 2 마일 서쪽이라고 결정할 수 있다. 그럼으로써, 제1 컴퓨팅 장치(520)는 제1 사용자(522)의 자동차 오디오 시스템을 통하여 이메일을 읽을 수 있다. 읽는 것은 제2 사용자(522)가 곧장 앞임을 나타내도록, 본 예시에서 전방 스피커와 같은 적절한 자동차 스피커를 통하여 방송될 수 있다. 추가적으로, 읽는 볼륨은 시간에 따라 변화할 수 있다. 예컨대, 볼륨은 제1 및 제2 사용자(522 및 512) 사이의 거리가 변화하거나 줄어들고 있음을 나타내도록 증가할 수 있다. 추가적인 예시로서, 제2 사용자(512)는 동일한 빌딩 층에 있지만 제1 사용자(522)의 몇 책상 북동쪽에 있을 수 있다. 제1 컴퓨팅 장치(520)의 코너는 제1 사용자(522)가 북동 지향에 대응하여 코너와 같은 최근 수신된 통신의 위치로 지향하도록 진동할 수 있다.
일 실시예에서, 포맷은 시각적, 청각적 및 촉각적 프레젠테이션 또는 이들의 조합을 포함할 수 있다. 시각적 프레젠테이션은 그래픽 오브젝트 및 문자 정보를 포함할 수 있다. 그래픽 오브젝트의 사이즈 및 애니메이션은 거리를 나타내는 데 이용될 수 있다. 예컨대, 사이즈가 작을수록 지리적 기점은 더 멀 수 있다. 마찬가지로, 그래픽 오브젝트는 거리를 나타내도록 상이한 속도로 점멸할 수 있거나 색 코드화될 수 있다. 문자 정보는 지리적 기점에 대한 설명을 포함할 수 있다. 예컨대, 텍스트 정보는 "서쪽 6마일" 또는 "아넬 스트리트 412에서 샘의 레스토랑"을 기술할 수 있다. 청각적 프레젠테이션은 소리를 포함할 수 있고 볼륨 및 품질 레벨을 지리적 기점과 연관시킬 수 있다. 예컨대, 청각적 표현은 거리를 나타내도록 소나 같은 핑을 포함할 수 있다. 추가적으로, 촉각적 프레젠테이션은 제1 컴퓨팅 장치(520) 상에서 활성화될 수 있는 진동 모드를 포함할 수 있다. 예컨대, 지리적 기점이 가까울수록 진동 속도가 보다 빨라질 수 있다.
추가적인 실시예에서, 지리적 기점의 일부 범위 내에 오브젝트, 장소, 활동, 사람 등에 대한 추가적인 정보가 또한 제1 컴퓨팅 장치(520) 상에 프레젠테이션될 수 있다. 정보는 서비스 프로바이더(530)에 의해 제공된 서버 상에 있을 수 있다. 제1 컴퓨팅 장치(520)로부터의 요청에 의해, 서버는 제1 컴퓨팅 장치(520)로의 정보를 검색하고 전송할 수 있다. 제1 컴퓨팅 장치(520)는 문자 설명이 있는 리스트로서, 하이퍼링크로서 또는 증강 현실 장면(526) 내에서의 증강 현실 오브젝트로서 정보를 프레젠테이션할 수 있다.
일 실시예에서, 제1 컴퓨팅 장치(520)는 증강 현실 장면(526)을 프레젠테이션하는 증강 현실 어플리케이션과 같은 제1 어플리케이션 및 컴퓨팅 장치(510 및 520)의 지리적 위치(514 및 524)를 제공할 수 있는 위치 기반 서비스와 같은 제2 어플리케이션을 포함할 수 있다. 두 개의 어플리케이션은 증강 현실 장면(526) 내에 증강 현실 오브젝트로서 디지털 통신의 지리적 기점의 위치를 프레젠테이션하도록 통합될 수 있다. 통합은 다음의 요소들을 포함할 수 있다.
(a) 제1 컴퓨팅 장치(520)는 카메라, 다른 하드웨어 및 소프트웨어로 장비될 수 있거나 제1 컴퓨팅 장치(520)의 주변으로부터 도출되는 시각적 정보를 제공할 수 있는 시스템에 액세스할 수 있음;
(b) 제1 어플리케이션은 (예컨대, 하드웨어 또는 저 레벨 시스템 서비스로의 액세스를 통하여) 제1 어플리케이션에 의해 직접적으로 또는 (예컨대, 이미지 또는 비디오 피드의 형식으로) 플랫폼 또는 다른 서비스에 의해, 시각적 정보로부터 도출된 증강 현실 장면(526)을 프레젠테이션하도록 구성될 수 있음;
(c) 제2 어플리케이션은 디지털 통신 (예컨대, 이미 지리적 정보를 가진 채팅 클라이언트 또는 휴대 전화)으로부터 직접적으로 또는 플랫폼 또는 다른 서비스(예컨대, 다양한 통신의 기점을 결정하도록 호출될 수 있는 운영 체제(OS) 레벨 어플리케이션 프로그램 인터페이스(API))에 의해 지리적 기점을 결정하도록 구성될 수 있음;
(d) 제1 및 제2 어플레이션을 맞물리기 위한 활성화 매커니즘. 매커니즘은, 예컨대, 하드 또는 소프트 버튼, 제스처 또는 제1 사용자가 기능을 활성화하도록 허용하는 유사한 상호작용을 포함할 수 있음;
(e) 지리적 기점을 제2 어플리케이션으로부터 제1 어플리케이션으로 전달하기 위한 전달 메커니즘. 전달 메커니즘은, 두 개의 어플리케이션 사이에서 정보를 교환하도록, 예컨대, API를 포함함; 및
(f) 증강 현실 장면에서 지리적 기점을 프레젠테이션하기 위한 적절 및/또는 최적 수단을 결정하기 위한 포맷 메커니즘.
추가적인 실시예에서, 포맷 메커니즘은 시각적, 청각적 및 촉각적 3 차원 프레젠테이션의 조합으로 지리적 기점을 프레젠테이션하도록 구성될 수 있다. 포맷은, 다음과 같이, 적어도 디지털 통신, 지리적 기점 및 프레젠테이션 요구사항으로부터 도출될 수 있다.
(a) 통신의 유형으로부터 도출된 그래픽 오브젝트 (예컨대, 이메일은 봉투로 프레젠테이션될 수 있고, 채팅은 사용자 프로필로, 전화 통화는 핸드셋 등으로 프레젠테이션될 수 있음);
(b) 그래픽 오브젝트의 애니메이션 (예컨대, 그래픽 오브젝트는 제1 사용자에 의해 확인될 때까지 점멸할 수 있음);
(c) 그래픽 오브젝트와 포함된 상세 레벨 (예컨대, 마일(mile), 국가, 주(state), 거리 정보 등);
(d) 프레젠테이션 지속성 (예컨대, 그래픽 오브젝트는 미리 정의된 양의 시간 이후, 원래의 통신이 삭제된 이후, 등에 사라짐);
(e) 지리적 기점에 관하여 제1 사용자가 지향하게 돕기 위한 다른 그래픽 힌트의 프레젠테이션 (예컨대, 화살표가 디지털 통신의 기점을 향하여 가리키는 증강 현실 장면에서 나타날 수 있음);
(f) 통신의 유형과 연관된 소리 (예컨대, 이메일에 대한 핑, 인스턴트 메시지에 대한 대화, 전화 통화에 대한 오디오 링, 등);
(g) 지리적 기점과 연관된 소리 (예컨대, 프랑스로부터 비롯되는 통신에 대하여 프랑스 국가와 같은 지리적 위치와 연관된 특정 테마);
(h) 지리적 기점과 상관된 소리의 품질 및 볼륨 (예컨대, 보다 먼 거리에 대하여 보다 낮은 볼륨); 및
(i) 지리적 기점과 상관된 진동 속도 및 세기 (예컨대, 보다 가까운 거리에 대하여 보다 세고 보다 빈번한 진동)
도 6a-도 6c는 디지털 통신으로부터 도출된 증강 현실 지리적 기점의 예시적 프레젠테이션을 도시한다. 도 6a를 참조하면, 컴퓨팅 장치(610)는 제1 사용자(630)와 연관될 수 있다. 컴퓨팅 장치(610)는 도 2의 장치(210) 중 임의의 것일 수 있다. 예컨대, 컴퓨팅 장치(610)는, 인터넷에 연결된 구글 안드로이드 폰, 마이크로소프트 윈도우 폰 또는 애플 아이폰과 같은 스마트폰일 수 있다. 또한, 컴퓨팅 장치(610)는 증강 현실 및 위치 기반 어플리케이션을 포함할 수 있다. 제1 사용자(630)는 컴퓨팅 장치(610)를 이용하여 인스턴트 메시지(640)와 같이 디지털 통신을 제2 사용자(620)와 교환할 수 있다. 제2 사용자(620)는 제2 컴퓨팅 장치(도시되지 않음)와 연관될 수 있다. 제1 사용자(630)는 미팅에 대한 초대 ("이봐요, 여기 오세요!"라고 기술하는 메시지와 같이 도 6a에 도시됨)와 같이 제2 사용자(620)로부터 메시지를 수신할 수 있다. 그럼으로써, 제1 사용자(630)는 제2 사용자(620)의 위치를 결정하는 것에 관심이 있을 수 있다.
일 실시예에서, 제1 사용자(630)는 디지털 통신(640)의 지리적 기점을 결정하도록 증강 현실 및 위치 기반 서비스를 이용할 수 있다. 도 6b를 참조하면, 제1 사용자(630)는 증강 현실 및 위치 기반이 인에이블된 컴퓨팅 장치(610)를 들고 주변 영역을 살필 수 있다. 컴퓨팅 장치(610)는 제1 사용자(630)의 지리적 위치, 주변 및 이용 가능한 증강 현실 서비스와 같은 다른 요인에 기초하여 증강 현실 장면을 제1 사용자(630)에게 프레젠테이션할 수 있다. 또한, 제1 컴퓨팅 장치(610)는 제2 사용자(620) 또는 제2 컴퓨팅 장치의 상대적 위치를 결정할 수 있다. 제1 컴퓨팅 장치(610)는 증강 현실 장면 내에 상대적 위치를 프레젠테이션하도록 증강 현실 포맷을 결정할 수 있다. 예컨대, 프레젠테이션 포맷은 디지털 통신(640)의 지리적 기점의 방향으로 가리키는 증강 현실 장면 내의 화살표(660)를 포함할 수 있다. 화살표(660)의 길이는 지리적 기점으로의 거리를 나타낼 수 있다. 화살표(660)는 또한 지리적 기점으로의 방향을 설명하는 "4 블록 북쪽"과 같은 문자를 포함할 수 있다. 소나와 같은 핑과 같은 소리는 또한 제1 사용자(630)가 지리적 기점으로 더 지향하도록 활성화될 수 있다. 예컨대, 제1 사용자(630)는 소리가 사라지고 화살표(660)가 도 6c에 도시된 바와 같이 곧장 앞을 가리키도록 컴퓨팅 장치(610)를 지향할 수 있다. 컴퓨팅 장치(610)는 증강 현실 장면 내에서 화살표(660)의 단부에 글리프를 프레젠테이션할 수 있다. 글리프는 최근 디지털 통신(640), 제2 사용자(620)의 아바타 및 지리적 위치(670)를 포함할 수 있다. 지리적 위치(670)는 제2 사용자(620)가 위치한 장소를 설명하는 문자를 포함할 수 있다. 추가적으로, 지리적 위치(670)는 장소에 대한 웹페이지로의 하이퍼링크를 포함할 수 있다. 컴퓨팅 장치(610)는 제1 또는 제2 사용자(630 및 620) 중 하나의 지리적 위치가 변화함에 따라, 지리적 기점 표시(예컨대, 화살표(660) 및 글리프)를 포함하는 증강 현실 장면을 업데이트할 수 있다. 예컨대, 제1 사용자(630)가 지리적 위치(670)에 설명된 장소로 걸어감에 따라, 컴퓨팅 장치(610)는 화살표(660) 및 글리프를 업데이트할 수 있다. 화살표(660)가 점점 짧아지는 반면 글리프는 점점 커지게 프레젠테이션될 수 있다. 제1 사용자(630)가 장소로 도착하면, 컴퓨팅 장치(610)는 제2 사용자(620)의 인접을 나타내도록 진동할 수 있다.
도 7a-도 7b는 디지털 통신으로부터 도출된 증강현실 지리적 기점의 다른 예시적인 프레젠테이션을 도시한다. 도 7a를 참조하면, 컴퓨팅 장치(710)는 사용자와 연관될 수 있다. 컴퓨팅 장치(710)는 도 6a-도 6b의 컴퓨팅 장치의 일부 또는 모든 요소를 포함할 수 있으며 증강 현실 및 위치 기반 서비스를 제공할 수 있도록 할 수 있다. 일 실시예에서, 사용자는 이메일(730)을 컴퓨팅 장치(710) 상에서 송신자(720)로부터 수신할 수 있다. 사용자는 송신자(720)가 여행 중임을 알 수 있지만 송신자(720)의 지리적 위치를 모를 수 있다. 또한, 송신자(720)는 그 또는 그녀의 위치에 대한 상세의 레벨을 제어할 수 있다. 예컨대, 송신자(720)는 사용자가 단지 도시 레벨의 정확도 만으로 송신자의 지리적 위치를 결정하도록 허용할 수 있다. 도 7b를 참조하면, 사용자는 이메일(730)의 지리적 기점의 3 차원 표시를 포함하는 증강 현실 장면을 보도록 컴퓨팅 장치(710)를 들어올릴 수 있다. 표시는 송신자(720)가 사용자의 현재 위치의 남쪽 200 마일과 같은 일부 거리 및 방향으로 포트랜드와 같은, 도시에 있음을 설명하는 화살표(760)를 포함할 수 있다. 표시는 또한, 이메일(730)을 표현하는, 화살표(660)의 끝에 위치한 봉투의 이미지와 같은 글리프를 포함할 수 있다. 표시는 지리적 위치에 대한 그래픽, 문자 및 청각적 정보를 제공할 수 있다. 예컨대, 글리프의 사이즈는 사용자 및 송신자 사이의 거리를 제안할 수 있다. 문자 정보는 또한 "남쪽 약 200 마일"이라 말하도록 글리프의 사이즈를 보완함으로써 거리를 더 설명할 수 있다. 또한, 컴퓨팅 장치(710)는 "송신자는 당신의 위치의 약 200마일인 포트랜드에 있다"고 말하도록 높은 볼륨으로 지리적 기점을 청각적으로 인용할 수 있다.
도 8은 동작(800, 802, 804, 806, 808 및 810)을 포함하는 증강 현실 포맷으로 디지털 통신의 위치 표시를 제시하기 위한 예시적인 동작적인 절차를 도시한다. 동작(800)은 디지털 통신, 증강 현실 어플리케이션 및 위치 기반 서비스가 도 2의 장치(210) 중 임의의 것과 같은 제1 컴퓨팅 장치 상에서 활성화될 수 있는 동작적인 절차를 시작한다. 제1 컴퓨팅 장치는 디지털 통신의 수신자와 연관된 수신하는 컴퓨팅 장치일 수 있다. 동작(800)은 동작(802)으로 이어질 수 있다. 동작(802)(수신자와 연관된 증강 현실 장면을 생성)은 제1 컴퓨팅 장치의 적어도 현재 지리적 위치에 기초하여 증강 현실 장면을 생성하는 단계를 예시한다. 동작(802)은 동작(804)으로 이어질 수 있다. 동작(804)(발신자와 통신 교환)은 수신자 및 발신자 사이에 통신을 교환하는 단계를 예시한다. 발신자는 수신자와 디지털로 통신하는 발신 컴퓨팅 장치와 같은 제2 컴퓨팅 장치와 연관될 수 있다. 동작(804)은 동작(806)으로 이어질 수 있다. 동작(806)(발신자의 위치를 결정)은 발신자의 위치를 결정하는 단계를 예시한다. 위치는 제2 컴퓨팅 장치의 지리적 위치와 연관될 수 있다. 수신하는 컴퓨팅 장치는 상술된 위치 결정 기법 중 임의의 것을 이용하여 지리적 위치 또는 상대적 위치를 결정할 수 있다. 동작(806)은 동작(808)으로 이어질 수 있다. 동작(808)(증강 현실 오브젝트로서 수신자로의 결정된 위치의 표시를 프레젠테이션하기 위한 증강 현실 포맷을 결정)은 증강 현실 장면 내에 증강 현실 오브젝트로서 지리적 위치의 3 차원 표시를 프레젠테이션하기 위한 포맷을 결정하는 단계를 예시한다. 포맷은 적어도 지리적 위치, 디지털 통신 및 프레젠테이션 요구사항으로부터 도출될 수 있다. 추가적으로, 포맷은 지리적 위치를 지각적으로 나타내도록 시각적, 청각적 및 촉각적 2 및 3차원 프레젠테이션의 조합을 포함할 수 있다. 또한, 포맷은 지리적 위치의 일부 범위 내에서의 오브젝트, 장소 및 사람에 대한 추가적인 정보를 포함할 수 있다. 동작(808)은 동작(810)으로 이어질 수 있다. 동작(810)(증강 현실 오브젝트가 있는 증강 현실 장면을 업데이트)은 지리적 기점을 지각적으로 나타내는 증강 현실 오브젝트가 있는 증강 현실 장면을 업데이트하는 단계를 예시한다. 업데이트는 동작(808) 사에서 유도된 포맷에 기초할 수 있다.
당업자라면, 여기에서 기술된 이러한 및 다른 프로세스 및 방법에 대해, 프로세스 및 방법에서 수행되는 기능이 상이한 순서로 구현될 수 있음을 이해할 것이다. 또한, 개략적인 단계 및 동작은 단지 예시로서 제공된 것이고, 이러한 단계 및 동작의 일부는, 개시된 실시예의 본질을 손상시키지 않으면서, 선택적일 수 있거나, 더 적은 단계 및 동작으로 조합될 수 있거나, 추가적인 단계 및 동작으로 확장될 수 있다.
본 개시는 다양한 태양의 예시로서 의도된 본 출원에 기술된 특정 실시예들에 제한되지 않을 것이다. 당업자에게 명백할 바와 같이, 많은 수정과 변형이 그 사상과 범위를 벗어나지 않으면서 이루어질 수 있다. 여기에 열거된 것들에 더하여, 본 개시의 범위 안에서 기능적으로 균등한 방법과 장치가 위의 설명으로부터 당업자에게 명백할 것이다. 그러한 수정과 변형은 첨부된 청구항의 범위에 들어가도록 의도된 것이다. 본 개시는 첨부된 청구항의 용어에 의해서만, 그러한 청구항에 부여된 균등물의 전 범위와 함께, 제한될 것이다. 본 개시가 물론 다양할 수 있는 특정 방법, 시약, 합성 구성 또는 생물학적 시스템에 제한되지 않는 것으로 이해될 것이다. 또한, 여기에서 사용된 용어는 단지 특정 실시예들을 기술하기 위한 목적이고, 제한하는 것으로 의도되지 않음이 이해될 것이다.
예시적인 실시예에서, 여기에서 기술된 임의의 동작, 처리 등은 컴퓨터-판독가능 매체에 저장된 컴퓨터-판독가능 명령어로서 구현될 수 있다. 컴퓨터-판독가능 명령어는 모바일 유닛, 네트워크 요소, 및/또는 임의의 다른 컴퓨팅 장치의 프로세서에 의해 실행될 수 있다.
시스템 양상들의 하드웨어와 소프트웨어 구현 사이에는 구별이 거의 없다. 하드웨어 또는 소프트웨어의 사용은 일반적으로 (그러나 어떤 맥락에서 하드웨어 및 소프트웨어 사이의 선택이 중요하게 될 수 있다는 점에서 항상 그런 것은 아니지만) 비용 대비 효율의 트레이드오프(tradeoff)를 나타내는 설계상 선택(design choice)이다. 여기에서 기술된 프로세스 및/또는 시스템 및/또는 다른 기술들이 영향 받을 수 있는 다양한 수단(vehicles)(예를 들어, 하드웨어, 소프트웨어 및/또는 펌웨어)이 있으며, 선호되는 수단은 프로세스 및/또는 시스템 및/또는 다른 기술이 사용되는 맥락(context)에 따라 변경될 것이다. 예를 들어, 만약 구현자가 속도 및 정확도가 중요하다고 결정하면, 구현자는 주로 하드웨어 및/또는 펌웨어(firmware) 수단을 선택할 수 있고, 만약 유연성이 중요하다면, 구현자는 주로 소프트웨어 구현을 선택할 수 있으며, 또는, 또 다른 대안으로서, 구현자는 하드웨어, 소프트웨어, 및/또는 펌웨어 중 일부 조합을 선택할 수 있다.
전술한 상세한 설명은 블록도, 흐름도, 및/또는 예시의 사용을 통해 장치 및/또는 프로세스의 다양한 실시예를 설명하였다. 그러한 블록도, 흐름도, 및/또는 예시가 하나 이상의 기능 및/또는 동작을 포함하는 한, 당업자라면 그러한 블록도, 흐름도, 또는 예시 내의 각각의 기능 및/또는 동작은 하드웨어, 소프트웨어, 펌웨어, 또는 실질적으로 그들 임의의 조합의 넓은 범위에 의해 개별적으로 및/또는 집합적으로 구현될 수 있다는 것이 이해될 것이다. 일 실시예에서, 여기에서 기술된 대상의 몇몇 부분은 ASIC(Application Specific Integrated Circuit), FPGA(Field Programmable Gate Array), DSP(Digital Signal Processor) 또는 다른 집적의 형태를 통해 구현될 수 있다. 그러나, 당업자라면, 여기에서 기술된 실시예의 일부 양상이, 하나 이상의 컴퓨터 상에 실행되는 하나 이상의 컴퓨터 프로그램(예를 들어, 하나 이상의 컴퓨터 시스템 상에 실행되는 하나 이상의 프로그램), 하나 이상의 프로세서 상에서 실행되는 하나 이상의 프로그램(예를 들어, 하나 이상의 마이크로프로세서 상에서 실행되는 하나 이상의 프로그램), 펌웨어 또는 실질적으로 그들의 조합으로서, 전체적으로 또는 부분적으로 균등하게 집적 회로에 구현될 수 있다는 것을 알 수 있으며, 소프트웨어 및/또는 펌웨어를 위한 코드의 작성 및/또는 회로의 설계는 본 개시에 비추어 당업자에게 자명할 것이다. 또한, 당업자라면, 여기에서 기술된 대상의 수단(mechanism)들이 다양한 형태의 프로그램 제품으로 분포될 수 있음을 이해할 것이며, 여기에서 기술된 대상의 실시예는, 분배를 실제로 수행하는데 사용되는 신호 베어링 매체(signal bearing medium)의 특정 유형과 무관하게 적용됨을 이해할 것이다. 신호 베어링 매체의 예시는, 플로피 디스크, 하드 디스크 드라이브, CD, DVD, 디지털 테이프, 컴퓨터 메모리 등과 같은 판독가능 유형의 매체 및 디지털 및/또는 아날로그 통신 매체(예를 들어, 섬유 광학 케이블, 웨이브가이드, 유선 통신 링크, 무선 통신 링크 등)와 같은 전송 유형 매체를 포함할 수 있으나, 이에 제한되지는 않는다.
당업자라면, 여기서 설명된 형식으로 장치 및/또는 프로세스를 기술하고, 이후, 공학 실무를 사용하여 그러한 기술된 장치 및/또는 프로세스을 데이터 처리 시스템에 통합한다는 것은 당해 분야에서는 일반적이란 것을 인식할 것이다. 즉, 여기서 기술된 장치 및/또는 방법의 적어도 일부는 합당한 실험 량을 통해 데이터 처리 시스템에 통합될 수 있다. 당업자라면, 전형적인 데이터 처리 시스템은 일반적으로 시스템 유닛 하우징, 비디오 디스플레이 장치, 휘발성 및 비휘발성 메모리 같은 메모리, 마이크로프로세서 및 디지털 신호 프로세서와 같은 프로세서, 운영 체제, 드라이버, 그래픽 사용자 인터페이스 및 애플리케이션 프로그램과 같은 컴퓨터 엔티티(computational entities), 터치 패드 또는 스크린 같은 하나 이상의 상호작용 장치, 및/또는 피드백 루프 및 제어 모터(예를 들면, 위치 및/또는 속도를 감지하기 위한 피드백; 컴포넌트 및/또는 양(quantities)을 이동하고 및/또는 조정하기 위한 제어 모터)를 포함하는 제어 시스템 중 하나 이상을 일반적으로 포함한다는 것을 인식할 것이다. 전형적인 데이터 처리 시스템은 데이터 컴퓨팅/통신 및/또는 네트워크 컴퓨팅/통신 시스템에서 전형적으로 발견되는 바와 같은 임의의 적절한 상업적으로 이용 가능한 컴포넌트를 이용하여 구현될 수 있다.
여기에서 기술된 대상은 때때로 상이한 다른 컴포넌트 내에 포함되거나 접속된 상이한 컴포넌트를 도시한다. 도시된 그러한 아키텍처는 단순히 예시적인 것이고, 사실상 동일한 기능을 달성하는 다른 많은 아키텍처가 구현될 수 있다는 것이 이해되어야 한다. 개념적으로, 동일한 기능을 달성하기 위한 컴포넌트의 임의의 배치는 원하는 기능이 달성되도록 유효하게 "연관"된다. 이에 따라, 특정 기능을 달성하기 위해 여기서 결합된 임의의 두 개의 컴포넌트는, 아키텍처 또는 중간 컴포넌트와는 무관하게, 원하는 기능이 달성되도록 서로 "연관"된 것으로 볼 수 있다. 마찬가지로, 연관된 임의의 두 개의 컴포넌트는 또한 원하는 기능을 달성하기 위해 서로 "동작적으로 접속"되거나 또는 "동작적으로 연결"되는 것으로 간주될 수 있고, 그와 같이 연관될 수 있는 임의의 두 개의 컴포넌트는 또한 원하는 기능을 달성하기 위해 서로 "동작적으로 연결가능"한 것으로 볼 수 있다. 동작적으로 연결가능하다는 것의 특정예는 물리적으로 양립가능(mateable)하고 및/또는 물리적으로 인터액팅하는 컴포넌트 및/또는 무선으로 인터액팅이 가능하고 및/또는 무선으로 인터액팅하는 컴포넌트 및/또는 논리적으로 인터액팅하고 및/또는 논리적으로 인터액팅이 가능한 컴포넌트를 포함하지만, 이에 한정되는 것은 아니다.
여기에서 실질적으로 임의의 복수 및/또는 단수의 용어의 사용에 대하여, 당업자는 맥락 및/또는 응용에 적절하도록, 복수를 단수로 및/또는 단수를 복수로 해석할 수 있다. 다양한 단수/복수의 치환은 명확성을 위해 여기에서 명시적으로 기재될 수 있다.
당업자라면, 일반적으로 본 개시에 사용되며 특히 첨부된 청구범위(예를 들어, 첨부된 청구범위)에 사용된 용어들이 일반적으로 "개방적(open)" 용어(예를 들어, 용어 "포함하는"은 "포함하지만 이에 제한되지 않는"으로, 용어 "갖는"는 "적어도 갖는"으로, 용어 "포함하다"는 "포함하지만 이에 한정되지 않는" 등으로 해석되어야 함)로 의도되었음을 이해할 것이다. 또한, 당업자라면, 도입된 청구항의 기재사항의 특정 수가 의도된 경우, 그러한 의도가 청구항에 명시적으로 기재될 것이며, 그러한 기재사항이 없는 경우, 그러한 의도가 없음을 또한 이해할 것이다. 예를 들어, 이해를 돕기 위해, 이하의 첨부 청구범위는 "적어도 하나" 및 "하나 이상" 등의 도입 구절의 사용을 포함하여 청구항 기재사항을 도입할 수 있다. 그러나, 그러한 구절의 사용이, 부정관사 "하나"("a" 또는 "an")에 의한 청구항 기재사항의 도입이, 그러한 하나의 기재사항을 포함하는 실시예들로, 그러한 도입된 청구항 기재사항을 포함하는 특정 청구항을 제한함을 암시하는 것으로 해석되어서는 안되며, 동일한 청구항이 도입 구절인 "하나 이상" 또는 "적어도 하나" 및 "하나"("a" 또는 "an")과 같은 부정관사(예를 들어, "하나"는 "적어도 하나" 또는 "하나 이상"을 의미하는 것으로 해석되어야 함)를 포함하는 경우에도 마찬가지로 해석되어야 한다. 이는 청구항 기재사항을 도입하기 위해 사용된 정관사의 경우에도 적용된다. 또한, 도입된 청구항 기재사항의 특정 수가 명시적으로 기재되는 경우에도, 당업자라면 그러한 기재가 적어도 기재된 수(예를 들어, 다른 수식어가 없는 "두개의 기재사항"을 단순히 기재한 것은, 적어도 두 개의 기재사항 또는 두 개 이상의 기재사항을 의미함)를 의미하도록 해석되어야 함을 이해할 것이다. 또한, "A, B 및 C 등 중의 적어도 하나"와 유사한 규칙이 사용된 경우에는, 일반적으로 그러한 해석은 당업자가 그 규칙을 이해할 것이라는 전제가 의도된 것이다(예를 들어, "A, B 및 C 중의 적어도 하나를 갖는 시스템"은, A만을 갖거나, B만을 갖거나, C만을 갖거나, A 및 B를 함께 갖거나, A 및 C를 함께 갖거나, B 및 C를 함께 갖거나, A, B, 및 C를 함께 갖는 시스템 등을 포함하지만 이에 제한되지 않음). "A, B 또는 C 등 중의 적어도 하나"와 유사한 규칙이 사용된 경우에는, 일반적으로 그러한 해석은 당업자가 그 규칙을 이해할 것이라는 전제가 의도된 것이다(예를 들어, "A, B 또는 C 중의 적어도 하나를 갖는 시스템"은, A만을 갖거나, B만을 갖거나, C만을 갖거나, A 및 B를 함께 갖거나, A 및 C를 함께 갖거나, B 및 C를 함께 갖거나, A, B, 및 C를 함께 갖는 시스템 등을 포함하지만 이에 제한되지 않음). 또한 당업자라면, 실질적으로 임의의 이접 접속어(disjunctive word) 및/또는 두 개 이상의 대안적인 용어들을 나타내는 구절은, 그것이 상세한 설명, 청구범위 또는 도면에 있는지와 상관없이, 그 용어들 중의 하나, 그 용어들 중의 어느 하나, 또는 그 용어들 두 개 모두를 포함하는 가능성을 고려했음을 이해할 것이다. 예를 들어, "A 또는 B"라는 구절은 "A" 또는 "B" 또는 "A 및 B"의 가능성을 포함하는 것으로 이해될 것이다.
추가적으로, 개시의 특징 또는 양태가 마쿠시(Markush) 그룹으로 기술되는 경우, 개시는 마쿠시 그룹의 임의의 개별 요소 또는 요소들의 하위 그룹 역시 포함하고 있다는 것을 당업자는 인식할 것이다.
당업자에게 이해될 것과 같이, 임의의 그리고 모든 목적에서든, 기술 내용을 제공하는 것 등에 있어서, 여기에 개시되어 있는 모든 범위는 임의의 그리고 모든 가능한 하위범위와 그러한 하위범위의 조합을 또한 포함한다. 임의의 열거된 범위는 적어도 1/2, 1/3, 1/4, 1/5, 1/10 등으로 나누어지는 동일한 범위를 충분히 설명하고 실시가능하게 하는 것으로서 쉽게 인식될 수 있다. 제한하지 않는 예시로서, 여기서 논의되는 각각의 범위는 하위 1/3, 중앙 1/3, 상위 1/3 등으로 나누어질 수 있다. 또한, "까지", "적어도" 등과 같은 언어는 기재된 수를 포함하며, 전술한 하위범위로 후속적으로 나누어질 수 있는 범위를 지칭함이 당업자에게 이해되어야 한다. 마지막으로, 범위는 각각의 개별 요소를 포함함이 이해되어야 한다. 따라서, 예를 들어, 1-3개의 셀을 갖는 그룹은 1, 2 또는 3개의 셀을 갖는 그룹들을 의미한다. 유사하게, 1-5개의 셀을 갖는 그룹은 1, 2, 3, 4 또는 5개의 셀을 갖는 그룹을 의미한다.
앞서 말한 바로부터, 본 개시의 다양한 실시예가 예시의 목적을 위해 여기에서 기술되었고, 다양한 수정이 본 개시의 사상과 범위를 벗어나지 않으면서 이루어질 수 있음이 인정될 것이다. 따라서, 여기에서 개시된 다양한 실시예는 제한하려고 의도된 것이 아니며, 진정한 범위와 사상은 이하 청구범위에서 나타난다.

Claims (20)

  1. 디지털 통신의 위치를 나타내도록 구성된 시스템으로서,
    프로세서; 및
    상기 프로세서에 통신 가능하게 결합된 메모리
    를 포함하고,
    상기 메모리는 상기 프로세서에 의해 실행되면 상기 시스템으로 하여금 적어도,
    증강 현실 장면을 렌더링하고;
    디지털 통신의 지리적 기점(geographic origin)을 결정하며; 그리고
    상기 증강 현실 장면 내 상기 지리적 기점을 프레젠테이션(presentation)하기 위한 증강 현실 포맷을 결정하도록 하는 프로세서 명령어를 포함하는 것인, 시스템.
  2. 제1항에 있어서,
    상기 디지털 통신의 상기 지리적 기점을 결정하는 것은 상기 디지털 통신이 비롯되는 제1 컴퓨팅 장치의 제1 지리적 위치를 결정하는 것을 포함하고,
    상기 증강 현실 포맷은 상기 디지털 통신, 상기 지리적 기점 및 프레젠테이션 요구사항에 기초하여 결정되고, 상기 디지털 통신을 수신하는 제2 컴퓨팅 장치의 제2 지리적 위치에 대한 상기 제1 지리적 위치의 표시를 포함하며, 그리고
    상기 표시는 3 차원 프레젠테이션을 제공하도록 구성된, 상기 제2 지리적 위치에 대한 상기 제1 지리적 위치의 시각적, 청각적 및 촉각적 표시의 조합을 포함하는 것인, 시스템.
  3. 제1항에 있어서,
    상기 증강 현실 포맷은 상기 지리적 기점을 나타내도록 구성된 증강 현실 오브젝트의 시각적 프레젠테이션에 대한 명령어를 포함하는 것인, 시스템.
  4. 제3항에 있어서,
    상기 시각적 프레젠테이션은 상기 디지털 통신으로부터 도출된 그래픽 오브젝트, 상기 그래픽 오브젝트의 애니메이션, 상기 지리적 기점으로부터 도출된 정보, 상기 정보와 연관된 상세의 레벨, 상기 증강 현실 오브젝트를 사용자에게 디스플레이하는 것과 연관된 프레젠테이션 지속성, 상기 지리적 기점을 설명하는 문자 정보 및 상기 사용자가 상기 지리적 기점으로 지향하도록 구성된 그래픽 힌트 중 하나 이상에 기초하는 것인, 시스템.
  5. 제1항에 있어서,
    상기 증강 현실 포맷은 상기 지리적 기점을 나타내도록 구성된 증강 현실 오브젝트의 청각적 프레젠테이션에 대한 명령어를 포함하는 것인, 시스템.
  6. 제5항에 있어서,
    상기 청각적 프레젠테이션은 상기 디지털 통신과 연관된 소리, 상기 지리적 기점과 연관된 소리 및 상기 지리적 기점에 기초한 볼륨 및 품질 중 하나 이상에 기초하는 것인, 시스템.
  7. 증강 현실 환경에서 지리적 위치를 프레젠테이션하기 위한 방법으로서,
    제1 컴퓨팅 장치의 제1 위치에 기초하여 증강 현실 장면을 생성하는 단계;
    상기 제1 컴퓨팅 장치와 디지털 통신을 개시하는 제2 컴퓨팅 장치의 제2 위치를 결정하는 단계; 및
    상기 증강 현실 장면 내 상기 제1 위치에 대한 상기 제2 위치를 프레젠테이션하기 위한 포맷을 결정하는 단계
    를 포함하는 방법.
  8. 제7항에 있어서,
    상기 디지털 통신은 실시간 통신 및 저장 전달 통신 중 하나 이상을 포함하는 것인, 방법.
  9. 제7항에 있어서,
    상기 제1 및 제2 위치는 위성 위치결정 시스템 기반 정보(satellite positioning system-based information), 셀룰러 삼각법 데이터, 무선 액세스 포인트 보간 데이터 및 지리적 태그 중 적어도 하나 이상으로부터 도출되는 것인, 방법.
  10. 제7항에 있어서,
    상기 제2 위치를 결정하는 단계는 해상 레벨(resolution level)을 결정하는 단계를 포함하고,
    상기 해상 레벨은 상기 제2 위치의 결정을 인에이블(enable)하는 것, 상기 제2 위치의 결정을 디스에이블(disable)하는 것, 상기 제2 위치와 연관된 정보의 상세 레벨 및 상기 제2 위치의 프리뷰 프레젠테이션 중 하나 이상에 기초하여 상기 제2 컴퓨팅 장치에서 제어되는 것인, 방법.
  11. 제7항에 있어서,
    상기 포맷은 상기 제2 위치와 연관된 오브젝트에 대한 정보로의 링크를 프레젠테이션하기 위한 명령어를 포함하고, 상기 정보는 증강 현실 오브젝트로서 프레젠테이션되는 것인, 방법.
  12. 제7항에 있어서,
    상기 결정된 포맷에 기초하여 상기 제1 위치에 대한 상기 제2 위치가 있는 상기 증강 현실 장면을 업데이트하는 단계
    를 더 포함하고,
    상기 업데이트하는 단계는 상기 제1 위치에 대한 상기 제2 위치의 표시 및 상기 제2 위치의 표시를 프레젠테이션하는 단계를 포함하고, 상기 표시들은 상기 증강 현실 장면 내 증강 현실 오브젝트로서 프레젠테이션되는 것인, 방법.
  13. 제7항에 있어서,
    상기 포맷은 상기 디지털 통신, 상기 제2 위치, 상기 제1 위치 및 프레젠테이션 요구사항에 기초하여 결정되는 것인, 방법.
  14. 제7항에 있어서,
    상기 포맷은 상기 제1 위치에 대한 상기 제2 위치의 3 차원 지각(perception)을 제공하도록 구성된 교차 양상 프레젠테이션(cross-modality presentation)을 프레젠테이션하기 위한 명령어를 포함하는 것인, 방법.
  15. 제14항에 있어서,
    상기 교차 양상 프레젠테이션은 시각적 프레젠테이션, 청각적 프레젠테이션, 촉각적 프레젠테이션 또는 이들의 조합을 포함하는 것인, 방법.
  16. 제15항에 있어서,
    상기 시각적 프레젠테이션은 상기 디지털 통신으로부터 도출된 그래픽 오브젝트, 상기 그래픽 오브젝트의 애니메이션, 상기 제2 위치로부터 도출된 정보, 상기 정보와 연관된 상세의 레벨, 상기 증강 현실 오브젝트를 상기 제1 컴퓨팅 장치의 사용자에게 디스플레이하는 것과 연관된 프레젠테이션 지속성, 상기 제2 위치를 설명하는 텍스트 정보 및 상기 사용자가 상기 제2 위치로 지향하도록 구성된 그래픽 힌트 중 하나 이상에 기초하여 구성되는 것인, 방법.
  17. 제15항에 있어서,
    상기 청각적 프레젠테이션은 상기 디지털 통신과 연관된 소리, 상기 제1 위치에 대한 상기 제2 위치와 연관된 소리 및 상기 제1 위치에 대한 상기 제2 위치에 기초하는 볼륨 및 품질 중 하나 이상에 기초하여 구성되는 것인, 방법.
  18. 저장된 컴퓨터 판독가능 명령어를 가지는 컴퓨터 판독가능 저장 매체로서,
    컴퓨팅 장치와의 디지털 통신을 교환하기 위한 명령어;
    상기 컴퓨팅 장치의 위치의 표시를 수신하기 위한 명령어; 및
    상기 컴퓨팅 장치의 상기 위치를 포함하는 증강 현실 장면을 렌더링하기 위한 명령어
    를 포함하는 컴퓨터 판독가능 저장 매체.
  19. 제18항에 있어서,
    상기 증강 현실 장면을 렌더링하는 것은 상기 위치의 표시를 증강 현실 오브젝트(object)로서 프레젠테이션하는 것을 포함하고, 상기 프레젠테이션은 상기 위치의 3 차원 지각적 표시를 제공하도록 구성된, 적어도 시각적 프레젠테이션, 청각적 프레젠테이션 또는 이들의 조합을 포함하는 것인, 컴퓨터 판독가능 저장 매체.
  20. 제19항에 있어서,
    상기 시각적 프레젠테이션은 상기 디지털 통신으로부터 도출된 그래픽 오브젝트, 상기 그래픽 오브젝트의 애니메이션, 상기 컴퓨팅 장치의 상기 위치로부터 도출된 정보, 상기 정보와 연관된 상세의 레벨, 상기 증강 현실 오브젝트를 사용자에게 디스플레이하는 것과 연관된 프레젠테이션 지속성, 상기 컴퓨팅 장치의 상기 위치를 설명하는 문자 정보 및 상기 사용자가 상기 컴퓨팅 장치의 상기 위치로 지향하도록 구성된 그래픽 힌트 중 하나 이상에 기초하여 구성되고,
    상기 청각적 프레젠테이션은 상기 디지털 통신과 연관된 소리, 상기 컴퓨팅 장치의 상기 위치와 연관된 소리 및 상기 컴퓨팅 장치의 상기 위치로부터 도출된 볼륨 및 품질 중 하나 이상에 기초하여 구성되는 것인, 컴퓨터 판독가능 저장 매체.
KR1020157007938A 2012-08-27 2012-08-27 디지털 매개 통신의 지리적 기점 표시 KR101730473B1 (ko)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2012/052521 WO2014035368A1 (en) 2012-08-27 2012-08-27 Indicating the geographic origin of a digitally-mediated communication

Publications (2)

Publication Number Publication Date
KR20150046317A true KR20150046317A (ko) 2015-04-29
KR101730473B1 KR101730473B1 (ko) 2017-04-26

Family

ID=50147599

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020157007938A KR101730473B1 (ko) 2012-08-27 2012-08-27 디지털 매개 통신의 지리적 기점 표시

Country Status (5)

Country Link
US (2) US9710969B2 (ko)
EP (1) EP2888634A4 (ko)
JP (1) JP2015537264A (ko)
KR (1) KR101730473B1 (ko)
WO (1) WO2014035368A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11770356B2 (en) 2020-10-15 2023-09-26 LINE Plus Corporation Method and device for providing location based avatar messenger service

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9171384B2 (en) * 2011-11-08 2015-10-27 Qualcomm Incorporated Hands-free augmented reality for wireless communication devices
US9710969B2 (en) 2012-08-27 2017-07-18 Empire Technology Development Llc Indicating the geographic origin of a digitally-mediated communication
US9129429B2 (en) * 2012-10-24 2015-09-08 Exelis, Inc. Augmented reality on wireless mobile devices
WO2014209372A1 (en) * 2013-06-28 2014-12-31 Hewlett-Packard Development Company, L.P. Mobile device connected to a multifunctional document processing device
US10026226B1 (en) 2014-06-10 2018-07-17 Ripple Inc Rendering an augmented reality object
US10930038B2 (en) * 2014-06-10 2021-02-23 Lab Of Misfits Ar, Inc. Dynamic location based digital element
US10824654B2 (en) 2014-09-18 2020-11-03 Snap Inc. Geolocation-based pictographs
US11216869B2 (en) 2014-09-23 2022-01-04 Snap Inc. User interface to augment an image using geolocation
JP6358038B2 (ja) * 2014-10-17 2018-07-18 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム
US10140768B2 (en) 2014-10-17 2018-11-27 Seiko Epson Corporation Head mounted display, method of controlling head mounted display, and computer program
JP6463837B2 (ja) * 2014-10-30 2019-02-06 シンク−ン−スケール エルエルシーSync−n−Scale,LLC リソースのジオロケーション認証のための方法およびシステム
US9015285B1 (en) 2014-11-12 2015-04-21 Snapchat, Inc. User interface for accessing media at a geographic location
US20160217333A1 (en) * 2015-01-26 2016-07-28 Ricoh Company, Ltd. Information processing apparatus and information processing system
KR102163528B1 (ko) 2015-03-18 2020-10-08 스냅 인코포레이티드 지오-펜스 인가 프로비저닝
US9628419B2 (en) 2015-07-29 2017-04-18 Mimecast North America, Inc. System for annotation of electronic messages with contextual information
US10620807B2 (en) * 2015-09-16 2020-04-14 Lenovo (Singapore) Pte. Ltd. Association of objects in a three-dimensional model with time-related metadata
WO2017201568A1 (en) * 2016-05-23 2017-11-30 tagSpace Pty Ltd Media tags location-anchored digital media for augmented reality and virtual reality environments
US10403044B2 (en) 2016-07-26 2019-09-03 tagSpace Pty Ltd Telelocation: location sharing for users in augmented and virtual reality environments
US10831334B2 (en) 2016-08-26 2020-11-10 tagSpace Pty Ltd Teleportation links for mixed reality environments
CN106484830A (zh) 2016-09-29 2017-03-08 北京百度网讯科技有限公司 位置分享方法、装置和系统
EP3349099A1 (de) * 2017-01-13 2018-07-18 Kai-Holger Brassel Immersives informations- und kommunikationsmedium fuer sehr grosse nutzerzahlen
US10484317B2 (en) 2017-02-16 2019-11-19 Facebook, Inc. Techniques for generating messages to entities referenced in a messaging thread
US10447642B2 (en) 2017-02-16 2019-10-15 Facebook, Inc. Techniques for augmenting entity references in a messaging system
US10659928B2 (en) * 2017-02-16 2020-05-19 Facebook, Inc. Techniques for communicating entity references in a messaging thread
KR102330829B1 (ko) * 2017-03-27 2021-11-24 삼성전자주식회사 전자 장치에서 증강현실 기능 제공 방법 및 장치
CN108712360A (zh) * 2017-04-12 2018-10-26 朱恩辛 一种跨界互动交友系统及其方法
WO2019065045A1 (ja) * 2017-09-26 2019-04-04 株式会社日立国際電気 物体捜索システム、物体捜索装置、及び物体捜索方法
CN109842790B (zh) * 2017-11-29 2021-02-26 财团法人工业技术研究院 影像信息显示方法与显示器
US10553031B2 (en) * 2017-12-06 2020-02-04 Microsoft Technology Licensing, Llc Digital project file presentation
US10565764B2 (en) 2018-04-09 2020-02-18 At&T Intellectual Property I, L.P. Collaborative augmented reality system
US11195336B2 (en) 2018-06-08 2021-12-07 Vulcan Inc. Framework for augmented reality applications
US11527044B2 (en) 2018-06-27 2022-12-13 Samsung Electronics Co., Ltd. System and method for augmented reality
US10679393B2 (en) * 2018-07-24 2020-06-09 Snap Inc. Conditional modification of augmented reality object
US10855834B2 (en) * 2018-09-26 2020-12-01 Rovi Guides, Inc. Systems and methods for curation and delivery of content for use in electronic calls
US10880433B2 (en) 2018-09-26 2020-12-29 Rovi Guides, Inc. Systems and methods for curation and delivery of content for use in electronic calls
IT201900001777A1 (it) * 2019-02-07 2020-08-07 Ilaria Iansante Metodo e sistema per la visualizzazione e condivisione di informazioni personali attraverso l'utilizzo della Tecnologia AR - Realtà Aumentata in aree circoscritte per la costruzione di reti sociali
US11356806B2 (en) * 2019-12-13 2022-06-07 At&T Intellectual Property I, L.P. Real time annotation and geolocation tracking of multiple devices using augmented reality for 5G or other next generation wireless network
US11276242B2 (en) * 2020-04-06 2022-03-15 David Bakken Method and system for practicing group formations using augmented reality

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04132483A (ja) 1990-09-25 1992-05-06 Sharp Corp 発呼及び接続状態表示機能付きテレビ電話装置
JP2002277277A (ja) * 2001-03-21 2002-09-25 Sony Communication Network Corp 地図データ提供方法および地図データ提供装置
JP2002300548A (ja) 2001-03-29 2002-10-11 Toshiba Corp 電話機の画像表示システム及びその方法
JP4433385B2 (ja) * 2004-02-25 2010-03-17 ソニー・エリクソン・モバイルコミュニケーションズ株式会社 目的地案内装置および携帯端末装置
JP4464780B2 (ja) 2004-09-28 2010-05-19 株式会社日立製作所 案内情報表示装置
JP4661314B2 (ja) 2005-04-04 2011-03-30 ソニー株式会社 情報処理装置および方法、記録媒体、並びにプログラム
US8933889B2 (en) 2005-07-29 2015-01-13 Nokia Corporation Method and device for augmented reality message hiding and revealing
US8355410B2 (en) 2007-08-17 2013-01-15 At&T Intellectual Property I, L.P. Location-based mobile gaming application and method for implementing the same using a scalable tiered geocast protocol
US8280405B2 (en) 2005-12-29 2012-10-02 Aechelon Technology, Inc. Location based wireless collaborative environment with a visual user interface
US8036356B1 (en) 2006-08-08 2011-10-11 Avaya Inc. System and method of identifying geographic location for the source of a call
US7966567B2 (en) * 2007-07-12 2011-06-21 Center'd Corp. Character expression in a geo-spatial environment
US8000721B2 (en) * 2008-02-29 2011-08-16 Sony Ericsson Mobile Communications Ab Wireless communication terminals and methods that display relative direction and distance therebetween responsive to acceleration data
JP5064313B2 (ja) 2008-06-20 2012-10-31 オリンパス株式会社 携帯情報端末
US9118428B2 (en) * 2009-11-04 2015-08-25 At&T Intellectual Property I, L.P. Geographic advertising using a scalable wireless geocast protocol
JP4816789B2 (ja) 2009-11-16 2011-11-16 ソニー株式会社 情報処理装置、情報処理方法、プログラムおよび情報処理システム
US20110137561A1 (en) 2009-12-04 2011-06-09 Nokia Corporation Method and apparatus for measuring geographic coordinates of a point of interest in an image
US20110161856A1 (en) * 2009-12-28 2011-06-30 Nokia Corporation Directional animation for communications
US9131459B2 (en) 2010-02-01 2015-09-08 Qualcomm Incorporated Mobile station positioning assistance with local mapping data
US20120293547A1 (en) * 2011-05-20 2012-11-22 International Business Machines Corporation Management Of Access To And Life Cycles Of Virtual Signs
US9710969B2 (en) 2012-08-27 2017-07-18 Empire Technology Development Llc Indicating the geographic origin of a digitally-mediated communication

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11770356B2 (en) 2020-10-15 2023-09-26 LINE Plus Corporation Method and device for providing location based avatar messenger service

Also Published As

Publication number Publication date
US20140055491A1 (en) 2014-02-27
US20170316616A1 (en) 2017-11-02
EP2888634A1 (en) 2015-07-01
EP2888634A4 (en) 2016-04-06
KR101730473B1 (ko) 2017-04-26
WO2014035368A1 (en) 2014-03-06
JP2015537264A (ja) 2015-12-24
US10535196B2 (en) 2020-01-14
US9710969B2 (en) 2017-07-18

Similar Documents

Publication Publication Date Title
KR101730473B1 (ko) 디지털 매개 통신의 지리적 기점 표시
US9743244B2 (en) Apparatus, systems and methods for visually connecting people
US10930038B2 (en) Dynamic location based digital element
JP5604594B2 (ja) 拡張現実中のコンテンツをグループ化する方法・装置・コンピュータプログラム製品
US20110161856A1 (en) Directional animation for communications
KR102098058B1 (ko) 뷰 모드에서 정보 제공 방법 및 장치
US20150350262A1 (en) Causation of establishment of a location sharing group
KR101415402B1 (ko) 네비게이션 정보를 제시하기 위해 3차원 맵 객체를 변환하는 방법 및 장치
KR20190103322A (ko) 표면 인식 렌즈
US10754888B2 (en) Establishment of an association between an object and a mood media item
US10257649B2 (en) Apparatus, systems and methods for visually connecting people
US10264388B2 (en) Performance of a location response action
US10832489B2 (en) Presenting location based icons on a device display
EP3155768B1 (en) Sharing media data and location information via instant messaging
KR20240024347A (ko) 콘텐츠 아이템들의 재표출을 위한 메시징 시스템
CN116745795A (zh) 基于许可的媒体合成
US20230140504A1 (en) Accessing web-based fragments for display
JP6461239B2 (ja) デジタルに仲介された通信の地理的発信元を示すこと
JP2006211011A (ja) 情報通信システム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant