KR20130028094A - 증강 현실 방향 오리엔테이션 마스크 - Google Patents

증강 현실 방향 오리엔테이션 마스크 Download PDF

Info

Publication number
KR20130028094A
KR20130028094A KR1020127028819A KR20127028819A KR20130028094A KR 20130028094 A KR20130028094 A KR 20130028094A KR 1020127028819 A KR1020127028819 A KR 1020127028819A KR 20127028819 A KR20127028819 A KR 20127028819A KR 20130028094 A KR20130028094 A KR 20130028094A
Authority
KR
South Korea
Prior art keywords
virtual mask
target item
viewer
change
mask
Prior art date
Application number
KR1020127028819A
Other languages
English (en)
Other versions
KR101435310B1 (ko
Inventor
버지니아 워커 키팅
조엘 심불란 버나트
Original Assignee
퀄컴 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 퀄컴 인코포레이티드 filed Critical 퀄컴 인코포레이티드
Publication of KR20130028094A publication Critical patent/KR20130028094A/ko
Application granted granted Critical
Publication of KR101435310B1 publication Critical patent/KR101435310B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

증강 현실 디바이스는 뷰어를 둘러싸는 가상 마스크를 제공하고 타겟 아이템으로의 방향에 관한 정보를 제공하는 변화 (variation) 를 포함한다. 투명도, 컬러, 기하학적 형상 (geometric shape), 텍스쳐 (texture), 재료, 조명, 또는 쉐이딩 (shading) 의 변화일 수도 있는, 변화는 타겟 아이템의 포지션과 연관되어 가상 마스크에서의 변화의 오리엔테이션이 타겟 아이템의 방향에 관하여 변경되지 않도록 한다. 뷰어가 향하는 방향에 있는 가상 마스크의 일 부분이 뷰어에게 타겟 아이템의 방향에 관한 정보를 제공하는 가상 마스크에서의 변화로 현실 세계 이미지 상에 디스플레이된다. 뷰어가 타겟 아이템에 관하여 회전할 때, 현재 시야에 있는 가상 마스크의 다른 부분이 디스플레이된다.

Description

증강 현실 방향 오리엔테이션 마스크 {AUGMENTED REALITY DIRECTION ORIENTATION MASK}
디바이스의 위치를 결정하기 위한 일반적인 수단은 SPS (satellite position system), 이를테면 잘알려진 GPS (Global Positioning Satellite) 시스템 또는 GNSS (Global Navigation Satellite System) 를 이용하는 것이고, 이들은 지구 주위 궤도에 있는 다수의 위성들을 채용한다. SPS를 이용한 포지션 측정들은 다수의 궤도 위성들로부터 SPS 수신기로 브로드캐스트되는 SPS 신호들의 전파 지연 시간들의 측정에 기초한다. SPS 수신기가 각 위성에 대한 신호 전파 지연들을 측정하고 나면, 각 위성까지의 레인지 (range) 가 결정될 수 있고, 그 다음에 SPS 수신기의 3차원 포지션, 속도 및 시각을 포함하는 정확한 내비게이션 정보가 측정된 레인지들 및 위성들의 알려진 위치들을 이용하여 결정될 수 있다.
디바이스의 위치의 지식은 많이 사용되는데, 그 중 하나는 증강 현실로 알려져 있다. 증강 현실은 그래픽 또는 텍스트 정보와 같은 컴퓨터 생성 데이터와 현실 세계 상을 결합한다. 증강 현실은 내비게이션 또는 간단하게 환경 내에서 자신을 지향시키는 것 (orientating) 과 같은 활동들에 유용할 수도 있다.
내비게이션 및 정보 발견에 있어서 첫번째 그리고 가장 어려운 단계들중 하나는 물리적으로 정확한 방향으로 자신을 지향시키는 것이다. 증강 현실에서 데이터를 이용하기 위하여, 사용자는 일반적으로 카메라로 타겟 아이템을 찾고 향할 필요가 있다. 데이터 또는 링크들을 위해, 카메라가 정확한 방향을 향하지 않으면 타겟 아이템은 가시적이지 않다. 내비게이션을 위해, 부정확한 오리엔테이션은 사용자가 잘못된 방향으로 내비게이션을 개시하는 것을 초래한다.
사용자에게 타겟 아이템을 향하여 돌릴 것을 지시하기 위한 현재 증강 현실 방법들은 화살표와 같은 방향성 엘리먼트들의 사용을 포함한다. 예를 들면, 증강 현실 시스템들은, 좌측 또는 우측으로 회전하는 것을 표시하는, 사용자의 뷰 (view) 의 중심 또는 에지에 2차원 또는 3차원 화살표들을 사용할 수도 있다. 현재 사용되는 또 다른 방향성 엘리먼트는 타겟 아이템에 대한 상대 거리 및 방향을 나타내는 탑 뷰 레이더 타입 디스플레이이다.
하지만, 오리엔테이션 정보를 제공하는 현재 방법들은 몇몇 문제점들을 갖고 있다. 예를 들면, 방향성 화살표들은 타겟 엘리먼트를 향하여 어느 범위까지 돌려야 하는지에 관한 정보를 제공하지 않는다. 따라서, 어느 범위까지 돌려야 하는지 알기 곤란하다. 게다가, 사용자가 빨리 돌릴 경우, 원하는 타겟 아이템 또는 방향을 지나치지 않도록 언제 늦춰야 하는지의 표시가 존재하지 않는다. 또한, 탑 뷰 레이더 디스플레이의 사용은, 사용자들이 그의 관련성 (relevance) 을 해석 또는 결정하기 곤란하고 탑뷰를 사용자의 실제 주위에 관련시키기 곤란다는 것을 발견하게 되는 바처럼, 산만하다. 내비게이션에 사용될 때, 현재 오리엔테이션 방법들은 사용자에게 타겟 아이템으로 자신을 지향시킬 절박감을 제공하며 사용자가 잠재적으로 위험한 행동, 예를 들면 이동 방향을 향하지 않는 것의 원인이 된다.
요약
증강 현실 디바이스는 뷰어를 둘러싸는 가상 마스크를 제공하고 타겟 아이템으로의 방향에 관한 정보를 제공하는 변화 (variation) 를 포함한다. 투명도, 컬러, 기하학적 형상 (geometric shape), 텍스쳐 (texture), 재료 (material), 조명 (lighting), 또는 쉐이딩 (shading) 의 변화일 수도 있는, 변화는 타겟 아이템의 포지션과 연관되어 가상 마스크에서의 변화의 오리엔테이션이 타겟 아이템의 방향에 관하여 변경되지 않도록 한다. 뷰어가 향하는 방향에 있는 가상 마스크의 일 부분이 뷰어에게 타겟 아이템의 방향에 관한 정보를 제공하는 가상 마스크에서의 변화로 현실 세계 이미지 상에 디스플레이된다. 뷰어가 타겟 아이템에 관하여 회전할 때, 현재 시야에 있는 가상 마스크의 다른 부분이 디스플레이된다.
도 1은 사용자에게 오리엔테이션 정보를 제공하기 위하여 현실 세계 이미지 상에 오버레이된 가상 마스크를 제공하는 모바일 플랫폼의 형태의 증강 현실 디바이스의 예를 예시한다.
도 2 및 도 3은 사용자 주위 가상 마스크의 배치를 개략적으로 예시한다.
도 4 및 도 5는 사용자 주위 가상 마스크의 배치를 개략적으로 예시하고 사용자가 타겟 아이템에 관하여 측면으로 이동함에 따라 가상 마스크 상에 효과를 보여준다.
도 6은 가상 마스크를 사용할 수도 있는 모바일 플랫폼의 블록도이다.
도 7은 가상 마스크를 사용하는 디스플레이에서 뷰어와 타겟 아이템 사이의 오리엔테이션을 나타내는 방법을 보여주는 플로우차트이다.
도 8, 도 9, 도 10 및 도 11은 가상 마스크를 포함하여, 증강 현실 이미지의 예들을 예시한다.
도 12, 도 13, 도 14 및 도 15는 사용될 수도 있는 실린더형 가상 마스크들의 다른 예들을 예시한다.
상세한 설명
도 1은 사용자에게 오리엔테이션 정보를 제공하기 위하여 디스플레이 (112) 에서의 이미지 상에 오버레이된 미묘한 (subtle) 가상 마스크를 제공하는 모바일 플랫폼 (100) 의 형태의 증강 현실 디바이스의 예를 예시한다. 모바일 플랫폼 (100) 은, 인공 위성 (102), 또는 셀룰러 타워 (104) 또는 무선 통신 액세스 포인트 (106) 를 포함하여 포지션을 결정하기 위한 임의의 다른 적절한 소스를 포함하는 SPS (satellite positioning system) 로부터 신호들을 이용하여 그의 위도와 경도를 결정하는 것에 기초하여 내비게이션에 사용될 수도 있다. 모바일 플랫폼 (100) 은 물리적 현실 세계 환경의 이미지들을 생성하기 위한 카메라 (120), 또한, 모바일 플랫폼 (100) 의 오리엔테이션을 결정하기 위하여 사용될 수 있는 디지털 컴퍼스, 가속도계 또는 자이로스코프와 같은 센서들 (130) 을 포함한다.
디스플레이 (112) 에 보여진 이미지 상에 오버레이된 가상 마스크는, 모바일 플랫폼 (100) 상에 중심을 두고 타겟 아이템과 정렬된 컴퓨터 생성된, 3차원 실린더 또는 구 (sphere) 이다. 예를 들면, 마스크는, 모바일 플랫폼 (100) 이 타겟 아이템을 향할 때 현실 세계 이미지의 클리어 뷰 (clear view) 를 제공할 수도 있다. 마스크는, 모바일 플랫폼 (100) 이 타겟 아이템으로부터 벗어나 회전함에 따라 현실 세계 이미지의 점점 더 변경된 뷰를 제공할 수도 있다. 예를 들면, 마스크의 클리어 영역의 경사측 (angled side) 들은 모바일 플랫폼의 현재 오리엔테이션에 관해 타겟 아이템의 위치에 관하여 사용자에게 정보를 제공하기 위하여 사용될 수도 있다. 따라서, 사용자에게는 용이하게 해석되지만 미묘하고 비산만한 오리엔테이션 정보가 제공된다.
여기에 사용된 바처럼, 모바일 플랫폼은 셀룰러 또는 다른 모바일 통신 디바이스, PCS (personal communication system) 디바이스, PND (personal navigation device), PIM (Personal Information Manager), PDA (Personal Digital Assistant), 랩톱 또는 사용자의 환경의 증강 현실 뷰를 제공할 수 있는 다른 적합한 모바일 디바이스 등의 디바이스를 지칭한다. 모바일 플랫폼은 완전히 또는 부분적으로 모바일일 수도 있다, 예를 들면, 모바일 플랫폼은 고정된 포지션에 유지될 수도 있지만 회전이 허용될 수도 있다. 모바일 플랫폼은 무선 통신 및/또는 내비게이션 신호들, 이를테면 내비게이션 포지셔닝 신호들을 수신가능할 수도 있다. 용어 "모바일 플랫폼"은 또한, 이를테면 단거리 무선, 적외선, 유선 접속에 의해 또는 다른 접속에 의해 - 위성 신호 수신, 보조 데이터 수신 및/또는 포지션 관련 프로세싱이 디바이스에서 또는 PND에서 일어나는지에 상관 없이, PND (personal navigation device) 와 통신하는 디바이스들을 포함하도록 의도된다. 또한 "모바일 플랫폼"은, 무선 통신 디바이스들, 컴퓨터들, 랩톱들 등을 포함하는 모든 디바이스들을 포함하도록 의도되며, 이들은, 이를테면 인터넷, WiFi, 또는 다른 네트워크를 통해 그리고 위성 신호 수신, 보조 데이터 수신 및/또는 포지션 관련 프로세싱이 디바이스에서, 서버에서 또는 네트워크와 연관된 다른 디바이스에서 일어나는지에 상관 없이, 서버와 통신할 수 있다. 상기의 임의의 동작가능한 조합이 또한 "모바일 플랫폼" 으로 고려된다.
모바일 플랫폼 (100) 과 사용될 수도 있는 SPS (satellite positioning system) 는 통상적으로 송신기로부터 수신된 신호들에 적어도 부분적으로 기초하여 엔티티 (entity) 들이 지구 위, 또는 지구 상의 그들의 위치를 결정하는 것을 가능하게 하도록 배치된 송신기들의 시스템을 포함한다. 그러한 송신기는 통상적으로 설정된 수의 칩들의 반복 PN (pseudo-random noise) 코드로 마킹된 신호를 송신하고 그라운드 기반 제어 스테이션, 사용자 장비 및/또는 우주선 (space vehicle) 상에 위치될 수도 있다. 특정 예에서, 그러한 송신기들은 도 1에 예시된 SV (Earth orbiting satellite vehicle) (102) 상에 위치될 수도 있다. 예를 들면, GPS (Global Positioning System), Galileo, Glonass 또는 Compass 와 같은 GNSS (Global Navigation Satellite System) 의 컨스텔레이션 (constellation) 에서의 SV는 (예를 들면, GPS에서 처럼 각 위성에 대해 상이한 PN 코드들을 사용하거나 또는 Glonass에서 처럼 상이한 주파수들 상에서 동일한 코드를 사용하여) 컨스텔레이션에서 다른 SV들에 의해 송신된 PN 코드들로부터 구분가능한 PN 코드로 마킹된 신호를 송신할 수도 있다.
어떤 양태들에 따르면, 모바일 플랫폼 (100) 의 포지션 결정은 SPS에 글로벌 시스템 (예를 들면 GNSS) 을 사용하는 것에 한정되지 않는다. 예를 들면, 여기에 제공된 기법들은, 예를 들면, 일본에 대한 QZSS (Quasi-Zenith Satellite System), 인도에 대한 IRNSS (Indian Regional Navigational Satellite System), 중국에 대한 Beidou 등과 같은 다양한 지역 시스템, 및/또는 하나 이상의 글로벌 및/또는 지역 내비게이션 위성 시스템들과의 사용과 연관되거나 또는 그렇지 않으면 가능해질 수도 있는 다양한 증강 시스템들 (augmentation system) (예를 들면, SBAS (Satellite Based Augmentation System)) 에서의 사용에 적용되거나 또는 그렇지 않으면 가능해질 수도 있다. 비한정적인 예로서, SBAS는 예를 들면, WAAS (Wide Area Augmentation System), EGNOS (European Geostationary Navigation Overlay Service), MSAS (Multi-functional Satellite Augmentation System), GPS 보조 지오 증강 내비게이션 또는 GPS 및 GAGAN (Geo Augmented Navigation system) 및/또는 그밖에 이와 유사한 것과 같은, 무결성 정보 (integrity information), 차동 보정 (differential correction) 등을 제공하는 증강 시스템(들) 을 포함할 수도 있다. 따라서, 여기서 사용된 바처럼, SPS는 하나 이상의 글로벌 및/또는 지역 내비게이션 위성 시스템들 및/또는 증강 시스템들의 임의의 조합을 포함할 수도 있고, SPS 신호들은 SPS, SPS 유사 (SPS-like) 및/또는 그러한 하나 이상의 SPS와 연관된 다른 신호들을 포함할 수도 있다.
또한, 모바일 플랫폼 (100) 은 SPS와의 사용에 제한되는 것이 아니라, 셀룰러 타워 (104) 를 포함하는 다양한 무선 통신 네트워크들과 함께 그리고 WWAN (wireless wide area network), WLAN (wireless local area network), WPAN (wireless personal area network) 등과 같은 무선 통신 액세스 포인트들로부터 구현되는 포지션 결정 기법들을 사용할 수도 있다. "컴퓨터 비전" 기법들을 사용한 오브젝트 인식과 같은, 포지션 결정의 대안의 방법들이 또한 사용될 수도 있다. 용어 "네트워크" 및 "시스템"은 종종 상호교환가능하게 사용된다. WWAN는 CDMA (Code Division Multiple Access) 네트워크, TDMA (Time Division Multiple Access) 네트워크, FDMA (Frequency Division Multiple Access) 네트워크, OFDMA (Orthogonal Frequency Division Multiple Access) 네트워크, SC-FDMA (Single-Carrier Frequency Division Multiple Access) 네트워크, LTE (Long Term Evolution) 등일 수도 있다. CDMA 네트워크는 cdma2000, W-CDMA (Wideband-CDMA) 등과 같은 하나 이상의 RAT (radio access technology) 들을 구현할 수도 있다. cdma2000은 IS-95, IS-2000, 및 IS-856 표준들을 포함한다. TDMA 네트워크는 GSM (Global System for Mobile Communications), D-AMPS (Digital Advanced Mobile Phone System) 또는 어떤 다른 RAT를 구현할 수도 있다. GSM 및 W-CDMA는 3GPP (“3rd Generation Partnership Project”) 로 명명된 콘소시엄으로부터의 문헌들에 기재되어 있다. cdma2000은 3GPP2 (“3rd Generation Partnership Project 2”) 로 명명된 콘소시엄으로부터의 문헌들에 기재되어 있다. 3GPP 및 3GPP2 문헌들은 공개적으로 이용가능하다. WLAN은 IEEE 802.11x 네트워크일 수도 있고, WPAN는 블루투스 네트워크, IEEE 802.15x, 또는 어떤 다른 타입의 네트워크일 수도 있다. 기법들은 또한 WWAN, WLAN 및/또는 WPAN의 임의의 조합과 함께 구현될 수도 있다.
도 2 및 도 3은 모바일 플랫폼 (100) 에 의해 사용자 (210) 주위 가상 마스크 (200) 의 배치를 개략적으로 예시한다. 도 2 및 도 3은 모바일 플랫폼 (100) 의 디스플레이 (112) 에 보여질 것을 예시하는 것이 아니라, 마스크 (200) 가 어떻게 동작하는지를 기능적으로 예시한다는 것이 이해되야 한다. 도 2 및 도 3은 마스크 (200) 가 사용자 (210) 에 중심을 두고 타겟 아이템 (220) 으로의 방향을 나타내는 마스크의 투명도의 변화와 같은 피쳐를 포함한다. 타겟 아이템 (220) 은 장소, 오브젝트, 일반 방향, 사람, 또는 다른 유사한 아이템일 수도 있고, 고정적이거나 이동할 수도 있다. 도 2 및 도 3에 예시된 바처럼, 마스크 (200) 의 (백색 부분으로 예시된) 가장 투명한 부분 (202) 은 사용자 (210) 의 포지션으로부터 타겟 아이템 (220) 쪽으로 지향된다. 마스크 (200) 의 투명도의 레벨의 변화는 사용자 (210) 에게 오리엔테이션 정보를 제공하는 기능을 예시하도록 의도되었고, 즉 뷰의 투명도를 증가/감소시키는 것에 의해 오리엔테이션 정보가 어떻게 제공되는지를 반드시 예시하도록 의도된 것은 아니다. 예를 들면, 원하는 경우, 투명도 레벨은 일정하게 유지될 수도 있으나, 투명도의 면적을 달라질 수도 있다. 사용자의 시야, 즉 카메라 (120) 의 시야는 라인 (206) 들로 예시되고, 사용자의 시야 (206) 내에 있는 마스크 (200) 의 부분, 즉 도 2의 투명한 부분 (202) 및 도 3의 덜 투명한 부분 (204) 만이 디스플레이 (112) 에서 카메라 (120) 에 의해 만들어진 현실 세계 이미지 상에 디스플레이될 것이다. 도 2 및 도 3에서 볼 수 있는 바처럼, 마스크 (200) 의 오리엔테이션은 사용자 (210) 의 오리엔테이션에 독립적이다. 예를 들면, 도 2에서, 사용자 (210) 는 타겟 아이템 (220) 을 향하는 반면, 사용자는 타겟 아이템 (220) 으로부터 90도 벗어나서 향하고 따라서 마스크 (200) 의 덜 투명한 부위 (204) 를 향한다. 하지만, 도 1 및 도 2 양자 모두는 타겟 아이템과 정렬되고 그 정렬이 사용자의 오리엔테이션에 상관 없이 보존된다는 점에서 마스크 (200) 의 투명한 부분 (202) 이 타겟 아이템 (220) 과 연관된다는 것을 예시한다.
도 4 및 도 5는 도 2 및 도 3과 유사하지만, 사용자 (210) 가 진행 방향 (212) 을 따라 진행함에 따라 마스크 (200) 에 대한 효과를 보여준다. 볼 수 있는 바처럼, 마스크 (200) 는 사용자 (210) 에 중심을 둔 상태로 남고 따라서 타겟 아이템 (220) 을 지나 사용자와 같이 이동한다. 하지만, 사용자 (210) 및 마스크 (200) 가 타겟 아이템 (220) 을 지나 이동함에 따라, 마스크 (200) 의 투명 부분 (202) 은 타겟 아이템 (220) 과 계속 정렬된다. 따라서, 도 4에서, 마스크 (200) 의 투명한 부분 (202) 은 진행 방향 (212) 으로부터 대략 45도인 것으로 나타나 있고 사용자의 시야 (206) 를 약간 벗어난다. 따라서, 도 4에서 마스크 (200) 의 부분 (203) 은 현실 세계 이미지 상에 디스플레이될 것이다. 도 5에서, 투명한 부분 (202) 은 사용자 (210) 의 시야 (206) 로부터 거의 90도이고 따라서 상이한 부분 (205) 이 디스플레이 (112) 에 나타난 현실 세계 이미지 상에 디스플레이될 것이다.
디스플레이된 가상 마스크 (200) 의 부분의 정렬은 디스플레이 (112) 에 수직으로 고정되거나 또는 수평으로 고정될 수도 있다. 즉, 사용자가 카메라 (120) 의 수직 오리엔테이션을 변경시키면, 뷰잉 스크린 (112) 에 고정될 때 디스플레이 (112) 에 나타난 가상 마스크 (200) 의 부분은 일정한 상태로 남을 수도 있다 (수평 회전이 존재하지 않는 것으로 가정한다). 다르게는, 가상 마스크 (200) 가 수평에 고정될 때, 카메라 (120) 의 수직 오리엔테이션이 변경됨에 따라 가상 마스크의 상이한 부분들이 디스플레이되며, 이는 가상 마스크가 3차원 구일 때 특히 바람직할 수도 있다.
가상 마스크 (200) 는 사용자가 타겟 아이템의 방향에 대한 포지션의 감각 (sense) 를 유지하는 것을 허용한다. 또한, 마스크는 방향 보정을 미묘하게 제시하지만, 사용자 오리엔테이션을 위해 그것을 요구하거나 필요로 하지 않는다. 다른 한편, 증강 현실 뷰들에서 사용자들을 지향시키는 종래의 기법들은 사용자가 나아감에 따라 사용자와 타겟 아이템 사이의 관련성을 유지하지 않고, 사용자 오리엔테이션을 보정할 절박감을 제공하며, 이는 안전할 수 없다. 예를 들면, 길건너 그리고 사용자로부터 한 블록 아래의 상점이 타겟 아이템이면, 사용자가 이동의 대부분을 상점을 향해 직접 향하는 것은 안전하지 못하다. 사용자는 횡단보도로 내려 가서 거리 반대측으로 그리고 교통에 수직으로 거리를 건너야 한다. 하지만, 종래의 지향 기법들을 사용하면, 사용자에게 타겟 아이템쪽으로 지향할 절박감이 제공되는 한편, 진행은 잠재적으로 위험한 보행자 또는 차량 교통을 무시하게 하는 원인이 된다.
도 6은 가상 마스크를 사용할 수도 있는 모바일 플랫폼 (100) 의 블록도이다. 도 6에 예시된 바처럼, 모바일 플랫폼은 모바일 플랫폼 (100) 에 의해 디스플레이되는 스틸 (still) 또는 이동 이미지들을 만들 수도 있는 카메라 (120) 와 같은 이미지를 생성하기 위한 수단을 포함한다. 모바일 플랫폼 (100) 은 또한, 오리엔테이션 센서 (130) 예를 들면 마그네토미터, 가속도계 또는 자이로스코프를 포함하는 틸트 보정 컴퍼스와 같은, 뷰어가 향하는 방향을 결정하기 위한 수단을 포함한다.
모바일 플랫폼 (100) 은 안테나 (144) 를 통하여 SPS 위성 (102) (도 1) 로부터의 신호들을 수신하는 SPS (satellite positioning system) 수신기를 포함하는 것과 같은 수신기 (140) 를 포함할 수도 있다. 모바일 플랫폼 (100) 은 또한, 예를 들면, 안테나 (144) (또는 별개의 안테나) 를 통해 각각 셀룰러 타워 (104) 로 통신을 전송할 수 있고 셀룰러 타워 (104) 로부터 또는 무선 액세스 포인트 (106) 로부터 통신을 수신할 수 있는, 셀룰러 모뎀 또는 무선 네트워크 라디오 수신기/송신기일 수도 있는 무선 송수신기 (145) 를 포함한다. 원하는 경우, 모바일 플랫폼 (100) 은 셀룰러 모뎀 및 무선 네트워크 라디오 수신기/송신기 역할을 하는 별개의 송수신기들을 포함할 수도 있다.
오리엔테이션 센서 (130), 카메라 (120), SPS 수신기 (140) 및 무선 송수신기 (145)는 모바일 플랫폼 제어 (150) 에 접속되고 그와 통신한다. 모바일 플랫폼 제어 (150) 는 오리엔테이션 센서 (130), 카메라 (120), SPS 수신기 (140) 및 무선 송수신기 (145) 로부터 데이터를 수용 및 프로세싱하고 디바이스들의 동작을 제어한다. 모바일 플랫폼 제어 (150) 는 프로세서 (152) 및 연관된 메모리 (154), 클럭 (153), 하드웨어 (156), 소프트웨어 (158) 및 펌웨어 (157) 에 의해 제공될 수도 있다. 모바일 플랫폼 (150) 은 또한 예를 들면, 명료성을 위해 프로세서 (152) 로부터 분리되게 예시되어 있지만 프로세서 (152) 내에 있을 수도 있는, 게이밍 엔진일 수도 있는 그래픽 엔진 (155) 과 같은 가상 마스크를 생성하기 위한 수단을 포함할 수도 있다. 그래픽 엔진 (155) 은 카메라 (120) 에 의해 만들어진 이미지 상에 디스플레이되는 가상 마스크 (200) 의 포지션 및 오리엔테이션을 계산한다. 여기에 사용된 바처럼, 프로세서 (152) 는 하나 이상의 마이크로프로세서들, 임베딩된 프로세서들, 제어기들, ASIC (application specific integrated circuit), DSP (digital signal processo) 및 그밖에 이와 유사한 것을 포함할 수 있지만 반드시 포함할 필요는 없다는 것이 이해될 것이다. 용어 프로세서는 특정 하드웨어가 아닌 시스템에 의해 구현된 기능들을 기술하기 위하여 의도되어 있다. 또한, 여기에 사용된 바처럼, 용어 "메모리"는 장기, 단기, 또는 모바일 플랫폼과 연관된 다른 메모리를 포함하는 임의의 타입의 컴퓨터 스토리지 매체를 지칭하고 임의의 특정 타입의 메모리 또는 메모리들의 수, 또는 메모리가 저장되는 매체의 타입에 제한되지 않는다.
모바일 플랫폼 (100) 은 또한 모바일 플랫폼 제어 (150) 와 통신하는 사용자 인터페이스 (110) 를 포함한다, 예를 들면 모바일 플랫폼 제어 (150) 는 데이터를 수용하고 사용자 인터페이스 (110) 를 제어한다. 사용자 인터페이스 (110) 는 디지털 디스플레이 (112) 와 같은 오버레이된 컴퓨터 생성 마스크 (200) 와 함께 카메라 (120) 에 의해 만들어진 이미지들을 디스플레이하기 위한 수단을 포함한다. 프로세서 (152) 는 타겟 아이템에 관하여 모바일 플랫폼의 포지션 및 오리엔테이션에 기초하여 이미지 상의 컴퓨터 생성 마스크 (200) 의 포지션 및 오리엔테이션을 제어한다. 디스플레이 (112) 는 또한 제어 메뉴들 및 포지션 정보를 디스플레이할 수도 있다. 사용자 인터페이스 (110) 는 또한 키패드 (114) 또는 사용자가 정보를 모바일 플랫폼 (100) 으로 입력할 수 있는 다른 입력 디바이스와 같은 타겟 아이템을 식별하기 위한 수단을 포함한다. 일 실시형태에서, 키패드 (114) 는 터치 스크린 디스플레이와 같은 디스플레이 (112) 로 통합될 수도 있다. 사용자 인터페이스 (110) 는 또한, 예를 들면 모바일 플랫폼 (100) 이 셀룰러 텔레폰일 때, 예를 들면, 마이크로폰 및 스피커를 포함할 수도 있다.
여기에 기술된 방법론들은 또한, 애플리케이션에 따라 다양한 수단에 의해 구현될 수도 있다. 예를 들면, 이들 방법론들은, 하드웨어 (156), 펌웨어 (157), 소프트웨어 (158) 또는 이들의 임의의 조합으로 구현될 수도 있다. 하드웨어 구현을 위해, 프로세싱 유닛은 하나 이상의 ASIC (application specific integrated circuit), DSP (digital signal processor), DSPD (digital signal processing device), PLD (programmable logic device), FPGA (field programmable gate array), 프로세서, 제어기, 마이크로-제어기, 마이크로프로세서, 전자 디바이스, 여기에 설명된 기능들을 수행하도록 설계된 다른 전자 유닛, 또는 이들의 조합 내에서 구현될 수도 있다.
펌웨어 및/또는 소프트웨어 구현을 위해, 그 방법론들은 여기에 설명된 기능들을 수행하는 모듈 (예를 들면, 프로시저, 함수 기타 등등) 로 구현될 수도 있다. 명령들을 유형적으로 포함하는 임의의 머신 판독가능 매체가 여기에 기재된 방법론들을 구현함에 있어서 사용될 수도 있다. 예를 들면, 소트프웨어 코드는 메모리 (154) 에 저장되고 프로세서 (152) 에 의해 실행될 수도 있다. 메모리는 프로세서 유닛 내부에 또는 프로세서 유닛 외부에 구현될 수도 있다. 또한, 여기에 사용된 바처럼, 용어 "메모리"는 장기, 단기, 휘발성, 비휘발성 또는 다른 메모리 중 어느 타입을 지칭하고, 임의의 특정 타입의 메모리 또는 메모리들의 수, 또는 메모리가 저장되는 매체의 타입에 제한되지 않는다.
예를 들면, 소프트웨어 (158) 코드들은 메모리 (154) 에 저장되고 프로세서 (152) 에 의해 실행될 수도 있고 프로세서를 실행하기 위하여 그리고 여기에 기재된 바처럼 모바일 플랫폼 (100) 의 동작을 제어하기 위하여 사용될 수도 있다. 예를 들면, 메모리 (158) 와 같은 컴퓨터 판독가능 매체에 저장된 프로그램 코드는, 뷰어가 향하고 있는 방향을 결정하기 위한; 가상 마스크를 생성하기 위한; 그리고 뷰어가 향하고 있는 방향의 이미지와 뷰어가 향하고 있는 방향에 있는 가상 마스크의 부분을 디스플레이하기 위한 프로그램 코드를 포함할 수도 있다. 프로그램 코드는 또한 뷰어가 향하고 있는 방향이 변경됐다는 것을 결정하고 응답으로 가상 마스크의 상이한 부분을 디스플레이할 수도 있다. 또한, 프로그램 코드는 타겟 아이템에 관하여 뷰어의 포지션이 변경됐다는 것을 결정하고 응답으로 가상 마스크의 상이한 부분을 디스플레이할 수도 있다.
펌웨어 및/또는 소프트웨어로 구현되면, 기능들은 컴퓨터 판독가능 매체 상의 하나 이상의 명령들 또는 코드로서 저장될 수도 있다. 예들은 데이터 구조로 인코딩된 컴퓨터 판독가능 매체 및 컴퓨터 프로그램으로 인코딩된 컴퓨터 판독가능 매체를 포함한다. 컴퓨터 판독가능 매체는 물리적 컴퓨터 저장 매체를 포함한다. 저장 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수도 있다. 비한정적 예로서, 이러한 컴퓨터 판독가능 매체는 RAM, ROM, EEPROM, CD-ROM 또는 다른 광학 디스크 스토리지, 자성 디스크 스토리지 또는 다른 자성 스토리지 디바이스들, 또는 명령 또는 데이터 구조의 형태로 원하는 프로그램 코드를 저장하는데 사용될 수 있고 컴퓨터에 의해 액세스될 수 있는 임의의 다른 매체를 포함할 수 있다: 여기에 설명된 바와 같이, 디스크 (disk) 및 디스크 (disc) 는 콤팩트 디스크 (CD), 레이저 디스크, 광 디스크, DVD (digital versatile disc), 플로피 디스크 및 블루-레이 디스크를 포함하며, 여기서, 디스크 (disk) 는 일반적으로 데이터를 자기적으로 재생하지만, 디스크 (disc) 는 레이저를 이용하여 광학적으로 데이터를 재생한다. 또한, 상기의 조합은 컴퓨터 판독가능 매체의 범위 내에 포함되어야 한다.
컴퓨터 판독가능 매체 상의 스토리지에 더하여, 명령들 및/또는 데이터는 통신 장치에 포함된 송신 매체 상의 신호들로서 제공될 수도 있다. 예를 들면, 통신 장치는 명령들 및 데이터를 나타내는 신호들을 갖는 송수신기를 포함할 수도 있다. 명령들 및 데이터는 하나 이상의 프로세서들이 청구항들에 개요가 나타난 기능들을 구현하게 하도록 구성된다. 즉, 통신 장치는 개시된 기능들을 수행하기 위한 정보를 나타내는 신호들을 갖는 송신 매체를 포함한다. 첫째로, 통신 장치에 포함된 송신 매체는 개시된 기능들을 수행하기 위한 정보의 제 1 부분을 포함할 수도 있는 한편, 둘째로 통신 장치에 포함된 송신 매체는 개시된 기능들을 수행하기 위한 정보의 제 2 부분을 포함할 수도 있다.
도 7은, 가상 마스크를 사용하는 디스플레이에서, 카메라 뷰에 의해 나타낸 바처럼, 뷰어와 타겟 아이템 사이의 오리엔테이션을 나타내는 방법을 보여주는 플로우차트이다. 도 7에 예시된 바처럼, 타겟 아이템이 식별된다 (302). 타겟 아이템은 사용자 선택에 의해서, 예를 들면 인터페이스 (110) 를 통해 또는 외부 소스에 의해 식별될 수도 있다. 타겟 아이템의 식별은 뷰어에 관하여 타겟 아이템의 포지션을 결정하는 것을 포함한다. 예를 들면, 뷰어의 포지션, 예를 들면 위도 및 경도가 SPS 시스템을 이용하여 결정될 수도 있다, 예를 들면 SPS 시스템으로부터의 데이터는 SPS 수신기 (140) (도 6) 에 의해 수신되고 그로부터 프로세서 (152) 가 포지션을 계산한다. 원하는 경우, 포지션은, 셀룰러 타워들 (104) 을 포함하는 다른 다양한 무선 통신 네트워크들로부터와 무선 통신 액세스 포인트들 (106) 로부터의 데이터를 사용하는 것을 포함하는 다른 기법들 및 디바이스들을 이용하여 또는 컴퓨터 비젼 기법들을 사용한 오브젝트 인식에 의해 결정될 수도 있다. 타겟 아이템의 포지션은 또한, 예를 들면, 무선 송수신기 (145) 를 통해 네트워크 상에서 서버로부터 포지션을 취출 (retrieving) 하는 것에 의해 결정될 수도 있다. 예를 들면, 사용자는 제어 메뉴 및 키패드 (114) 를 통하여 특정 목적지를 원한다는 것을 나타낼 수도 있다. 그 다음 모바일 플랫폼 (100) 은 무선 송수신기 (145) 를 통해 네트워크 상에서 서버로부터 원하는 목적지의 포지션, 예를 들면 위도 및 경도를 취출할 수도 있다. 그 다음 뷰어에 대한 타겟 아이템의 포지션이 결정될 수도 있다.
뷰어가 향하고 있는 방향이, 예를 들면 오리엔테이션 센서 (130) 를 이용하여 결정된다 (304). 본 특허 문헌의 목적으로, 뷰어는 카메라가 향하고 있는 방향과 같은 방향을 향하고 있는 것으로 여겨진다, 즉 뷰어는 사용자가 향하고 있는 방향에서 카메라를 가리키고 있다는 것이 이해되야 한다. 가상 마스크 (200) 는 예를 들면, 뷰어의 결정된 포지션에서 도 6에 나타낸 그래픽 엔진들 (155) 에 의해, 뷰어 (306) 를 둘러싸도록 생성된다. 생성된 가상 마스크 (200) 는 타겟 아이템으로의 방향에 관한 정보를 제공하는 변화를 포함한다. 가상 마스크 변화에서의 변화는 식별된 타겟 아이템 (306) 의 포지션과 연관되고 뷰어가 향하고 있는 방향으로부터 독립된다. 또한, 생성된 가상 마스크 (200) 는 뷰어의 포지션과 연관되어, 뷰어가 이동하면, 가상 마스크가 뷰어와 함께 이동하는 한편 마스크에서 연관된 변화와 타겟 아이템 사이의 오리엔테이션을 유지한다. 예를 들면, 카메라 (120) 에 의해 만들어지는 바처럼, 뷰어가 향하고 있는 방향의 이미지가 디스플레이 되고 (308), 뷰어가 향하고 있는 방향에 있는 가상 마스크의 부분이 타겟 아이템 (310) 으로의 방향을 나타내는 마스크에서 변화로 이미지 상에 디스플레이된다. 가상 마스크가 카메라 뷰 상에 디스플레이될 수도 있다. 원하는 경우, 카메라 뷰가 제거되어, 예를 들면 그 뷰가 블랭크 또는 채워질 수도 있지만, 가상 마스크는 방향성 콤파스 역할을 하도록 남을 수도 있다. 뷰어가 회전하거나 포지션을 변경시킴에 따라, 마스크 상의 연관된 변화가 타겟 아이템쪽으로 지향된 상태로 남고, 따라서 가상 마스크의 상이한 부분이 디스플레이되도록 가상 마스크가 업데이트된다.
가상 마스크 (200) 는 가상 공간에서 뷰어를 둘러싸는 3차원 오브젝트, 예를 들면 가상 실린더 또는 구로서 만들어질 수도 있다. 다르게는, 가상 마스크 (200) 는 2차원 사용자 인터페이스 계층에 놓이는 2차원 타일 이미지 (tiled image) 로서 생성될 수도 있다. 사용자가 3차원 가상 구현을 에뮬레이트 (emulate) 하기 위해 회전함에 따라, 즉 소프트웨어가 카메라가 회전하고 있는 동안 공간에서 가상 마스크를 정지 (still) 상태로 유지하는 것을 에뮬레이트함에 따라 2차원 타일 이미지는 예를 들면, 좌측 및 우측으로 슬라이드된다.
예로서, 도 8, 도 9, 도 10 및 도 11은, 디스플레이 (112) 상에 사용자에게 디스플레이되는, 가상 마스크 (200) 를 포함하여, 증강 현실 이미지의 예들을 예시한다. 예를 들면 도 8은 사용자가 본 예에서 빌딩인 타겟 아이템 (220) 쪽으로 거의 직접 향하고 있을 때 이미지와 가상 마스크 (200) 를 예시한다. 도 8에서 볼 수 있는 바처럼, 가상 마스크 (220) 는 디스플레이된 이미지의 코너들에서 거의 볼 수 없는데, 왜냐하면 사용자가 타겟 아이템 (220) 쪽으로 향하고 있기 때문이다. 원하는 경우, 타겟 아이템 (220) 쪽을 가리키는 화살표 (230) 및 타겟 아이템 (220) 까지의 거리 (240) 와 같은 추가 증강 데이터가 디스플레이될 수도 있다.
도 9 및 도 10은, 사용자가 타겟 아이템으로부터 멀리 (우측으로) 회전함에 따라 가상 마스크 (200) 의 상이한 이미지들 및 상이한 부분들 예시한다 (타겟 아이템은 도 9 및 도 10에서 더이상 볼 수 없다). 볼 수 있는 바처럼, 디스플레이된 마스크 (200) 의 부분은 타겟 아이템에 관한 사용자의 오리엔테이션에 기초하여 변경되며, 사용자가 타겟으로부터 더 멀리 회전할 수록 더 많은 마스크가 가시적이 된다. 일 실시형태에서, 가상 마스크는 적어도 부분적으로 투명하여 물리적 세계의 이미지가 마스크 (200) 하에서 보여질 수 있다. 보여질 수 있는 바처럼, 마스크는, 이 예에서 타겟 아이템이 이미지의 더 선명한 부분쪽에 있다는 것을 제시하는 마스크의 비스듬한 에지들에 의해 타겟 아이템의 방향에 관한 정보를 제공한다. 예를 들면, 도 10은 사용자가 도 9에서 보다 타겟 아이템에 대해 우측으로 더 돌았음을 보여준다는 것이 용이하게 결정될 수 있다. 도 11은, 사용자가 타겟 아이템으로부터 멀리 직접 바라볼 때 (아래 놓이는 이미지 없이) 가상 마스크의 디스플레이된 이미지의 일 예를 예시한다.
도 12, 도 13, 도 14 및 도 15는 사용될 수도 있는 실린더형 가상 마스크들의 다른 예들을 예시한다. 유사한 특징들을 갖는 구형 마스크들이 원하는 경우 사용될 수도 있다. 보여질 수 있는 바처럼, 가상 마스크들은 마스크에서 변화에 기초하여 방향의 어떤 표시를 제공한다. 마스크에서 변화는 마스크 투명도, 컬러, 기하학적 형상, 텍스쳐, 재료, 조명, 쉐이딩 등일 수도 있다. 마스크는 밑에 있는 이미지를 완전히 보이지 않게 할 필요는 없지만, 마스크가 디스플레이에서 용이하게 인식가능하도록 이미지를 변경할 수도 있다.
사용자에게 적절한 오리엔테이션을 유지하기 위하여 마스크의 일부 부분은 항상 가시적일 수도 있다. 따라서, 마스크 (200) 는 사용자와 타겟 아이템 사이의 오리엔테이션와 일반적으로 사용자가 타겟 아이템의 방향으로부터 얼마나 멀리 떨어져 있는지의 명확한 표시를 제공한다. 추가 정보가 또한, 별도로 또는 마스크를 변경시켜 타겟 아이템 까지의 거리 표시를 제공하는 것 중 어느 하나에 의해 제공될 수도 있다.
본 발명은 교육용으로 특정 실시형태들과 관련하여 예시되었지만, 본 발명은 이에 한정되지 않는다. 다양한 적응 및 변경들이 본 발명의 범위를 이탈함이 없이 이루어질 수도 있다. 따라서, 첨부된 청구항들의 사상 및 범위는 이전 설명으로 제한되지 않아야 한다.

Claims (38)

  1. 디스플레이에서 뷰어와 타겟 아이템 사이의 오리엔테이션을 나타내는 방법으로서,
    뷰어가 향하고 있는 방향의 이미지를 디스플레이하는 단계;
    상기 뷰어가 향하고 있는 방향을 결정하는 단계;
    상기 뷰어를 둘러싸는 가상 마스크를 생성하는 단계로서, 상기 가상 마스크는 타겟 아이템으로의 방향에 관한 정보를 제공하는 변화를 갖고, 상기 가상 마스크에서의 상기 변화는 상기 타겟 아이템에 관한 상기 가상 마스크에서의 상기 변화의 오리엔테이션이 변경되지 않도록 상기 타겟 아이템의 포지션과 연관되는, 상기 가상 마스크를 생성하는 단계; 및
    상기 이미지 상에 상기 뷰어가 향하고 있는 방향에 있는 상기 가상 마스크의 일 부분을 디스플레이하는 단계를 포함하고,
    상기 가상 마스크에서의 상기 변화는 상기 타겟 아이템의 방향에 관한 정보를 상기 뷰어에게 제공하기 위하여 상기 디스플레이에서 가시적인, 오리엔테이션을 나타내는 방법.
  2. 제 1 항에 있어서,
    상기 뷰어의 방향이 변경됐는지를 결정하고 상기 이미지 상에 상기 가상 마스크의 상이한 부분을 디스플레이하는 단계를 더 포함하는, 오리엔테이션을 나타내는 방법.
  3. 제 1 항에 있어서,
    상기 타겟 아이템에 대한 상기 뷰어의 포지션이 변경됐는지를 결정하고 상기 이미지 상에 상기 가상 마스크의 상이한 부분을 디스플레이하는 단계를 더 포함하는, 오리엔테이션을 나타내는 방법.
  4. 제 1 항에 있어서,
    상기 타겟 아이템을 식별하고 상기 뷰어에 대한 상기 타겟 아이템의 포지션을 결정하는 단계를 더 포함하는, 오리엔테이션을 나타내는 방법.
  5. 제 1 항에 있어서,
    상기 가상 마스크는 3차원 가상 공간에 있는 3차원 실린더 또는 구 (sphere) 중 하나인, 오리엔테이션을 나타내는 방법.
  6. 제 1 항에 있어서,
    상기 가상 마스크는 3차원 실린더 또는 구의 이동을 표시하도록 슬라이드되고 사용자 인터페이스 계층에 있는 2차원 오브젝트를 포함하는, 오리엔테이션을 나타내는 방법.
  7. 제 1 항에 있어서,
    상기 가상 마스크에서의 상기 변화는 투명도, 컬러, 기하학적 형상, 텍스쳐, 재료, 조명, 및 쉐이딩 중 적어도 하나인, 오리엔테이션을 나타내는 방법.
  8. 제 1 항에 있어서,
    상기 타겟 아이템은 장소, 오브젝트, 일반 방향, 사람일 수도 있고, 고정적이거나 또는 이동할 수도 있는, 오리엔테이션을 나타내는 방법.
  9. 제 1 항에 있어서,
    상기 가상 마스크에서의 상기 변화는 상기 사용자가 향하고 있는 방향에 상관 없이 디스플레이되는, 오리엔테이션을 나타내는 방법.
  10. 제 1 항에 있어서,
    상기 가상 마스크에서의 상기 변화는 상기 뷰어가 상기 타겟 아이템을 직접 향하고 있거나 상기 타겟 아이템으로부터 멀리 직접 향하고 있을 때 디스플레이되지 않는, 오리엔테이션을 나타내는 방법.
  11. 제 1 항에 있어서,
    추가 시각 표시가 상기 타겟 아이템에 관한 정보를 제공하기 위하여 디스플레이되는, 오리엔테이션을 나타내는 방법.
  12. 제 11 항에 있어서,
    상기 추가 시각 표시는, 상기 타겟 아이템의 위치를 나타내는 화살표 및 상기 타겟 아이템까지의 거리의 표시 중 적어도 하나를 포함하고,
    상기 거리의 표시는 가상 마스크 변화에서의 변경, 수치 값 및 추가 시각 표시에서의 변경 중 적어도 하나인, 오리엔테이션을 나타내는 방법.
  13. 제 1 항에 있어서,
    디스플레이된 상기 가상 마스크의 부분의 정렬은 뷰잉 스크린 또는 수평에 수직으로 고정되는, 오리엔테이션을 나타내는 방법.
  14. 제 1 항에 있어서,
    상기 가상 마스크는 카메라 뷰 상에서 또는 블랭크 또는 채워진 배경 상에 디스플레이되는, 오리엔테이션을 나타내는 방법.
  15. 모바일 플랫폼으로서,
    카메라가 향하고 있는 방향으로 이미지를 만들도록 동작가능한 상기 카메라;
    상기 카메라가 향하고 있는 방향에 대한 데이터를 제공하는 오리엔테이션 센서;
    상기 카메라 및 상기 오리엔테이션 센서에 접속된 프로세서;
    상기 프로세서에 접속된 메모리;
    상기 메모리에 접속된 디스플레이; 및
    상기 메모리에 유지되고 상기 프로세서에서 실행되는 소프트웨어를 포함하고,
    상기 소프트웨어는, 상기 프로세서로 하여금,
    상기 오리엔테이션 센서로부터의 상기 데이터를 이용하여 상기 카메라가 향하고 있는 방향을 결정하고;
    상기 카메라의 포지션으로부터 타겟 아이템으로의 방향에 관한 정보를 제공하는 변화를 갖는 가상 마스크를 생성하며, 상기 가상 마스크에서의 상기 변화는, 상기 타겟 아이템의 포지션에 대한 상기 가상 마스크에서의 상기 변화의 오리엔테이션이 변경되지 않도록 상기 타겟 아이템의 포지션과 연관되고;
    상기 디스플레이 상에 상기 카메라로부터 상기 이미지와 상기 카메라가 향하고 있는 방향에 있는 상기 가상 마스크의 부분을 디스플레이하도록 하고,
    상기 가상 마스크에서의 상기 변화는 상기 타겟 아이템의 방향에 관한 정보를 상기 뷰어에 제공하기 위해 상기 디스플레이에서 가시적인, 모바일 플랫폼.
  16. 제 15 항에 있어서,
    상기 소프트웨어는 또한 상기 프로세서로 하여금, 상기 오리엔테이션 센서로부터의 데이터를 이용하여 상기 카메라가 향하고 있는 방향이 변경됐다는 것을 결정하고 상기 가상 마스크의 상이한 부분을 디스플레이하도록 하는, 모바일 플랫폼.
  17. 제 15 항에 있어서,
    상기 카메라의 포지션에 관한 데이터를 상기 프로세서에 제공하는 포지션 센서를 더 포함하고,
    상기 소프트웨어는 또한 상기 프로세서로 하여금, 상기 타겟 아이템에 대한 상기 카메라의 포지션이 변경됐다는 것을 결정하고 상기 가상 마스크의 상이한 부분을 디스플레이하도록 하는, 모바일 플랫폼.
  18. 제 15 항에 있어서,
    상기 상기 프로세서에 접속된 사용자 인터페이스를 더 포함하고,
    상기 소프트웨어는 또한 상기 프로세서로 하여금, 상기 사용자 인터페이스에 의해 제공된 데이터로부터 상기 타겟 아이템을 식별하도록 하는, 모바일 플랫폼.
  19. 제 15 항에 있어서,
    상기 가상 마스크는 3차원 가상 공간에 있는 3차원 실린더 또는 구 (sphere) 중 하나인, 모바일 플랫폼.
  20. 제 15 항에 있어서,
    상기 가상 마스크는 3차원 실린더 또는 구의 이동을 표시하도록 슬라이드되고 사용자 인터페이스 계층에 있는 2차원 오브젝트를 포함하는, 모바일 플랫폼.
  21. 제 15 항에 있어서,
    상기 가상 마스크에서의 상기 변화는 투명도, 컬러, 기하학적 형상, 텍스쳐, 재료, 조명, 및 쉐이딩 중 적어도 하나인, 모바일 플랫폼.
  22. 제 15 항에 있어서,
    상기 타겟 아이템은 장소, 오브젝트, 일반 방향, 사람일 수도 있고, 고정적이거나 또는 이동할 수도 있는, 모바일 플랫폼.
  23. 제 15 항에 있어서,
    상기 가상 마스크에서의 상기 변화는 상기 사용자가 향하고 있는 방향에 상관 없이 디스플레이되는, 모바일 플랫폼.
  24. 제 15 항에 있어서,
    상기 가상 마스크에서의 상기 변화는 상기 뷰어가 상기 타겟 아이템을 직접 향하고 있거나 상기 타겟 아이템으로부터 멀리 직접 향하고 있을 때 디스플레이되지 않는, 모바일 플랫폼.
  25. 제 15 항에 있어서,
    상기 소프트웨어는 또한 상기 프로세서로 하여금, 상기 타겟 아이템에 관한 정보를 제공하기 위한 추가 시각 표시를 디스플레이하도록 하는, 모바일 플랫폼.
  26. 제 25 항에 있어서,
    상기 추가 시각 표시는, 상기 타겟 아이템의 위치를 나타내는 화살표 및 상기 타겟 아이템까지의 거리의 표시 중 적어도 하나를 포함하고, 상기 거리의 표시는 가상 마스크 변화에서의 변경, 수치 값 및 추가 시각 표시에서의 변경 중 적어도 하나인, 모바일 플랫폼.
  27. 제 15 항에 있어서,
    디스플레이된 상기 가상 마스크의 부분의 정렬은 뷰잉 스크린 또는 수평에 수직으로 고정되는, 모바일 플랫폼.
  28. 제 15 항에 있어서,
    상기 가상 마스크는 카메라 뷰 상에서 또는 블랭크 또는 채워진 배경 상에 디스플레이되는, 모바일 플랫폼.
  29. 모바일 플랫폼을 위한 포지션 정보를 액세스하고 업데이트하기 위한 시스템으로서,
    뷰어가 향하고 있는 방향의 이미지를 만들기 위한 수단;
    상기 뷰어가 향하고 있는 방향을 결정하기 위한 수단;
    상기 뷰어를 둘러싸는 가상 마스크를 생성하기 위한 수단으로서, 상기 가상 마스크는 타겟 아이템으로의 방향에 관한 정보를 제공하는 변화를 갖고, 상기 가상 마스크에서의 상기 변화는 상기 타겟 아이템에 관한 상기 가상 마스크에서의 상기 변화의 오리엔테이션이 변경되지 않도록 상기 타겟 아이템의 포지션과 연관되는, 상기 가상 마스크를 생성하기 위한 수단;
    상기 뷰어가 향하고 있는 방향의 이미지와 상기 뷰어가 향하고 있는 방향에 있는 상기 가상 마스크의 부분을 디스플레이 하기 위한 수단을 포함하고,
    상기 가상 마스크에서의 상기 변화는 상기 타겟 아이템의 방향에 관한 정보를 상기 뷰어에 제공하기 위해 상기 디스플레이에서 가시적인, 시스템.
  30. 제 29 항에 있어서,
    상기 뷰어의 방향이 변경됐는지를 결정하고 상기 가상 마스크의 상이한 부분을 디스플레이하기 위한 수단을 더 포함하는, 시스템.
  31. 제 29 항에 있어서,
    상기 타겟 아이템에 대한 상기 뷰어의 포지션이 변경됐는지를 결정하고 상기 이미지 상에 상기 가상 마스크의 상이한 부분을 디스플레이하기 위한 수단을 더 포함하는, 시스템.
  32. 제 29 항에 있어서,
    상기 타겟 아이템을 식별하고 상기 뷰어에 대한 상기 타겟 아이템의 포지션을 결정하기 위한 수단을 더 포함하는, 시스템.
  33. 제 29 항에 있어서,
    상기 가상 마스크는 3차원 가상 공간에 있는 3차원 실린더 또는 구 (sphere) 중 하나인, 시스템.
  34. 제 29 항에 있어서,
    상기 가상 마스크는 3차원 실린더 또는 구의 이동을 표시하도록 슬라이드되고 사용자 인터페이스 계층에 있는 2차원 오브젝트를 포함하는, 시스템.
  35. 제 29 항에 있어서,
    상기 가상 마스크에서의 상기 변화는 투명도, 컬러, 기하학적 형상, 텍스쳐, 재료, 조명, 및 쉐이딩 중 적어도 하나인, 시스템.
  36. 저장된 프로그램 코드를 포함하는 컴퓨터 판독가능 매체로서,
    뷰어가 향하고 있는 방향을 결정하기 위한 프로그램 코드;
    상기 뷰어의 포지션으로부터 타겟 아이템으로의 방향에 관한 정보를 제공하는 변화를 갖는 가상 마스크를 생성하기 위한 프로그램 코드로서, 상기 가상 마스크에서의 상기 변화는, 상기 타겟 아이템의 포지션에 대한 상기 가상 마스크에서의 상기 변화의 오리엔테이션이 변경되지 않도록 상기 타겟 아이템의 포지션과 연관되는, 상기 가상 마스크를 생성하기 위한 프로그램 코드; 및
    상기 뷰어가 향하고 있는 방향의 이미지와 상기 뷰어가 향하고 있는 방향에 있는 상기 가상 마스크의 부분을 디스플레이 하기 위한 프로그램 코드를 포함하고,
    상기 가상 마스크에서의 상기 변화는 상기 타겟 아이템의 방향에 관한 정보를 상기 뷰어에 제공하기 위해 상기 디스플레이에서 가시적인, 컴퓨터 판독가능 매체.
  37. 제 35 항에 있어서,
    상기 뷰어가 향하는 방향이 변경됐다는 것을 결정하고 상기 가상 마스크의 상이한 부분을 디스플레이하기 위한 프로그램 코드를 더 포함하는, 컴퓨터 판독가능 매체.
  38. 제 35 항에 있어서,
    상기 타겟 아이템에 대하여 상기 뷰어의 포지션이 변경됐다는 것을 결정하고 상기 가상 마스크의 상이한 부분을 디스플레이하기 위한 프로그램 코드를 더 포함하는, 컴퓨터 판독가능 매체.
KR1020127028819A 2010-04-02 2011-03-29 증강 현실 방향 오리엔테이션 마스크 KR101435310B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/753,701 2010-04-02
US12/753,701 US8570344B2 (en) 2010-04-02 2010-04-02 Augmented reality direction orientation mask
PCT/US2011/030397 WO2011123472A2 (en) 2010-04-02 2011-03-29 Augmented reality direction orientation mask

Publications (2)

Publication Number Publication Date
KR20130028094A true KR20130028094A (ko) 2013-03-18
KR101435310B1 KR101435310B1 (ko) 2014-09-02

Family

ID=44625698

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020127028819A KR101435310B1 (ko) 2010-04-02 2011-03-29 증강 현실 방향 오리엔테이션 마스크

Country Status (9)

Country Link
US (2) US8570344B2 (ko)
EP (1) EP2553662B1 (ko)
JP (2) JP5738975B2 (ko)
KR (1) KR101435310B1 (ko)
CN (1) CN102918568B (ko)
BR (1) BR112012024828A2 (ko)
ES (1) ES2765640T3 (ko)
HU (1) HUE046828T2 (ko)
WO (1) WO2011123472A2 (ko)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2955007B1 (fr) * 2010-01-04 2012-02-17 Sagem Defense Securite Estimation de mouvement global et dense
US8570344B2 (en) 2010-04-02 2013-10-29 Qualcomm Incorporated Augmented reality direction orientation mask
US9606992B2 (en) * 2011-09-30 2017-03-28 Microsoft Technology Licensing, Llc Personal audio/visual apparatus providing resource management
JP2013235080A (ja) * 2012-05-08 2013-11-21 Sony Corp 画像表示装置、画像表示プログラム及び画像表示方法
US9020537B2 (en) * 2012-06-28 2015-04-28 Experience Proximity, Inc. Systems and methods for associating virtual content relative to real-world locales
US20140214585A1 (en) * 2013-01-30 2014-07-31 Moveline Group, Inc Telepresence assisted item transport facilitation
US20140278053A1 (en) * 2013-03-14 2014-09-18 Samsung Electronics Co., Ltd. Navigation system with dynamic update mechanism and method of operation thereof
US9256072B2 (en) * 2013-10-02 2016-02-09 Philip Scott Lyren Wearable electronic glasses that detect movement of a real object copies movement of a virtual object
WO2015182290A1 (ja) * 2014-05-28 2015-12-03 株式会社Screenホールディングス 経路案内装置、経路案内方法、および経路案内プログラム
US10451875B2 (en) * 2014-07-25 2019-10-22 Microsoft Technology Licensing, Llc Smart transparency for virtual objects
US10311638B2 (en) 2014-07-25 2019-06-04 Microsoft Technology Licensing, Llc Anti-trip when immersed in a virtual reality environment
US10416760B2 (en) 2014-07-25 2019-09-17 Microsoft Technology Licensing, Llc Gaze-based object placement within a virtual reality environment
US9766460B2 (en) 2014-07-25 2017-09-19 Microsoft Technology Licensing, Llc Ground plane adjustment in a virtual reality environment
US9508195B2 (en) * 2014-09-03 2016-11-29 Microsoft Technology Licensing, Llc Management of content in a 3D holographic environment
US20160178906A1 (en) * 2014-12-19 2016-06-23 Intel Corporation Virtual wearables
US9733881B2 (en) * 2015-08-28 2017-08-15 International Business Machines Corporation Managing digital object viewability for a transparent display system
CN105389848B (zh) * 2015-11-06 2019-04-09 网易(杭州)网络有限公司 一种3d场景的绘制系统及方法、终端
CN105389847B (zh) * 2015-11-06 2018-01-26 网易(杭州)网络有限公司 一种3d场景的绘制系统及方法、终端
CN105854296A (zh) * 2016-04-21 2016-08-17 苏州探寻文化科技有限公司 一种基于增强现实的互动体验系统
US9928630B2 (en) 2016-07-26 2018-03-27 International Business Machines Corporation Hiding sensitive content visible through a transparent display
KR102650572B1 (ko) 2016-11-16 2024-03-26 삼성전자주식회사 전자 장치 및 그의 제어 방법
CN109274977B (zh) 2017-07-18 2022-03-25 腾讯科技(深圳)有限公司 虚拟道具分配方法、服务器及客户端
JP2020014361A (ja) * 2018-07-20 2020-01-23 中国電力株式会社 情報処理装置及び情報処理システム
US10777087B2 (en) 2018-12-07 2020-09-15 International Business Machines Corporation Augmented reality for removing external stimuli
CN110111411A (zh) * 2019-04-02 2019-08-09 贝壳技术有限公司 一种三维模型的浏览处理方法及装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003005627A (ja) * 2001-06-19 2003-01-08 Canon Inc 情報処理装置及びその方法、プログラム
JP3893983B2 (ja) * 2002-01-17 2007-03-14 ソニー株式会社 情報提供装置及び情報提供方法、記憶媒体、並びにコンピュータ・プログラム
JP4710217B2 (ja) * 2003-07-03 2011-06-29 ソニー株式会社 情報提示装置及び情報提示方法、情報提示システム、並びにコンピュータ・プログラム
JPWO2006080344A1 (ja) 2005-01-26 2008-06-19 松下電器産業株式会社 誘導装置及び誘導方法
US20070035563A1 (en) 2005-08-12 2007-02-15 The Board Of Trustees Of Michigan State University Augmented reality spatial interaction and navigational system
US8068121B2 (en) 2007-06-29 2011-11-29 Microsoft Corporation Manipulation of graphical objects on a display or a proxy device
US8570344B2 (en) 2010-04-02 2013-10-29 Qualcomm Incorporated Augmented reality direction orientation mask

Also Published As

Publication number Publication date
WO2011123472A3 (en) 2012-10-11
US20140055451A1 (en) 2014-02-27
HUE046828T2 (hu) 2020-03-30
CN102918568B (zh) 2016-01-20
JP2015172941A (ja) 2015-10-01
US8570344B2 (en) 2013-10-29
JP5992573B2 (ja) 2016-09-14
US20110242090A1 (en) 2011-10-06
WO2011123472A2 (en) 2011-10-06
EP2553662B1 (en) 2019-11-13
EP2553662A2 (en) 2013-02-06
US8941649B2 (en) 2015-01-27
KR101435310B1 (ko) 2014-09-02
JP2013524344A (ja) 2013-06-17
BR112012024828A2 (pt) 2016-06-07
CN102918568A (zh) 2013-02-06
JP5738975B2 (ja) 2015-06-24
ES2765640T3 (es) 2020-06-10

Similar Documents

Publication Publication Date Title
KR101435310B1 (ko) 증강 현실 방향 오리엔테이션 마스크
EP2583446B1 (en) User interface transition between camera view and map view
US10445945B2 (en) Directional and X-ray view techniques for navigation using a mobile device
US20160063671A1 (en) A method and apparatus for updating a field of view in a user interface
US20110115671A1 (en) Determination of elevation of mobile station
US20120236029A1 (en) System and method for embedding and viewing media files within a virtual and augmented reality scene
US9430991B2 (en) User interface display composition with device sensor/state based graphical effects
JP2011138258A (ja) 景観再現システム
RU2660631C1 (ru) Способ и система для формирования изображений совмещенной реальности
CN109283528A (zh) 航海信息显示装置、航海信息显示方法及记录介质
US9870514B2 (en) Hypotheses line mapping and verification for 3D maps

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180628

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190624

Year of fee payment: 6