KR20120061696A - 증강현실 기반 건물 네비게이션 시스템 - Google Patents

증강현실 기반 건물 네비게이션 시스템 Download PDF

Info

Publication number
KR20120061696A
KR20120061696A KR1020100123083A KR20100123083A KR20120061696A KR 20120061696 A KR20120061696 A KR 20120061696A KR 1020100123083 A KR1020100123083 A KR 1020100123083A KR 20100123083 A KR20100123083 A KR 20100123083A KR 20120061696 A KR20120061696 A KR 20120061696A
Authority
KR
South Korea
Prior art keywords
marker
augmented reality
image
navigation system
building
Prior art date
Application number
KR1020100123083A
Other languages
English (en)
Other versions
KR101214612B1 (ko
Inventor
최영규
김재환
김현민
이순규
정종현
진희정
최현철
Original Assignee
한국기술교육대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국기술교육대학교 산학협력단 filed Critical 한국기술교육대학교 산학협력단
Priority to KR1020100123083A priority Critical patent/KR101214612B1/ko
Publication of KR20120061696A publication Critical patent/KR20120061696A/ko
Application granted granted Critical
Publication of KR101214612B1 publication Critical patent/KR101214612B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 건물 정보와 실제 환경을 연계하기 위한 매개체로 활용하는 마커, 상기 마커가 표시된 입력영상을 촬영하는 카메라, 상기 카메라에 촬영된 마커를 인식하는 마커 인식부, 상기 마커 인식부와 연동하여 상기 마커의 위치에 건물의 가상 영상을 증강시키는 영상처리부 및 상기 영상처리부에서 증강된 영상을 표시하는 디스플레이부를 포함하는 것을 특징으로 하는 증강현실 기반 건물 네비게이션 시스템에 관한 것이다. 본 발명에 의하면 마커 기반의 증강현실을 이용해 건물의 모습과 사용자가 가고자 하는 장소의 구체적인 모습들을 관찰함으로써 보다 빠르고 정확하게 목적지를 찾아갈 수 있게 하는 효과가 있다.

Description

증강현실 기반 건물 네비게이션 시스템{BUILDING NAVIGATION SYSTEM BASED ON AUGMENTED REALITY}
본 발명은 증강현실 기반 건물 네비게이션 시스템에 관한 것으로서, 더욱 상세히는 마커기반의 증강현실을 이용해 건물의 모습과, 사용자가 가고자 하는 장소의 정보를 미리 제공함으로써 보다 빠르고 정확하게 목적지를 찾을 수 있도록 하는 증강현실 기반 건물 네비게이션 시스템에 관한 것이다.
최근 가상현실(Virtual Reality:VR)의 한 분야인 증강현실(Augmented Reality:AR)에 대한 관심이 높아지고 있다. 실제 환경에 가상 사물을 합성하여 원래의 환경에 존재하는 것처럼 보여주는 이 증강현실기술은 최근 영상처리와 마커기반의 트래킹을 손쉽게 구현할 수 있게 도와주는 오픈 라이브러리가 등장하면서 이를 이용한 응용 프로그램이 늘어나고 연구하는 사람들이 늘어나고 관심이 증대되면서 앞으로의 기대 분야로 각광받고 있다.
특히, 요즘의 모바일 스마트폰 등에서 주로 이용하는 위치기반 서비스는 그 유용성 덕에 많은 사람들의 관심을 받고 있다. 현재의 증강현실을 이용한 네비게이션 어플리케이션들은 한 지점으로부터 다른 지점의 위치공간 정보를 제공하고 있지만, 특정 건물의 특정 호실을 찾고자 할 때, 단순히 위치기반 서비스를 이용해 방향만으로 찾아가야 하므로 가고자 하는 건물의 내부 정보 등을 미리 알 수 없으며, 그에 따라 보다 빠르고 정확하게 목적지를 찾을 수 없는 문제점이 있다.
본 발명은 상술한 문제를 해결하기 위하여 안출된 것으로, 본 발명의 목적은 마커 기반의 증강현실을 이용해 건물의 모습과 사용자가 가고자 하는 장소의 구체적인 모습들을 관찰하여 사용자가 간접적인 경험을 통해 도서나 영상으로 보던 환경을 미리 경험하도록 하여 위치를 정확하게 알고 찾아갈 수 있도록 하여 보다 빠르게 목적지를 찾을 수 있도록 하는 증강현실 기반 건물 네비게이션 시스템을 제공하는데 있다.
상술한 과제를 해결하기 위하여 제공되는 본 발명의 구성은 건물 정보와 실제 환경을 연계하기 위한 매개체로 활용하는 마커; 상기 마커가 표시된 입력영상을 촬영하는 카메라; 상기 카메라에 촬영된 마커를 인식하는 마커 인식부; 상기 마커 인식부와 연동하여 상기 마커의 위치에 건물의 가상 영상을 증강시키는 영상처리부; 상기 영상처리부에서 증강된 영상을 표시하는 디스플레이부; 를 포함하는 것을 특징으로 하는 증강현실 기반 건물 네비게이션 시스템을 제공하여 사용자로 하여금 보다 빠르고 정확하게 목적지를 찾을 수 있도록 할 수 있다.
특히, 상기 마커 인식부는, 입력영상을 바이너리 영상으로 변환하는 변환부; 상기 바이너리 영상에서 스퀘어 리전(square region)을 탐색하는 탐색부; 상기 각 스퀘어 리전 내의 패턴을 캡쳐하여 패턴 템플릿들과 매칭하여 마커인지 여부를 결정하는 마커 결정부; 상기 마커 결정부에 의해 마커로 인식된 경우 실제 영상에서의 위치를 계산하는 위치 연산부;를 포함하는 것을 특징으로 할 수 있다.
또한, 상기 증강현실 기반 건물 네비게이션 시스템은, 건물 정보에 대한 탐색을 위한 터치입력이나 클릭에 따른 이벤트를 처리하는 이벤트 처리부를 더 포함하는 것을 특징으로 할 수 있다.
또한, 상기 건물 정보는, 건물의 외관, 층별 또는 특정 호실에 대한 정보인 것을 특징으로 할 수 있다.
아울러, 상기 마커는 책자형태인 것을 특징으로 할 수 있다.
또한, 상기 디스플레이부는, 파노라마 사진으로 증강된 영상을 구현하는 것을 특징으로 할 수 있다.
본 발명에 의하면, 마커 기반의 증강현실을 이용해 건물의 모습과 사용자가 가고자 하는 장소의 구체적인 모습들을 관찰함으로써 위치를 정확하게 알고 찾아갈 수 있도록 하고 사용자는 직접 마커를 조절하여 건물 모델을 둘러보며 자연스럽게 목적지에 대한 정보를 습득할 수 있게 된다.
도 1은 본 발명의 일 실시형태에 따른 증강현실 기반 건물 네비게이션 시스템의 구성도이다.
도 2은 본 발명의 일 실시형태에 따른 증강현실 기반 건물 네비게이션 시스템 순서도이다.
도 3a 및 도 3b는 파노라마 VR을 나타낸 예시도이다.
도 4a 내지 도 5d는 시연 모습을 도시한 예시도이다.
이하 첨부도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 그러나, 본 발명의 실시예들은 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 아래에서 상술하는 실시예들로 인해 한정되어지는 것으로 해석되어져서는 안 된다. 본 발명의 실시예들은 당업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위해서 제공되어지는 것이다. 따라서, 도면에서의 요소의 형상 등은 보다 명확한 설명을 강조하기 위해서 과장되어진 것이며, 도면상에서 동일한 부호로 표시된 요소는 동일한 요소를 의미한다.
도 1은 본 발명의 일 실시형태에 따른 증강현실 기반 건물 네비게이션 시스템의 구성도를 도시한 도면이다. 도 1을 참조하면, 본 발명은 건물 정보와 실제 환경을 연계하기 위한 매개체로 활용하는 마커(10), 상기 마커(10)가 표시된 입력영상을 촬영하는 카메라(20), 상기 카메라(20)에 촬영된 마커(10)를 인식하는 마커 인식부(30), 상기 마커 인식부(30)와 연동하여 상기 마커(10)의 위치에 건물의 가상 영상을 증강시키는 영상처리부(40) 및 상기 영상처리부(40)에서 증강된 영상을 표시하는 디스플레이부(60)를 포함하여 이루어질 수 있다. 이때, 상기 증강현실 기반 건물 네비게이션 시스템은 건물 정보에 대한 탐색을 위한 터치입력이나 클릭에 따른 이벤트를 처리하는 이벤트 처리부(50)를 더 포함하는 것이 바람직하다. 본 발명은 증강현실 오픈 라이브러리 중 OpenSceneGraph 라이브러리를 통하여 구현하였으며 증강현실 응용프로그램의 개발을 쉽게 할 수 있도록 osgART 라이브러리를 이용하였다.
상기 마커 인식부(30)는 입력영상을 바이너리 영상으로 변환하는 변환부(31), 상기 바이너리 영상에서 스퀘어 리전(square region)을 탐색하는 탐색부(32), 상기 각 스퀘어 리전 내의 패턴을 캡쳐하여 패턴 템플릿들과 매칭하여 마커인지 여부를 결정하는 마커 결정부(33) 및 상기 마커 결정부(33)에 의해 마커(10)로 인식된 경우 실제 영상에서의 위치를 계산하는 위치 연산부(34)로 이루어지며, osgART에서는 트래커를 생성하고 상기 트래커와 비디오 영상을 세팅하고 트래커에 마커 등록 후 교정수치로 카메라를 생성하여 카메라 매트릭스가 생성되면 이 좌표에 가상정보를 표현하게 된다. osg파일들은 각각의 패턴이 등록되어 있는 매트릭스에 추가되고, 이들은 그룹노드에 모두 포함되어 있다. 마커파일들은 매트릭스폼에 등록되어 있고, 이벤트에 관한 처리는 가장 상위의 Viewer클래스에서 처리한다. 사용자는 책자형태로 제공되는 마커북을 가지고 건물의 전경 및 각 건물에 대한 모델들을 증강현실로 볼 수 있게 된다.
터치입력이나 클릭이 들어오면 이를 핸들러에서 받아 처리한다. 이는 Viewer에 추가되어 있던 핸들러 중 하나로, 본 발명에서는 ARNSPickHandler 클래스로 핸들러가 구현되어 있으며, 여기에서 중요한 부분은 입력이 들어온 스크린의 위치(x,y) 좌표에 대한 상대적인 매트릭스의 좌표계산과 이에 따른 오브젝트 선택을 하도록 하는 pick() 메소드이다. 여기에서 Intersection Visitor를 사용하여 인터섹터를 검색하게 된다. 인터섹터는 화면에서 프로젝션 및 정규화된 인터섹터를 생성하여 오브젝트를 찾고, osg::Node로 이를 받아내어 이벤트 처리를 하게 된다.
도 2은 본 발명의 일 실시형태에 따른 증강현실 기반 건물 네비게이션 시스템 순서도이다. 시스템이 시작되면(S110) 기본적인 캠 연결 등의 작업을 거친 후, OSG 모델을 로딩하기 시작한다(S120). 각 모델에 대한 위치정보나 마커정보들은 ModelData에 파일로 저장되어 있다. 로딩이 끝이 나면 비디오 영상이 들어오고(S140), 크게는 마커 검출 작업(S150)과 터치 입력(S130)에 대한 이벤트 처리(S160)의 두 가지 작업으로 나뉘어지게 된다. 마커가 검출되면 해당 모델을 띄우게 되고(S170), 터치가 입력되면 해당 모델에서의 이벤트를 처리하도록 한다(S160).
도 3a 및 도 3b는 Microsoft ICE(Image Composite Editor)를 사용하여 만든 스티치 화면으로서 디스플레이부는 상기와 같이 파노라마 사진들로 증강된 영상을 구현할 수 있으며 OpenSceneGraph를 사용하여 Cylinder를 화면에 그리고 도형의 안쪽 면에 파노라마 사진을 텍스처 매핑하고 도형의 중심에 카메라를 배치시켜서 카메라 시점을 마우스로 변화시켜서 화면 전환 효과를 나타낼 수 있다.
도 4a 내지 도 5d는 시연 모습을 도시한 예시도이다. 도 4a에서와 같이 마커를 스크린에 가져가면 왼쪽 이미지와 같이 전경이 나오며 전경에서 보고자 하는 건물을 선택하면 오른쪽 이미지와 같이 파노라마를 볼 수 있다. 또한, 도 4b에서처럼 왼쪽 이미지와 같이 보고자 하는 건물의 전체 모델을 볼 수 있고, 오른쪽 이미지와 같이 층별로 가고자 하는 호실의 위치를 확인할 수 있다.
도 5a는 프로그램 실행의 예시도를, 도 5b는 건물의 외관 관찰에 대한 예시도를 도시한 것이다. 또한, 도 5c는 터치입력을 통하여 건물 내부의 각 층별로 탐색시의 예시도를 도시한 것이며, 도 5d는 터치입력을 통한 특정 호실 검색시의 예시도를 도시한 것으로서 상기와 같이 건물의 외관은 물론, 각 층별 탐색과 특정 호실에 대한 탐색도 가능하다. 호실에 대한 탐색시 터치에 반응하여 특정호실에 화살표가 디스플레이 되며, 사용자는 마커를 돌려가며 각 호실의 위치와 건물의 구조를 보며 해당 정보를 얻을 수 있게 된다. 이와 같이 사용자에게 목적지 건물의 외관 및 내부의 형태를 미리 제공함으로써 자연스럽게 목적지에 대한 정보를 습득할 뿐 아니라 보다 빠르고 정확하게 목적지를 찾을 수 있게 된다.
이상 도면과 명세서에서 최적 실시예들이 개시되었다. 여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 특허청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.
10: 마커 20: 카메라
30: 마커 인식부 40: 영상처리부
50: 이벤트 처리부 60: 디스플레이부

Claims (6)

  1. 건물 정보와 실제 환경을 연계하기 위한 매개체로 활용하는 마커;
    상기 마커가 표시된 입력영상을 촬영하는 카메라;
    상기 카메라에 촬영된 마커를 인식하는 마커 인식부;
    상기 마커 인식부와 연동하여 상기 마커의 위치에 건물의 가상 영상을 증강시키는 영상처리부;
    상기 영상처리부에서 증강된 영상을 표시하는 디스플레이부;
    를 포함하는 것을 특징으로 하는 증강현실 기반 건물 네비게이션 시스템.
  2. 청구항 1에 있어서,
    상기 마커 인식부는,
    입력영상을 바이너리 영상으로 변환하는 변환부;
    상기 바이너리 영상에서 스퀘어 리전(square region)을 탐색하는 탐색부;
    상기 각 스퀘어 리전 내의 패턴을 캡쳐하여 패턴 템플릿들과 매칭하여 마커인지 여부를 결정하는 마커 결정부;
    상기 마커 결정부에 의해 마커로 인식된 경우 실제 영상에서의 위치를 계산하는 위치 연산부;
    를 포함하는 것을 특징으로 하는 증강현실 기반 건물 네비게이션 시스템.
  3. 청구항 1에 있어서,
    상기 증강현실 기반 건물 네비게이션 시스템은,
    건물 정보에 대한 탐색을 위한 터치입력이나 클릭에 따른 이벤트를 처리하는 이벤트 처리부를 더 포함하는 것을 특징으로 하는 증강현실 기반 건물 네비게이션 시스템.
  4. 청구항 3에 있어서,
    상기 건물 정보는,
    건물의 외관, 층별 또는 특정 호실에 대한 정보인 것을 특징으로 하는 증강현실 기반 건물 네비게이션 시스템.
  5. 청구항 1에 있어서,
    상기 마커는 책자형태인 것을 특징으로 하는 증강현실 기반 건물 네비게이션 시스템.
  6. 청구항 1에 있어서,
    상기 디스플레이부는,
    파노라마 사진으로 증강된 영상을 구현하는 것을 특징으로 하는 증강현실 기반 건물 네비게이션 시스템.
KR1020100123083A 2010-12-03 2010-12-03 증강현실 기반 건물 네비게이션 시스템 KR101214612B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100123083A KR101214612B1 (ko) 2010-12-03 2010-12-03 증강현실 기반 건물 네비게이션 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100123083A KR101214612B1 (ko) 2010-12-03 2010-12-03 증강현실 기반 건물 네비게이션 시스템

Publications (2)

Publication Number Publication Date
KR20120061696A true KR20120061696A (ko) 2012-06-13
KR101214612B1 KR101214612B1 (ko) 2012-12-21

Family

ID=46612191

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100123083A KR101214612B1 (ko) 2010-12-03 2010-12-03 증강현실 기반 건물 네비게이션 시스템

Country Status (1)

Country Link
KR (1) KR101214612B1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101334980B1 (ko) * 2012-12-11 2013-11-29 세종대학교산학협력단 증강현실 콘텐츠 저작 장치 및 증강현실 콘텐츠 저작 방법
KR20190136112A (ko) * 2015-10-30 2019-12-09 스냅 인코포레이티드 증강 현실 시스템에서의 이미지 기반 추적
US10657708B1 (en) 2015-11-30 2020-05-19 Snap Inc. Image and point cloud based tracking and in augmented reality systems
US11748579B2 (en) 2017-02-20 2023-09-05 Snap Inc. Augmented reality speech balloon system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102442239B1 (ko) 2020-03-03 2022-09-14 주식회사 코아소프트 디지털 사이니지를 이용한 실내 길안내 장치

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100538082B1 (ko) * 2005-05-12 2005-12-22 버츄얼빌더스 주식회사 증강현실기반의 건물정보 통합관리 시스템

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101334980B1 (ko) * 2012-12-11 2013-11-29 세종대학교산학협력단 증강현실 콘텐츠 저작 장치 및 증강현실 콘텐츠 저작 방법
KR20190136112A (ko) * 2015-10-30 2019-12-09 스냅 인코포레이티드 증강 현실 시스템에서의 이미지 기반 추적
US10733802B2 (en) 2015-10-30 2020-08-04 Snap Inc. Image based tracking in augmented reality systems
KR20210008939A (ko) * 2015-10-30 2021-01-25 스냅 인코포레이티드 증강 현실 시스템에서의 이미지 기반 추적
US11315331B2 (en) 2015-10-30 2022-04-26 Snap Inc. Image based tracking in augmented reality systems
US11769307B2 (en) 2015-10-30 2023-09-26 Snap Inc. Image based tracking in augmented reality systems
US10657708B1 (en) 2015-11-30 2020-05-19 Snap Inc. Image and point cloud based tracking and in augmented reality systems
US10997783B2 (en) 2015-11-30 2021-05-04 Snap Inc. Image and point cloud based tracking and in augmented reality systems
US11380051B2 (en) 2015-11-30 2022-07-05 Snap Inc. Image and point cloud based tracking and in augmented reality systems
US11748579B2 (en) 2017-02-20 2023-09-05 Snap Inc. Augmented reality speech balloon system

Also Published As

Publication number Publication date
KR101214612B1 (ko) 2012-12-21

Similar Documents

Publication Publication Date Title
US9661214B2 (en) Depth determination using camera focus
KR102149374B1 (ko) 로컬화 영역 설명 파일에 대한 프라이버시-민감 질의
KR102044491B1 (ko) 모바일 디바이스 현지화를 위한 영역 서술 파일의 크라우드-소싱 생성 및 업데이트
CN109947886B (zh) 图像处理方法、装置、电子设备及存储介质
US20150040074A1 (en) Methods and systems for enabling creation of augmented reality content
US9268410B2 (en) Image processing device, image processing method, and program
EP2560145A2 (en) Methods and systems for enabling the creation of augmented reality content
US9392248B2 (en) Dynamic POV composite 3D video system
JP2011095797A (ja) 画像処理装置、画像処理方法及びプログラム
JP2012094138A (ja) 拡張現実ユーザインタフェース提供装置および方法
JP6609640B2 (ja) 電子デバイス上における環境マッピング用のフィーチャ・データの管理
WO2014162044A1 (en) Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system
US11657085B1 (en) Optical devices and apparatuses for capturing, structuring, and using interlinked multi-directional still pictures and/or multi-directional motion pictures
JP2015015023A (ja) 3次元モデルのためのテクスチャデータを取得する方法、ポータブル電子デバイス、及びプログラム
JP2021520540A (ja) カメラの位置決め方法および装置、端末並びにコンピュータプログラム
US11094079B2 (en) Determining a pose of an object from RGB-D images
US10970932B2 (en) Provision of virtual reality content
KR102337209B1 (ko) 주변 상황 정보를 통지하기 위한 방법, 전자 장치 및 저장 매체
KR101214612B1 (ko) 증강현실 기반 건물 네비게이션 시스템
JP7245363B2 (ja) 測位方法及び装置、電子機器並びに記憶媒体
CN112020694A (zh) 用于支持对象控制的方法、系统和非暂时性计算机可读记录介质
KR20210146770A (ko) 실내 측위 방법, 장치, 장비 및 저장 매체
CA3119609A1 (en) Augmented reality (ar) imprinting methods and systems
KR20220125715A (ko) 데이터 생성 방법, 장치, 기기, 저장 매체 및 프로그램
CN112017304B (zh) 用于呈现增强现实数据的方法、装置、电子设备及介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160322

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160928

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee