KR20120061696A - 증강현실 기반 건물 네비게이션 시스템 - Google Patents
증강현실 기반 건물 네비게이션 시스템 Download PDFInfo
- Publication number
- KR20120061696A KR20120061696A KR1020100123083A KR20100123083A KR20120061696A KR 20120061696 A KR20120061696 A KR 20120061696A KR 1020100123083 A KR1020100123083 A KR 1020100123083A KR 20100123083 A KR20100123083 A KR 20100123083A KR 20120061696 A KR20120061696 A KR 20120061696A
- Authority
- KR
- South Korea
- Prior art keywords
- marker
- augmented reality
- image
- navigation system
- building
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Automation & Control Theory (AREA)
- Processing Or Creating Images (AREA)
Abstract
본 발명은 건물 정보와 실제 환경을 연계하기 위한 매개체로 활용하는 마커, 상기 마커가 표시된 입력영상을 촬영하는 카메라, 상기 카메라에 촬영된 마커를 인식하는 마커 인식부, 상기 마커 인식부와 연동하여 상기 마커의 위치에 건물의 가상 영상을 증강시키는 영상처리부 및 상기 영상처리부에서 증강된 영상을 표시하는 디스플레이부를 포함하는 것을 특징으로 하는 증강현실 기반 건물 네비게이션 시스템에 관한 것이다. 본 발명에 의하면 마커 기반의 증강현실을 이용해 건물의 모습과 사용자가 가고자 하는 장소의 구체적인 모습들을 관찰함으로써 보다 빠르고 정확하게 목적지를 찾아갈 수 있게 하는 효과가 있다.
Description
본 발명은 증강현실 기반 건물 네비게이션 시스템에 관한 것으로서, 더욱 상세히는 마커기반의 증강현실을 이용해 건물의 모습과, 사용자가 가고자 하는 장소의 정보를 미리 제공함으로써 보다 빠르고 정확하게 목적지를 찾을 수 있도록 하는 증강현실 기반 건물 네비게이션 시스템에 관한 것이다.
최근 가상현실(Virtual Reality:VR)의 한 분야인 증강현실(Augmented Reality:AR)에 대한 관심이 높아지고 있다. 실제 환경에 가상 사물을 합성하여 원래의 환경에 존재하는 것처럼 보여주는 이 증강현실기술은 최근 영상처리와 마커기반의 트래킹을 손쉽게 구현할 수 있게 도와주는 오픈 라이브러리가 등장하면서 이를 이용한 응용 프로그램이 늘어나고 연구하는 사람들이 늘어나고 관심이 증대되면서 앞으로의 기대 분야로 각광받고 있다.
특히, 요즘의 모바일 스마트폰 등에서 주로 이용하는 위치기반 서비스는 그 유용성 덕에 많은 사람들의 관심을 받고 있다. 현재의 증강현실을 이용한 네비게이션 어플리케이션들은 한 지점으로부터 다른 지점의 위치공간 정보를 제공하고 있지만, 특정 건물의 특정 호실을 찾고자 할 때, 단순히 위치기반 서비스를 이용해 방향만으로 찾아가야 하므로 가고자 하는 건물의 내부 정보 등을 미리 알 수 없으며, 그에 따라 보다 빠르고 정확하게 목적지를 찾을 수 없는 문제점이 있다.
본 발명은 상술한 문제를 해결하기 위하여 안출된 것으로, 본 발명의 목적은 마커 기반의 증강현실을 이용해 건물의 모습과 사용자가 가고자 하는 장소의 구체적인 모습들을 관찰하여 사용자가 간접적인 경험을 통해 도서나 영상으로 보던 환경을 미리 경험하도록 하여 위치를 정확하게 알고 찾아갈 수 있도록 하여 보다 빠르게 목적지를 찾을 수 있도록 하는 증강현실 기반 건물 네비게이션 시스템을 제공하는데 있다.
상술한 과제를 해결하기 위하여 제공되는 본 발명의 구성은 건물 정보와 실제 환경을 연계하기 위한 매개체로 활용하는 마커; 상기 마커가 표시된 입력영상을 촬영하는 카메라; 상기 카메라에 촬영된 마커를 인식하는 마커 인식부; 상기 마커 인식부와 연동하여 상기 마커의 위치에 건물의 가상 영상을 증강시키는 영상처리부; 상기 영상처리부에서 증강된 영상을 표시하는 디스플레이부; 를 포함하는 것을 특징으로 하는 증강현실 기반 건물 네비게이션 시스템을 제공하여 사용자로 하여금 보다 빠르고 정확하게 목적지를 찾을 수 있도록 할 수 있다.
특히, 상기 마커 인식부는, 입력영상을 바이너리 영상으로 변환하는 변환부; 상기 바이너리 영상에서 스퀘어 리전(square region)을 탐색하는 탐색부; 상기 각 스퀘어 리전 내의 패턴을 캡쳐하여 패턴 템플릿들과 매칭하여 마커인지 여부를 결정하는 마커 결정부; 상기 마커 결정부에 의해 마커로 인식된 경우 실제 영상에서의 위치를 계산하는 위치 연산부;를 포함하는 것을 특징으로 할 수 있다.
또한, 상기 증강현실 기반 건물 네비게이션 시스템은, 건물 정보에 대한 탐색을 위한 터치입력이나 클릭에 따른 이벤트를 처리하는 이벤트 처리부를 더 포함하는 것을 특징으로 할 수 있다.
또한, 상기 건물 정보는, 건물의 외관, 층별 또는 특정 호실에 대한 정보인 것을 특징으로 할 수 있다.
아울러, 상기 마커는 책자형태인 것을 특징으로 할 수 있다.
또한, 상기 디스플레이부는, 파노라마 사진으로 증강된 영상을 구현하는 것을 특징으로 할 수 있다.
본 발명에 의하면, 마커 기반의 증강현실을 이용해 건물의 모습과 사용자가 가고자 하는 장소의 구체적인 모습들을 관찰함으로써 위치를 정확하게 알고 찾아갈 수 있도록 하고 사용자는 직접 마커를 조절하여 건물 모델을 둘러보며 자연스럽게 목적지에 대한 정보를 습득할 수 있게 된다.
도 1은 본 발명의 일 실시형태에 따른 증강현실 기반 건물 네비게이션 시스템의 구성도이다.
도 2은 본 발명의 일 실시형태에 따른 증강현실 기반 건물 네비게이션 시스템 순서도이다.
도 3a 및 도 3b는 파노라마 VR을 나타낸 예시도이다.
도 4a 내지 도 5d는 시연 모습을 도시한 예시도이다.
도 2은 본 발명의 일 실시형태에 따른 증강현실 기반 건물 네비게이션 시스템 순서도이다.
도 3a 및 도 3b는 파노라마 VR을 나타낸 예시도이다.
도 4a 내지 도 5d는 시연 모습을 도시한 예시도이다.
이하 첨부도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 그러나, 본 발명의 실시예들은 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 아래에서 상술하는 실시예들로 인해 한정되어지는 것으로 해석되어져서는 안 된다. 본 발명의 실시예들은 당업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위해서 제공되어지는 것이다. 따라서, 도면에서의 요소의 형상 등은 보다 명확한 설명을 강조하기 위해서 과장되어진 것이며, 도면상에서 동일한 부호로 표시된 요소는 동일한 요소를 의미한다.
도 1은 본 발명의 일 실시형태에 따른 증강현실 기반 건물 네비게이션 시스템의 구성도를 도시한 도면이다. 도 1을 참조하면, 본 발명은 건물 정보와 실제 환경을 연계하기 위한 매개체로 활용하는 마커(10), 상기 마커(10)가 표시된 입력영상을 촬영하는 카메라(20), 상기 카메라(20)에 촬영된 마커(10)를 인식하는 마커 인식부(30), 상기 마커 인식부(30)와 연동하여 상기 마커(10)의 위치에 건물의 가상 영상을 증강시키는 영상처리부(40) 및 상기 영상처리부(40)에서 증강된 영상을 표시하는 디스플레이부(60)를 포함하여 이루어질 수 있다. 이때, 상기 증강현실 기반 건물 네비게이션 시스템은 건물 정보에 대한 탐색을 위한 터치입력이나 클릭에 따른 이벤트를 처리하는 이벤트 처리부(50)를 더 포함하는 것이 바람직하다. 본 발명은 증강현실 오픈 라이브러리 중 OpenSceneGraph 라이브러리를 통하여 구현하였으며 증강현실 응용프로그램의 개발을 쉽게 할 수 있도록 osgART 라이브러리를 이용하였다.
상기 마커 인식부(30)는 입력영상을 바이너리 영상으로 변환하는 변환부(31), 상기 바이너리 영상에서 스퀘어 리전(square region)을 탐색하는 탐색부(32), 상기 각 스퀘어 리전 내의 패턴을 캡쳐하여 패턴 템플릿들과 매칭하여 마커인지 여부를 결정하는 마커 결정부(33) 및 상기 마커 결정부(33)에 의해 마커(10)로 인식된 경우 실제 영상에서의 위치를 계산하는 위치 연산부(34)로 이루어지며, osgART에서는 트래커를 생성하고 상기 트래커와 비디오 영상을 세팅하고 트래커에 마커 등록 후 교정수치로 카메라를 생성하여 카메라 매트릭스가 생성되면 이 좌표에 가상정보를 표현하게 된다. osg파일들은 각각의 패턴이 등록되어 있는 매트릭스에 추가되고, 이들은 그룹노드에 모두 포함되어 있다. 마커파일들은 매트릭스폼에 등록되어 있고, 이벤트에 관한 처리는 가장 상위의 Viewer클래스에서 처리한다. 사용자는 책자형태로 제공되는 마커북을 가지고 건물의 전경 및 각 건물에 대한 모델들을 증강현실로 볼 수 있게 된다.
터치입력이나 클릭이 들어오면 이를 핸들러에서 받아 처리한다. 이는 Viewer에 추가되어 있던 핸들러 중 하나로, 본 발명에서는 ARNSPickHandler 클래스로 핸들러가 구현되어 있으며, 여기에서 중요한 부분은 입력이 들어온 스크린의 위치(x,y) 좌표에 대한 상대적인 매트릭스의 좌표계산과 이에 따른 오브젝트 선택을 하도록 하는 pick() 메소드이다. 여기에서 Intersection Visitor를 사용하여 인터섹터를 검색하게 된다. 인터섹터는 화면에서 프로젝션 및 정규화된 인터섹터를 생성하여 오브젝트를 찾고, osg::Node로 이를 받아내어 이벤트 처리를 하게 된다.
도 2은 본 발명의 일 실시형태에 따른 증강현실 기반 건물 네비게이션 시스템 순서도이다. 시스템이 시작되면(S110) 기본적인 캠 연결 등의 작업을 거친 후, OSG 모델을 로딩하기 시작한다(S120). 각 모델에 대한 위치정보나 마커정보들은 ModelData에 파일로 저장되어 있다. 로딩이 끝이 나면 비디오 영상이 들어오고(S140), 크게는 마커 검출 작업(S150)과 터치 입력(S130)에 대한 이벤트 처리(S160)의 두 가지 작업으로 나뉘어지게 된다. 마커가 검출되면 해당 모델을 띄우게 되고(S170), 터치가 입력되면 해당 모델에서의 이벤트를 처리하도록 한다(S160).
도 3a 및 도 3b는 Microsoft ICE(Image Composite Editor)를 사용하여 만든 스티치 화면으로서 디스플레이부는 상기와 같이 파노라마 사진들로 증강된 영상을 구현할 수 있으며 OpenSceneGraph를 사용하여 Cylinder를 화면에 그리고 도형의 안쪽 면에 파노라마 사진을 텍스처 매핑하고 도형의 중심에 카메라를 배치시켜서 카메라 시점을 마우스로 변화시켜서 화면 전환 효과를 나타낼 수 있다.
도 4a 내지 도 5d는 시연 모습을 도시한 예시도이다. 도 4a에서와 같이 마커를 스크린에 가져가면 왼쪽 이미지와 같이 전경이 나오며 전경에서 보고자 하는 건물을 선택하면 오른쪽 이미지와 같이 파노라마를 볼 수 있다. 또한, 도 4b에서처럼 왼쪽 이미지와 같이 보고자 하는 건물의 전체 모델을 볼 수 있고, 오른쪽 이미지와 같이 층별로 가고자 하는 호실의 위치를 확인할 수 있다.
도 5a는 프로그램 실행의 예시도를, 도 5b는 건물의 외관 관찰에 대한 예시도를 도시한 것이다. 또한, 도 5c는 터치입력을 통하여 건물 내부의 각 층별로 탐색시의 예시도를 도시한 것이며, 도 5d는 터치입력을 통한 특정 호실 검색시의 예시도를 도시한 것으로서 상기와 같이 건물의 외관은 물론, 각 층별 탐색과 특정 호실에 대한 탐색도 가능하다. 호실에 대한 탐색시 터치에 반응하여 특정호실에 화살표가 디스플레이 되며, 사용자는 마커를 돌려가며 각 호실의 위치와 건물의 구조를 보며 해당 정보를 얻을 수 있게 된다. 이와 같이 사용자에게 목적지 건물의 외관 및 내부의 형태를 미리 제공함으로써 자연스럽게 목적지에 대한 정보를 습득할 뿐 아니라 보다 빠르고 정확하게 목적지를 찾을 수 있게 된다.
이상 도면과 명세서에서 최적 실시예들이 개시되었다. 여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 특허청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.
10: 마커 20: 카메라
30: 마커 인식부 40: 영상처리부
50: 이벤트 처리부 60: 디스플레이부
30: 마커 인식부 40: 영상처리부
50: 이벤트 처리부 60: 디스플레이부
Claims (6)
- 건물 정보와 실제 환경을 연계하기 위한 매개체로 활용하는 마커;
상기 마커가 표시된 입력영상을 촬영하는 카메라;
상기 카메라에 촬영된 마커를 인식하는 마커 인식부;
상기 마커 인식부와 연동하여 상기 마커의 위치에 건물의 가상 영상을 증강시키는 영상처리부;
상기 영상처리부에서 증강된 영상을 표시하는 디스플레이부;
를 포함하는 것을 특징으로 하는 증강현실 기반 건물 네비게이션 시스템.
- 청구항 1에 있어서,
상기 마커 인식부는,
입력영상을 바이너리 영상으로 변환하는 변환부;
상기 바이너리 영상에서 스퀘어 리전(square region)을 탐색하는 탐색부;
상기 각 스퀘어 리전 내의 패턴을 캡쳐하여 패턴 템플릿들과 매칭하여 마커인지 여부를 결정하는 마커 결정부;
상기 마커 결정부에 의해 마커로 인식된 경우 실제 영상에서의 위치를 계산하는 위치 연산부;
를 포함하는 것을 특징으로 하는 증강현실 기반 건물 네비게이션 시스템.
- 청구항 1에 있어서,
상기 증강현실 기반 건물 네비게이션 시스템은,
건물 정보에 대한 탐색을 위한 터치입력이나 클릭에 따른 이벤트를 처리하는 이벤트 처리부를 더 포함하는 것을 특징으로 하는 증강현실 기반 건물 네비게이션 시스템.
- 청구항 3에 있어서,
상기 건물 정보는,
건물의 외관, 층별 또는 특정 호실에 대한 정보인 것을 특징으로 하는 증강현실 기반 건물 네비게이션 시스템.
- 청구항 1에 있어서,
상기 마커는 책자형태인 것을 특징으로 하는 증강현실 기반 건물 네비게이션 시스템.
- 청구항 1에 있어서,
상기 디스플레이부는,
파노라마 사진으로 증강된 영상을 구현하는 것을 특징으로 하는 증강현실 기반 건물 네비게이션 시스템.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100123083A KR101214612B1 (ko) | 2010-12-03 | 2010-12-03 | 증강현실 기반 건물 네비게이션 시스템 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100123083A KR101214612B1 (ko) | 2010-12-03 | 2010-12-03 | 증강현실 기반 건물 네비게이션 시스템 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20120061696A true KR20120061696A (ko) | 2012-06-13 |
KR101214612B1 KR101214612B1 (ko) | 2012-12-21 |
Family
ID=46612191
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020100123083A KR101214612B1 (ko) | 2010-12-03 | 2010-12-03 | 증강현실 기반 건물 네비게이션 시스템 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101214612B1 (ko) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101334980B1 (ko) * | 2012-12-11 | 2013-11-29 | 세종대학교산학협력단 | 증강현실 콘텐츠 저작 장치 및 증강현실 콘텐츠 저작 방법 |
KR20190136112A (ko) * | 2015-10-30 | 2019-12-09 | 스냅 인코포레이티드 | 증강 현실 시스템에서의 이미지 기반 추적 |
US10657708B1 (en) | 2015-11-30 | 2020-05-19 | Snap Inc. | Image and point cloud based tracking and in augmented reality systems |
US11748579B2 (en) | 2017-02-20 | 2023-09-05 | Snap Inc. | Augmented reality speech balloon system |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102442239B1 (ko) | 2020-03-03 | 2022-09-14 | 주식회사 코아소프트 | 디지털 사이니지를 이용한 실내 길안내 장치 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100538082B1 (ko) * | 2005-05-12 | 2005-12-22 | 버츄얼빌더스 주식회사 | 증강현실기반의 건물정보 통합관리 시스템 |
-
2010
- 2010-12-03 KR KR1020100123083A patent/KR101214612B1/ko not_active IP Right Cessation
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101334980B1 (ko) * | 2012-12-11 | 2013-11-29 | 세종대학교산학협력단 | 증강현실 콘텐츠 저작 장치 및 증강현실 콘텐츠 저작 방법 |
KR20190136112A (ko) * | 2015-10-30 | 2019-12-09 | 스냅 인코포레이티드 | 증강 현실 시스템에서의 이미지 기반 추적 |
US10733802B2 (en) | 2015-10-30 | 2020-08-04 | Snap Inc. | Image based tracking in augmented reality systems |
KR20210008939A (ko) * | 2015-10-30 | 2021-01-25 | 스냅 인코포레이티드 | 증강 현실 시스템에서의 이미지 기반 추적 |
US11315331B2 (en) | 2015-10-30 | 2022-04-26 | Snap Inc. | Image based tracking in augmented reality systems |
US11769307B2 (en) | 2015-10-30 | 2023-09-26 | Snap Inc. | Image based tracking in augmented reality systems |
US10657708B1 (en) | 2015-11-30 | 2020-05-19 | Snap Inc. | Image and point cloud based tracking and in augmented reality systems |
US10997783B2 (en) | 2015-11-30 | 2021-05-04 | Snap Inc. | Image and point cloud based tracking and in augmented reality systems |
US11380051B2 (en) | 2015-11-30 | 2022-07-05 | Snap Inc. | Image and point cloud based tracking and in augmented reality systems |
US11748579B2 (en) | 2017-02-20 | 2023-09-05 | Snap Inc. | Augmented reality speech balloon system |
Also Published As
Publication number | Publication date |
---|---|
KR101214612B1 (ko) | 2012-12-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9661214B2 (en) | Depth determination using camera focus | |
KR102149374B1 (ko) | 로컬화 영역 설명 파일에 대한 프라이버시-민감 질의 | |
KR102044491B1 (ko) | 모바일 디바이스 현지화를 위한 영역 서술 파일의 크라우드-소싱 생성 및 업데이트 | |
CN109947886B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
US20150040074A1 (en) | Methods and systems for enabling creation of augmented reality content | |
US9268410B2 (en) | Image processing device, image processing method, and program | |
EP2560145A2 (en) | Methods and systems for enabling the creation of augmented reality content | |
US9392248B2 (en) | Dynamic POV composite 3D video system | |
JP2011095797A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2012094138A (ja) | 拡張現実ユーザインタフェース提供装置および方法 | |
JP6609640B2 (ja) | 電子デバイス上における環境マッピング用のフィーチャ・データの管理 | |
WO2014162044A1 (en) | Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system | |
US11657085B1 (en) | Optical devices and apparatuses for capturing, structuring, and using interlinked multi-directional still pictures and/or multi-directional motion pictures | |
JP2015015023A (ja) | 3次元モデルのためのテクスチャデータを取得する方法、ポータブル電子デバイス、及びプログラム | |
JP2021520540A (ja) | カメラの位置決め方法および装置、端末並びにコンピュータプログラム | |
US11094079B2 (en) | Determining a pose of an object from RGB-D images | |
US10970932B2 (en) | Provision of virtual reality content | |
KR102337209B1 (ko) | 주변 상황 정보를 통지하기 위한 방법, 전자 장치 및 저장 매체 | |
KR101214612B1 (ko) | 증강현실 기반 건물 네비게이션 시스템 | |
JP7245363B2 (ja) | 測位方法及び装置、電子機器並びに記憶媒体 | |
CN112020694A (zh) | 用于支持对象控制的方法、系统和非暂时性计算机可读记录介质 | |
KR20210146770A (ko) | 실내 측위 방법, 장치, 장비 및 저장 매체 | |
CA3119609A1 (en) | Augmented reality (ar) imprinting methods and systems | |
KR20220125715A (ko) | 데이터 생성 방법, 장치, 기기, 저장 매체 및 프로그램 | |
CN112017304B (zh) | 用于呈现增强现实数据的方法、装置、电子设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20160322 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20160928 Year of fee payment: 5 |
|
LAPS | Lapse due to unpaid annual fee |