KR102528353B1 - 가상마커를 이용한 확장 된 3d 데이터 기반의 공간기저벡터 정밀도 보정 장치 및 이를 이용한 공간기저벡터 정밀도 보정 방법 - Google Patents

가상마커를 이용한 확장 된 3d 데이터 기반의 공간기저벡터 정밀도 보정 장치 및 이를 이용한 공간기저벡터 정밀도 보정 방법 Download PDF

Info

Publication number
KR102528353B1
KR102528353B1 KR1020200157689A KR20200157689A KR102528353B1 KR 102528353 B1 KR102528353 B1 KR 102528353B1 KR 1020200157689 A KR1020200157689 A KR 1020200157689A KR 20200157689 A KR20200157689 A KR 20200157689A KR 102528353 B1 KR102528353 B1 KR 102528353B1
Authority
KR
South Korea
Prior art keywords
virtual
space
real
origin
marker
Prior art date
Application number
KR1020200157689A
Other languages
English (en)
Other versions
KR20220070777A (ko
Inventor
하연철
김구
신현실
권준호
Original Assignee
부산대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 부산대학교 산학협력단 filed Critical 부산대학교 산학협력단
Priority to KR1020200157689A priority Critical patent/KR102528353B1/ko
Publication of KR20220070777A publication Critical patent/KR20220070777A/ko
Application granted granted Critical
Publication of KR102528353B1 publication Critical patent/KR102528353B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 3D 가상마커를 다수 생성하여 실제공간과 가상공간을 1:1로 매칭하고 가상물체의 변이를 자동적으로 계산하여 보정할 수 있도록 마련되어 가상물체가 위치를 이동하였을 때 변이를 인식하고 자동으로 변이를 계산하여 보정할 수 있는 가상마커를 이용한 확장 된 3D 데이터 기반의 공간기저벡터 정밀도 보정 장치 및 이를 이용한 공간기저벡터 정밀도 보정 방법에 관한 것이다.
본 발명에 따른 가상마커를 이용한 확장 된 3D 데이터 기반의 공간기저벡터 정밀도 보정 장치는, 다수개의 인식마커(111, 112, 113)를 감지하고 가상공간(100)에 상기 인식마커(111, 112, 113) 각각의 중심점인 지역원점(120)을 생성한 후, 상기 가상공간(100)에서 상기 인식마커(111, 112, 113)와 동일한 위치에 가상좌표와 가상원점(130)을 생성하고, 상기 실제공간(200)의 실제특징점(240)과 상기 가상공간(100)의 가상특징점(140)을 생성하는 좌표계산부(10); 공간매칭부(20)가 상기 가상원점(130)을 기반으로 실제공간(200)에 실제원점(230)을 설정하여 상기 가상원점(130)과 매칭하고, 상기 실제특징점(240)과 가상특징점(140)을 매칭하여 상기 실제공간(200)과 가상공간(100)을 1:1로 매칭하는 공간매칭부(20); 상기 실제공간(200)의 실제특징점(240)과 상기 가상공간(100)의 가상특징점(140)이 1:1로 매칭 된 위치에 상기 가상공간(100)의 가상마커(150)를 생성한 뒤 상기 가상마커(150)를 기반으로 확장가상마커(160)을 생성하는 데이터고도화부(30); 상기 실제공간(200) 내 상기 가상공간(100)의 이동이 발생하는 경우, 상기 확장가상마커(160)을 트래킹하여 상기 가상마커(150)와 상기 확장가상마커(160)의 오차를 판단하는 오차보정부(40);로 구성되는 것을 특징으로 한다.

Description

가상마커를 이용한 확장 된 3D 데이터 기반의 공간기저벡터 정밀도 보정 장치 및 이를 이용한 공간기저벡터 정밀도 보정 방법{APPARATUS FOR CORRECTING THE PRECISION OF SPATIAL BASIS VECTORS BASED ON EXTENDED 3D DATA USING VIRTUAL MARKERS AND METHOD FOR CORRECTING THE PRECISION OF SPATIAL BASIS VECTORS THEREOF}
본 발명은 3D 가상마커를 다수 생성하여 실제공간과 가상공간을 1:1로 매칭하고 가상물체의 변이를 자동적으로 계산하여 보정할 수 있도록 마련되어 가상물체가 위치를 이동하였을 때 변이를 인식하고 자동으로 변이를 계산하여 보정할 수 있는 가상마커를 이용한 확장 된 3D 데이터 기반의 공간기저벡터 정밀도 보정 장치 및 이를 이용한 공간기저벡터 정밀도 보정 방법에 관한 것이다.
증강현실이란 실제 환경에 가상 사물이나 정보를 합성하여 원래의 환경에 존재하는 사물처럼 보이도록 하는 컴퓨터 그래픽 기법을 말한다. 증강 현실은 가상의 공간과 사물만을 대상으로 하는 기존의 가상현실과 달리 현실 세계의 기반 위에 가상의 사물을 합성하여 현실 세계만으로는 얻기 어려운 부가적인 정보들을 보강해 제공할 수 있는 특징을 가지고 있다. 이러한 특징 때문에 단순히 게임과 같은 분야에만 한정된 적용이 가능한 기존 가상현실과 달리 다양한 현실 환경에 응용이 가능하며 특히, 유비쿼터스 환경에 적합한 차세대 디스플레이 기술로 각광받고 있다.
증강 현실 구현을 위해서 객체를 마커(marker) 또는 마커리스(markerless) 기반으로 인식함이 통상적이다. 기존에는 가상공간(100)과 실제공간(200)을 1:1로 정확하게 맵핑하기 위해서 3개의 마커를 이용한 방법이 제시되었다. 이는 하나의 마커를 이용하여 기저를 계산하는 방식이 지역적인 오차를 내포하면 넓은 공간의 오차가 커지는 것을 보완하기 위한 방안으로 고안되었다.
하지만 이러한 3개의 마커를 이용한 방식도 공간에서 이동 시 기계적인 오류로 인한 가상데이터의 변이를 인지하고 보정하는 것이 어렵다. 또한, 변이에 대한 보정을 하기 위해서는 반드시 초기의 3개의 마커를 재인식하여 다시 공간의 좌표를 조정하고, 맵핑하는 과정으로 수행되어야 하며, 마커가 보이지 않는 위치나 장애물로 인한 가림 현상이 발생하게 되면 이러한 과정을 수행하기가 어려운 문제점이 있다.
한국공개특허 제10-2012-0005879호
본 발명은 상기의 문제점을 해결하기 위해서 안출된 것으로서, 본 발명의 목적은 실제공간과 가상공간을 1:1로 매칭 하여 공간에 설치된 실제 장치들과 가상으로 모델링된 가상 장치들이 정확하게 설계된 수치와 일치하게 설치되었는지 확인할 수 있는 장치를 제공하는 것이다.
발명이 해결하고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 발명에 따른 가상마커를 이용한 확장 된 3D 데이터 기반의 공간기저벡터 정밀도 보정 장치는,
다수개의 인식마커(111, 112, 113)를 감지하고 가상공간(100)에 상기 인식마커(111, 112, 113) 각각의 중심점인 지역원점(120)을 생성한 후, 상기 가상공간(100)에서 상기 인식마커(111, 112, 113)와 동일한 위치에 가상좌표와 가상원점(130)을 생성하고, 상기 실제공간(200)의 실제특징점(240)과 상기 가상공간(100)의 가상특징점(140)을 생성하는 좌표계산부(10);
공간매칭부(20)가 상기 가상원점(130)을 기반으로 실제공간(200)에 실제원점(230)을 설정하여 상기 가상원점(130)과 매칭하고, 상기 실제특징점(240)과 가상특징점(140)을 매칭하여 상기 실제공간(200)과 가상공간(100)을 1:1로 매칭하는 공간매칭부(20);
상기 실제공간(200)의 실제특징점(240)과 상기 가상공간(100)의 가상특징점(140)이 1:1로 매칭 된 위치에 상기 가상공간(100)의 가상마커(150)를 생성한 뒤 상기 가상마커(150)를 기반으로 확장가상마커(160)을 생성하는 데이터고도화부(30);
상기 실제공간(200) 내 상기 가상공간(100)의 이동이 발생하는 경우, 상기 확장가상마커(160)을 트래킹하여 상기 가상마커(150)와 상기 확장가상마커(160)의 오차를 판단하는 오차보정부(40);로 구성되는 것을 특징으로 한다.
상기 실제공간(200)의 실제특징점(240) 및 상기 가상공간(100)의 가상특징점(140)은 상기 실제공간(200)의 모서리인 것을 특징으로 한다.
상기 인식마커(111, 112, 113)는 세 개 이상으로 마련되는 것을 특징으로 한다.
상기 가상원점(130)은 상기 가상좌표를 평균한 위치 값인 것을 특징으로 한다.
상기 오차보정부(40)는 상기 오차가 발생한 것으로 판단하면, 상기 가상마커(150)와 비교하여 상기 확장가상마커(160)의 회전각 및 이동 거리 오차를 계산하는 것을 특징으로 한다.
상기 실제원점(230)은 선체내부 공간의 측량하여 지정한 한 점인 것을 특징으로 한다.
상기 실제공간(200)은 선체내부 공간인 것을 특징으로 한다.
상기 가상마커(150)는 큐브형(cube)으로 마련되는 것을 특징으로 한다.
또한, 가상마커를 이용한 확장 된 3D 데이터 기반의 공간기저벡터 정밀도 보정 방법은,
좌표계산부(10)가 다수개의 인식마커(111, 112, 113)를 감지하는 제1단계;
상기 좌표계산부(10)가 가상공간(100)에 상기 인식마커(111, 112, 113) 각각의 중심점인 지역원점(120)을 생성하는 제2단계;
상기 좌표계산부(10)가 상기 가상공간(100)에서 상기 인식마커(111, 112, 113)와 동일한 위치에 가상좌표를 생성하는 제3단계;
상기 좌표계산부(10)가 상기 가상공간(100)에서 가상원점(130)을 생성하는 제4단계;
상기 좌표계산부(10)가 상기 실제공간(200)의 실제특징점(240)과 상기 가상공간(100)의 가상특징점(140)을 생성하는 제5단계;
공간매칭부(20)가 상기 가상원점(130)을 기반으로 실제공간(200)에 실제원점(230)을 설정하여 상기 가상원점(130)과 매칭하는 제6단계;
상기 공간매칭부(20)가 상기 실제특징점(240)과 상기 가상특징점(140)을 매칭하는 제7단계;
데이터고도화부(30)가 상기 공간매칭부(20)에 의해 매칭된 상기 실제특징점(240)과 상기 가상특징점(140)의 상기 가상공간(100) 위치에 가상마커(150)를 생성하는 제8단계;
상기 데이터고도화부(30)가 상기 가상마커(150)를 이용하여 확장가상마커(160)을 생성하는 제9단계;
오차보정부(40)가 상기 실제공간(200) 내 상기 가상공간(100)의 이동이 발생할 때, 상기 확장가상마커(160)을 트래킹하는 제10단계;
상기 오차보정부(40)가 상기 트래킹 된 확장가상마커(160)과 상기 가상마커(150)의 위치 오차 발생을 인지하는 제11단계;
상기 오차보정부(40)가 상기 확장가상마커(160)의 위치 오차를 계산하여 보정하는 제12단계;에 의해 수행하되,
상기 오차보정부(40)는,
상기 가상마커(150)와 비교하여 상기 확장가상마커(160)의 회전각 및 이동 거리 오차를 계산하는 것을 특징으로 한다.
상기 과제의 해결 수단에 의해, 본 발명은 실제공간(200)과 가상공간(100)을 1:1로 매칭 하여 공간에 설치된 실제 장치들과 가상으로 모델링된 가상 장치들이 정확하게 설계된 수치와 일치하게 설치되었는지 확인할 수 있다.
또한, 본 발명은 AR 장비를 착용하고 이동시에 장비의 기계적인 오류 등으로 발생된 오차를 용이하게 인식할 수 있다.
또한, 본 발명은 3D 가상마커(150)로 가상물체가 위치를 이동하였을 때 변이를 인식하고 자동으로 변이를 계산하여 보정할 수 있다.
도 1은 본 발명인 가상마커를 이용한 확장 된 3D 데이터 기반의 공간기저벡터 정밀도 보정 방법을 보여주는 순서도이다.
도 2는 본 발명인 가상마커를 이용한 확장 된 3D 데이터 기반의 공간기저벡터 정밀도 보정 장치를 나타낸 구성도이다.
도 3은 본 발명의 일실시예 따른 가상마커를 이용한 확장 된 3D 데이터 기반의 공간기저벡터 정밀도 보정 장치의 구성 위치를 나타낸 도면이다.
도 4는 본 발명의 일실시예에 따른 상기 실제공간(200) 내 상기 가상공간(100)의 이동이 발생하는 경우 오차보정부(40)가 가상마커(150)와 확장가상마커(160)의 오차 판단하는 구성을 나타낸 도면이다.
도 5는 본 발명의 일실시예 따른 가상마커를 이용한 확장 된 3D 데이터 기반의 공간기저벡터 정밀도 보정 장치의 구성 위치를 나타낸 또 다른 도면이다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 “포함”한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다.
아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.
본 발명에 대한 해결하고자 하는 과제, 과제의 해결 수단, 발명의 효과를 포함한 구체적인 사항들은 다음에 기재할 실시 예 및 도면들에 포함되어 있다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다.
이하, 첨부된 도면을 참조하여 본 발명을 보다 상세히 설명하기로 한다.
도 2에 나타난 바와 같이, 가상마커를 이용한 확장 된 3D 데이터 기반의 공간기저벡터 정밀도 보정 장치는, 좌표계산부(10), 공간매칭부(20), 데이터고도화부(30) 및 오차보정부(40)를 포함하여 구성된다. 상기 가상마커를 이용한 확장 된 3D 데이터 기반의 공간기저벡터 정밀도 보정 장치의 각 구성은 도 1에 나타난 단계에 의해 수행되는 것이 바람직하다.
먼저, 상기 좌표계산부(10)는 다수개의 인식마커(111, 112, 113)를 감지하고 가상공간(100)에 상기 인식마커(111, 112, 113) 각각의 중심점인 지역원점(120)을 생성한 후, 상기 가상공간(100)에서 상기 인식마커(111, 112, 113)와 동일한 위치에 가상좌표와 가상원점(130)을 생성하고, 상기 실제공간(200)의 실제특징점(240)과 상기 가상공간(100)의 가상특징점(140)을 생성한다.
상기 좌표계산부(10)는, 제1단계(S10)로 다수개의 인식마커(111, 112, 113)를 감지한다. 보다 구체적으로, 도 3에 나타난 바와 같이, 상기 인식마커(111, 112, 113)는 세 개 이상으로 마련되는 것이 바람직하다. 상기 인식마커(111, 112, 113)를 한 개로 마련하는 경우 AR 장비를 착용한 사용자의 움직임에 의해 상기 가상공간(100)이 이동한 경우 다시 돌아왔을 때 상기 가상공간(100)과 실제공간(200) 간의 오차가 너무 커지고, 상기 인식마커(111, 112, 113)를 두 개로 마련하는 경우 상기 인식마커(111, 112, 113) 중 어느 하나가 실제 물체에 의해 가려지는 가림현상이 발생 경우 나머지 하나의 인식마커(111, 112, 113)로 감지해야 하므로 세 개 이상으로 마련하는 것이 바람직하다.
상기 좌표계산부(10)는, 제2단계(S20)로 가상공간(100)에 상기 인식마커(111, 112, 113) 각각의 중심점인 지역원점(120)을 생성한다. 보다 구체적으로, 도 5에 나타난 바와 같이, 상기 지역원점(120)은 상기 세 개로 마련된 인식마커(111, 112, 113) 각각의 중심점을 일컫는 것으로, 상기 지역원점(120)은 무게중심점으로 설정할 수 있다.
상기 좌표계산부(10)는, 제3단계(S30)로 상기 가상공간(100)에서 상기 인식마커(111, 112, 113)와 동일한 위치에 가상좌표를 생성한다. 상기 가상좌표는 상기 인식마커(111, 112, 113)를 기준으로 동일한 위치에 생성한다.
상기 좌표계산부(10)는, 제4단계(S40)는 상기 가상공간(100)에서 가상원점(130)을 생성한다. 상기 가상원점(130)은 상기 가상좌표를 평균한 위치 값인 것이 바람직하다.
상기 좌표계산부(10)는, 제5단계(S50)는 상기 실제공간(200)의 실제특징점(240)과 상기 가상공간(100)의 가상특징점(140)을 생성한다. 보다 구체적으로, 도 5에 나타난 바와 같이, 상기 실제공간(200)의 실제특징점(240) 및 상기 가상공간(100)의 가상특징점(140)은 공간상의 특징이 될 수 있는 지점인 모서리인 것이 바람직하다. 즉, 상기 실제특징점(240)은 상기 실제공간(200)의 다면체에서 각 면의 경계를 이루고 있는 선분의 점으로 설정할 수 있다. 마찬가지로 상기 가상특징점(140)은 상기 가상공간(100)의 다면체에서 각 면의 경계를 이루고 있는 선분의 점으로 설정할 수 있다. 상기 실제특징점(240)과 가상특징점(140)은 모서리로 마련되어 있어 엣지(edge)를 포함하기 때문에 오차 인식이 용이하다.
다음으로, 상기 공간매칭부(20)는 상기 가상원점(130)을 기반으로 실제공간(200)의 실제원점(230)을 설정하여 상기 가상원점(130)을 매칭하고, 상기 실제특징점(240)과 가상특징점(140)을 매칭하여 상기 실제공간(200)과 가상공간(100)을 1:1로 매칭한다.
상기 공간매칭부(20)는, 제6단계(S60)에서 상기 가상원점(130)을 기반으로 실제공간(200)에 실제원점(230)과 상기 가상원점(130)을 매칭한다. 보다 구체적으로, 도 4에 나타난 바와 같이, 상기 실제원점(230)은 상기 전체 실제공간(200)에서 상기 가상원점(130)과 동일한 위치에 설정하는 것이 바람직하며, 이후 상기 실제원점(230)과 상기 가상원점(130)을 매칭한다.
상기 공간매칭부(20)는, 제7단계(S70)에서 상기 실제특징점(240)과 상기 가상특징점(140)을 매칭한다. 보다 구체적으로, 도 5에 나타난 바와 같이, 상기 실제특징점(240)과 가상특징점(140)을 매칭하여 가상공간(100)과 실제공간(200)을 1:1로 매칭한다.
다음으로, 상기 데이터고도화부(30)는 상기 실제공간(200)의 실제특징점(240)과 상기 가상공간(100)의 가상특징점(140)이 1:1로 매칭 된 위치에 상기 가상공간(100)의 가상마커(150)를 생성하고, 상기 가상마커(150)를 기반으로 확장가상마커(160)을 생성한다.
데이터고도화부(30)는, 제8단계(S80)로 상기 공간매칭부(20)에 의해 매칭된 상기 실제특징점(240)과 상기 가상특징점(140)의 상기 가상공간(100) 위치에 가상마커(150)를 생성한다. 보다 구체적으로, 도 4에 나타난 바와 같이, 상기 가상마커(150)는 큐브형(cube)으로 마련되는 것이 바람직하다. 상기 큐브형은 꼭지점(코너)가 마련되어 엣지(edgd)를 포함하기 때문에 큐브형의 가상마커(150)를 활용하면 오차에 대한 인식이 용이하다.
상기 데이터고도화부(30)는, 도 4에 나타난 바와 같이, 제9단계(S90)에서 상기 가상마커(150)를 이용하여 확장가상마커(160)을 생성한다. 보다 구체적으로, 상기 확장가상마커(160)는 상기 가상마커(150)와 동일한 지점에 동일한 크기로 생성한다. 상기 확장가상마커(160)는 기 모델링이 된 가상공간(100)과 물체의 특징으로 선정할 수 있는 모서리나 경계에 큐브형(cube) 또는 정육면체의 3D 객체를 다수 생성하여 마커로 활용하는 것으로, 큐브형(cube) 또는 정육면체는 실제 공간 영상의 모서리와 경계의 불일치를 판단하기 용의하고, 불일치에 대한 변이(거리오차와 회전오차)를 영상으로 계산할 수 있다. 따라서 기준이 되는 세 개의 인식마커(111, 112, 113)를 활용한 1:1매칭을 수행하면 상기 확장가상마커(160)가 지정한 위치에 생성되고, 이는 기준 세 개의 인식마커(111, 112, 113) 트랙킹을 인식하지 못하더라도 상기 확장가상마커(160)를 이용하여 보정이 가능하도록 한다.
다음으로, 상기 오차보정부(40)는 상기 실제공간(200) 내 상기 가상공간(100)의 이동이 발생하는 경우, 상기 확장가상마커(160)을 트래킹하여 상기 가상마커(150)와 상기 확장가상마커(160)의 오차를 판단한다.
상기 오차보정부(40)는, 제10단계(S100)로 상기 실제공간(200) 내 상기 가상공간(100)의 이동이 발생할 때, 상기 확장가상마커(160)을 트래킹한다. 보다 구체적으로, 도 3 및 도 4에 나타난 바와 같이, 상기 실제공간(200) 내에 있는 AR을 착용한 사용자가 이동을 하면 상기 가상공간(100)의 이동이 발생하게 된다. 상기 가상공간(100)이 이동하는 경우 상기 확장가상마커(160)이 이동하게 되어 상기 오차보정부(40)는 상기 확장가상마커(160)의 이동 위치 및 각도를 추적하고 전파 신호를 통해 상기 확장가상마커(160)의 이동 위치 및 각도를 송수신한다.
상기 오차보정부(40)는, 제11단계(S110)로 상기 트래킹 된 확장가상마커(160)과 상기 가상마커(150)의 위치 및 각도 오차를 판단한다. 보다 구체적으로, 도 4에 나타난 바와 같이, 상기 제10단계(S100)에 의해 트래킹 된 상기 확장가상마커(160)의 위치(Dr1 및 Dr2) 및 각도(θr) 신호는 상기 가상마커(150)의 위치 및 각도의 오차를 판단하게 된다.
상기 오차보정부(40)는, 제12단계(S120)는 상기 확장가상마커(160)의 위치 오차를 계산하여 보정한다. 보다 구체적으로, 도 4 및 도 5에 나타난 바와 같이, 상기 오차보정부(40)는 확장가상마커(160)의 위치(Dr1 및 Dr2) 및 각도(θr) 신호를 통해 상기 가상마커(150)와 비교하여 상기 확장가상마커(160)의 회전각 및 이동 거리 오차를 계산한다.
상기 가상마커(150) 및 확장가상마커(160)을 활용한 보정 방법의 큰 장점은 오차 발생을 인지하는데 1차적인 편의성을 제공하고, 이동 간에 오차가 발생하였을 때 상기 인식마커(111, 112, 113)를 이용하려면 다수개의 마커가 동시에 재인식되어야 하는데, 내부의 복잡한 실질적인 구조물로 인해 가려져서 보이지 않는 경우가 발생하면 보정이 어렵다.
또한, 오차가 발생했음을 인지하기에도 굴곡이 많은 실제 물체에서 판단하기 어려운 문제점이 있다.
따라서 상기 가상마커(150)를 이용하면 오차발생 인지가 용이하고, 보정 오차를 상기 가상마커(150)를 활용하여 계산하기도 용이하며, 이를 적용한 일부 영역 보정 및 전체 보정이 가능하다.
특히, 본 발명에서 상기 실제공간(200)은 선체내부 공간인 것을 특징으로 한다. 선체 내부 공간의 설계가 정확하게 실행되었는지 확인하는 작업에서 본 발명을 이용하여 사용자가 AR 장치(HMD)를 착용하여 가상공간(100)과 실제 공간의 차이를 정밀하게 확인한다.
또한, 선체 내부는 다양한 내부 물체가 많아 장애물로 인한 가림 현상이 발생하게 되고 상기 실제공간(200)과 가상공간(100)을 1:1로 매칭하여 공간에 설치된 실제 장치들과 가상으로 모델링된 가상 장치들이 정확하게 설계된 수치와 일치하게 설치되었는지 확인하기가 어렵다. 따라서 본 발명인 가상마커를 이용한 확장 된 3D 데이터 기반의 공간기저벡터 정밀도 보정 장치를 이용하여 설계된 수치와 일치하게 설치되었는지 확인 가능하다.
또한, 본 발명인 가상마커를 이용한 확장 된 3D 데이터 기반의 공간기저벡터 정밀도 보정 방법은, 도 1에 나타난 바와 같은 순서에 의해 실행된다.
먼저, 제1단계(S10)는 좌표계산부(10)가 다수개의 인식마커(111, 112, 113)를 감지한다. 보다 구체적으로, 도 3에 나타난 바와 같이, 상기 인식마커(111, 112, 113)는 세 개 이상으로 마련되는 것이 바람직하다. 상기 인식마커(111, 112, 113)를 한 개로 마련하는 경우 AR 장비를 착용한 사용자의 움직임에 의해 상기 가상공간(100)이 이동한 경우 다시 돌아왔을 때 상기 가상공간(100)과 실제공간(200) 간의 오차가 너무 커지고, 상기 인식마커(111, 112, 113)를 두 개로 마련하는 경우 상기 인식마커(111, 112, 113) 중 어느 하나가 실제 물체에 의해 가려지는 가림현상이 발생 경우 나머지 하나의 인식마커(111, 112, 113)로 감지해야 하므로 세 개 이상으로 마련하는 것이 바람직하다.
다음으로, 제2단계(S20)는 상기 좌표계산부(10)가 가상공간(100)에 상기 인식마커(111, 112, 113) 각각의 중심점인 지역원점(120)을 생성한다. 보다 구체적으로, 도 5에 나타난 바와 같이, 상기 지역원점(120)은 상기 세 개로 마련된 인식마커(111, 112, 113) 각각의 중심점을 일컫는 것으로, 상기 지역원점(120)은 무게중심점으로 설정할 수 있다.
다음으로, 제3단계(S30)는 상기 좌표계산부(10)가 상기 가상공간(100)에서 상기 인식마커(111, 112, 113)와 동일한 위치에 가상좌표를 생성한다. 상기 가상좌표는 상기 인식마커(111, 112, 113)를 기준으로 동일한 위치에 생성한다.
다음으로, 제4단계(S40)는 상기 좌표계산부(10)가 상기 가상공간(100)에서 가상원점(130)을 생성한다. 상기 가상원점(130)은 상기 가상좌표를 평균한 위치 값인 것이 바람직하다.
다음으로, 제5단계(S50)는 상기 좌표계산부(10)가 상기 실제공간(200)의 실제특징점(240)과 상기 가상공간(100)의 가상특징점(140)을 생성한다. 보다 구체적으로, 도 5에 나타난 바와 같이, 상기 실제공간(200)의 실제특징점(240) 및 상기 가상공간(100)의 가상특징점(140)은 공간상의 특징이 될 수 있는 지점인 모서리인 것이 바람직하다. 즉, 상기 실제특징점(240)은 상기 실제공간(200)의 다면체에서 각 면의 경계를 이루고 있는 선분의 점으로 설정할 수 있다. 마찬가지로 상기 가상특징점(140)은 상기 가상공간(100)의 다면체에서 각 면의 경계를 이루고 있는 선분의 점으로 설정할 수 있다. 상기 실제특징점(240)과 가상특징점(140)은 모서리로 마련되어 있어 엣지(edge)를 포함하기 때문에 오차 인식이 용이하다.
다음으로, 제6단계(S60)는 공간매칭부(20)가 상기 가상원점(130)을 기반으로 실제공간(200)에 실제원점(230)을 설정하여 상기 가상원점(130)과 매칭한다. 보다 구체적으로, 도 4에 나타난 바와 같이, 상기 실제원점(230)은 상기 전체 실제공간(200)에서 상기 가상원점(130)과 동일한 위치에 설정하는 것이 바람직하며, 이후 상기 실제원점(230)과 상기 가상원점(130)을 매칭한다.
다음으로, 제7단계(S70)는 상기 공간매칭부(20)가 상기 실제특징점(240)과 상기 가상특징점(140)을 매칭한다. 보다 구체적으로, 도 5에 나타난 바와 같이, 상기 실제특징점(240)과 가상특징점(140)을 매칭하여 가상공간(100)과 실제공간(200)을 1:1로 매칭한다.
다음으로, 제8단계(S80)는 데이터고도화부(30)가 상기 공간매칭부(20)에 의해 매칭된 상기 실제특징점(240)과 상기 가상특징점(140)의 상기 가상공간(100) 위치에 가상마커(150)를 생성한다. 보다 구체적으로, 도 4에 나타난 바와 같이, 상기 가상마커(150)는 큐브형(cube)으로 마련되는 것이 바람직하다. 상기 큐브형은 꼭지점(코너)가 마련되어 엣지(edgd)를 포함하기 때문에 큐브형의 가상마커(150)를 활용하면 오차에 대한 인식이 용이하다.
다음으로, 제9단계(S90)는 상기 데이터고도화부(30)가 상기 가상마커(150)를 이용하여 확장가상마커(160)을 생성한다. 상기 확장가상마커(160)는 상기 가상마커(150)와 동일한 지점에 동일한 크기로 생성하는 것이 바람직하다.
다음으로, 제10단계(S100)는 오차보정부(40)가 상기 실제공간(200) 내 상기 가상공간(100)의 이동이 발생할 때, 상기 확장가상마커(160)을 트래킹한다. 보다 구체적으로, 도 3 및 도 4에 나타난 바와 같이, 상기 실제공간(200) 내에 있는 AR을 착용한 사용자가 이동을 하면 상기 가상공간(100)의 이동이 발생하게 된다. 상기 가상공간(100)이 이동하는 경우 상기 확장가상마커(160)이 이동하게 되어 상기 오차보정부(40)는 상기 확장가상마커(160)의 이동 위치 및 각도를 추적하고 전파 신호를 통해 상기 확장가상마커(160)의 이동 위치 및 각도를 송수신한다.
다음으로, 제11단계(S110)는 상기 오차보정부(40)가 상기 트래킹 된 확장가상마커(160)과 상기 가상마커(150)의 위치 오차 발생을 인지한다. 보다 구체적으로, 도 4에 나타난 바와 같이, 상기 제10단계(S100)에 의해 트래킹 된 상기 확장가상마커(160)의 위치(Dr1 및 Dr2) 및 각도(θr) 신호는 상기 가상마커(150)의 위치 및 각도의 오차를 판단하게 된다.
다음으로, 제12단계(S120)는 상기 오차보정부(40)가 상기 확장가상마커(160)의 위치 오차를 계산하여 보정한다. 보다 구체적으로, 도 4 및 도 5에 나타난 바와 같이, 상기 오차보정부(40)는 확장가상마커(160)의 위치(Dr1 및 Dr2) 및 각도(θr) 신호를 통해 상기 가상마커(150)와 비교하여 상기 확장가상마커(160)의 회전각 및 이동 거리 오차를 계산한다.
상기 과제의 해결 수단에 의해, 본 발명은 실제공간(200)과 가상공간(100)을 1:1로 매칭 하여 공간에 설치된 실제 장치들과 가상으로 모델링된 가상 장치들이 정확하게 설계된 수치와 일치하게 설치되었는지 확인할 수 있다.
또한, 본 발명은 AR 장비를 착용하고 이동시에 장비의 기계적인 오류 등으로 발생된 오차를 용이하게 인식할 수 있다.
또한, 본 발명은 3D 가상마커(150)로 가상물체가 위치를 이동하였을 때 변이를 인식하고 자동으로 변이를 계산하여 보정할 수 있다.
이와 같이, 상술한 본 발명의 기술적 구성은 본 발명이 속하는 기술분야의 당업자가 본 발명의 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다.
그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해되어야 하고, 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타나며, 특허청구범위의 의미 및 범위 그리고 그 등가 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
10. 좌표계산부
20. 공간매칭부
30. 데이터고도화부
40. 오차보정부
100. 가상공간
200. 실제공간
111, 112, 113. 인식마커
120. 지역원점
130. 가상원점
230. 실제원점
140. 가상특징점
240. 실제특징점
150. 가상마커
160. 확장가상마커
S10. 좌표계산부(10)가 다수개의 인식마커(111, 112, 113)를 감지하는 제1단계
S20. 상기 좌표계산부(10)가 가상공간(100)에 상기 인식마커(111, 112, 113) 각각의 중심점인 지역원점(120)을 생성하는 제2단계
S30. 상기 좌표계산부(10)가 상기 가상공간(100)에서 상기 인식마커(111, 112, 113)와 동일한 위치에 가상좌표를 생성하는 제3단계
S40. 상기 좌표계산부(10)가 상기 가상공간(100)에서 가상원점(130)을 생성하는 제4단계
S50. 상기 좌표계산부(10)가 상기 실제공간(200)의 실제특징점(240)과 상기 가상공간(100)의 가상특징점(140)을 생성하는 제5단계
S60. 공간매칭부(20)가 상기 가상원점(130)을 기반으로 실제공간(200)에 실제원점(230)을 설정하여 상기 가상원점(130)과 매칭하는 제6단계
S70. 상기 공간매칭부(20)가 상기 실제특징점(240)과 상기 가상특징점(140)을 매칭하는 제7단계
S80. 데이터고도화부(30)가 상기 공간매칭부(20)에 의해 매칭된 상기 실제특징점(240)과 상기 가상특징점(140)의 상기 가상공간(100) 위치에 가상마커(150)를 생성하는 제8단계
S90. 상기 데이터고도화부(30)가 상기 가상마커(150)를 이용하여 확장가상마커(160)을 생성하는 제9단계
S100. 오차보정부(40)가 상기 실제공간(200) 내 상기 가상공간(100)의 이동이 발생할 때, 상기 확장가상마커(160)을 트래킹하는 제10단계
S110. 상기 오차보정부(40)가 상기 트래킹 된 확장가상마커(160)과 상기 가상마커(150)의 위치 오차 발생을 인지하는 제11단계
S120. 상기 오차보정부(40)가 상기 확장가상마커(160)의 위치 오차를 계산하여 보정하는 제12단계

Claims (17)

  1. 다수개의 인식마커(111, 112, 113)를 감지하고 가상공간(100)에 상기 인식마커(111, 112, 113) 각각의 중심점인 지역원점(120)을 생성한 후, 상기 가상공간(100)에서 상기 인식마커(111, 112, 113)와 동일한 위치에 가상좌표와 가상원점(130)을 생성하고, 실제공간(200)의 실제특징점(240)과 상기 가상공간(100)의 가상특징점(140)을 생성하는 좌표계산부(10);
    상기 가상원점(130)을 기반으로 실제공간(200)에 실제원점(230)을 설정하여 상기 가상원점(130)과 매칭하되 상기 실제원점(230)은 상기 가상원점(130)과 동일한 위치에 설정한 후 상기 실제원점(230)과 가상원점(130)을 매칭하고, 상기 실제특징점(240)과 가상특징점(140)을 매칭하여 상기 실제공간(200)과 가상공간(100)을 1:1로 매칭하는 공간매칭부(20);
    상기 실제공간(200)의 실제특징점(240)과 상기 가상공간(100)의 가상특징점(140)이 1:1로 매칭 된 상기 가상공간(100) 위치에 큐브형(cube)의 가상마커(150)를 생성한 뒤, 상기 가상마커(150)를 기반으로 확장가상마커(160)을 생성하되 모서리나 경계에 큐브형(cube) 또는 정육면체의 3D 객체를 다수 생성하여 마커로 활용하는 데이터고도화부(30);
    상기 실제공간(200) 내 AR을 착용한 사용자에 의해 상기 가상공간(100)의 이동이 발생하는 경우, 상기 확장가상마커(160)을 트래킹하여 상기 가상마커(150)와 상기 확장가상마커(160)의 오차를 판단하는 오차보정부(40);로 구성하되,
    상기 좌표계산부(10)는,
    상기 인식마커(111, 112, 113)를 감지하는 제1단계(S10);
    상기 가상공간(100)에 상기 인식마커(111, 112, 113) 각각의 중심점인 지역원점(120)을 생성하되, 상기 지역원점(120)은 무게중심점으로 생성하는 제2단계(S20);
    상기 가상공간(100)에서 상기 인식마커(111, 112, 113)와 동일한 위치에 가상좌표를 생성하는 제3단계(S30);
    상기 가상공간(100)에서 상기 가상원점(130)을 생성하되, 상기 가상원점(130)은 상기 가상좌표를 평균한 위치 값으로 생성하는 제4단계(S40);
    상기 실제공간(200)의 상기 실제특징점(240)과 상기 가상공간(100)의 상기 가상특징점(140)을 생성하되, 상기 실제특징점(240) 및 가상특징점(140)은 공간상 모서리로 생성하는 제5단계(S50);의 단계에 의해 순차적으로 실시하고,
    상기 오차보정부(40)는,
    상기 오차가 발생한 것으로 판단하면 상기 가상마커(150)와 비교하여 상기 확장가상마커(160)의 회전각 및 이동 거리 오차를 계산하고,
    상기 실제원점(230)은,
    상기 가상원점(130)과 동일한 위치에 설정하는 것을 특징으로 하는,
    가상마커를 이용한 확장 된 3D 데이터 기반의 공간기저벡터 정밀도 보정 장치.
  2. 삭제
  3. 삭제
  4. 제 1항에 있어서,
    상기 인식마커(111, 112, 113)는 세 개 이상으로 마련된 것을 특징으로 하는 가상마커를 이용한 확장 된 3D 데이터 기반의 공간기저벡터 정밀도 보정 장치.
  5. 삭제
  6. 삭제
  7. 삭제
  8. 제 1항에 있어서,
    상기 실제공간(200)은 선체내부 공간인 것을 특징으로 하는 가상마커를 이용한 확장 된 3D 데이터 기반의 공간기저벡터 정밀도 보정 장치.
  9. 삭제
  10. 좌표계산부(10)가 다수개의 인식마커(111, 112, 113)를 감지하는 제1단계;
    상기 좌표계산부(10)가 가상공간(100)에 상기 인식마커(111, 112, 113) 각각의 중심점인 지역원점(120)을 생성하되, 상기 지역원점(120)은 무게중심점으로 생성하는 제2단계;
    상기 좌표계산부(10)가 상기 가상공간(100)에서 상기 인식마커(111, 112, 113)와 동일한 위치에 가상좌표를 생성하는 제3단계;
    상기 좌표계산부(10)가 상기 가상공간(100)에서 가상원점(130)을 생성하되, 상기 가상원점(130)은 상기 가상좌표를 평균한 위치 값으로 생성하는 제4단계;
    상기 좌표계산부(10)가 실제공간(200)의 실제특징점(240)과 상기 가상공간(100)의 가상특징점(140)을 생성하되, 상기 실제특징점(240) 및 가상특징점(140)은 공간상 모서리로 생성하는 제5단계;
    공간매칭부(20)가 상기 가상원점(130)을 기반으로 실제공간(200)에 실제원점(230)을 설정하여 상기 가상원점(130)과 매칭하는 제6단계;
    상기 공간매칭부(20)가 상기 실제특징점(240)과 상기 가상특징점(140)을 1:1로 매칭하는 제7단계;
    데이터고도화부(30)가 상기 공간매칭부(20)에 의해 매칭된 상기 실제특징점(240)과 상기 가상특징점(140)의 상기 가상공간(100) 위치에 큐브형(cube)의 가상마커(150)를 생성하는 제8단계;
    상기 데이터고도화부(30)가 상기 가상마커(150)를 기반으로 확장가상마커(160)을 생성하는 제9단계;
    오차보정부(40)가 상기 실제공간(200) 내 AR을 착용한 사용자에 의해 상기 가상공간(100)의 이동이 발생할 때, 상기 확장가상마커(160)을 트래킹하는 제10단계;
    상기 오차보정부(40)가 상기 트래킹 된 확장가상마커(160)과 상기 가상마커(150)의 위치 오차 발생을 인지하는 제11단계;
    상기 오차보정부(40)가 상기 확장가상마커(160)의 위치 오차를 계산하여 보정하는 제12단계;에 의해 수행하되,
    상기 제6단계에서 상기 실제원점(230)은 상기 가상원점(130)과 동일한 위치에 설정하고,
    상기 제9단계에서 상기 가상마커(150)를 기반으로 확장가상마커(160)을 생성은 모서리나 경계에 큐브형(cube) 또는 정육면체의 3D 객체를 다수 생성하여 마커로 활용하고,
    상기 제11단계에서 오차가 발생한 것으로 판단하면 상기 가상마커(150)와 비교하여 상기 확장가상마커(160)의 회전각 및 이동 거리 오차를 계산하는 것을 특징으로 하는 가상마커를 이용한 확장 된 3D 데이터 기반의 공간기저벡터 정밀도 보정 방법.
  11. 삭제
  12. 삭제
  13. 제 10항에 있어서,
    상기 인식마커(111, 112, 113)는 세 개 이상으로 마련된 것을 특징으로 하는 가상마커를 이용한 확장 된 3D 데이터 기반의 공간기저벡터 정밀도 보정 방법.
  14. 삭제
  15. 삭제
  16. 제 10항에 있어서,
    상기 실제공간(200)은 선체내부 공간인 것을 특징으로 하는 가상마커를 이용한 확장 된 3D 데이터 기반의 공간기저벡터 정밀도 보정 방법.
  17. 삭제
KR1020200157689A 2020-11-23 2020-11-23 가상마커를 이용한 확장 된 3d 데이터 기반의 공간기저벡터 정밀도 보정 장치 및 이를 이용한 공간기저벡터 정밀도 보정 방법 KR102528353B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200157689A KR102528353B1 (ko) 2020-11-23 2020-11-23 가상마커를 이용한 확장 된 3d 데이터 기반의 공간기저벡터 정밀도 보정 장치 및 이를 이용한 공간기저벡터 정밀도 보정 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200157689A KR102528353B1 (ko) 2020-11-23 2020-11-23 가상마커를 이용한 확장 된 3d 데이터 기반의 공간기저벡터 정밀도 보정 장치 및 이를 이용한 공간기저벡터 정밀도 보정 방법

Publications (2)

Publication Number Publication Date
KR20220070777A KR20220070777A (ko) 2022-05-31
KR102528353B1 true KR102528353B1 (ko) 2023-05-03

Family

ID=81786808

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200157689A KR102528353B1 (ko) 2020-11-23 2020-11-23 가상마커를 이용한 확장 된 3d 데이터 기반의 공간기저벡터 정밀도 보정 장치 및 이를 이용한 공간기저벡터 정밀도 보정 방법

Country Status (1)

Country Link
KR (1) KR102528353B1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005227876A (ja) * 2004-02-10 2005-08-25 Canon Inc 画像処理方法、画像処理装置
KR102181584B1 (ko) * 2019-11-11 2020-11-20 (주)아이소프트 공존현실 기반의 3d 설계도면을 이용한 선체 의장 검사 시스템 및 그 방법

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101325757B1 (ko) 2010-07-09 2013-11-08 주식회사 팬택 가상 마커 생성을 이용한 증강 현실 제공 장치 및 방법
KR20130003371A (ko) * 2011-06-30 2013-01-09 양재일 증강 현실 서비스를 위한 컨텐츠 위치 보정 장치 및 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005227876A (ja) * 2004-02-10 2005-08-25 Canon Inc 画像処理方法、画像処理装置
KR102181584B1 (ko) * 2019-11-11 2020-11-20 (주)아이소프트 공존현실 기반의 3d 설계도면을 이용한 선체 의장 검사 시스템 및 그 방법

Also Published As

Publication number Publication date
KR20220070777A (ko) 2022-05-31

Similar Documents

Publication Publication Date Title
US11340628B2 (en) Marker-combined simultaneous localization and mapping navigation method, device and system
CN110243360B (zh) 机器人在运动区域的地图构建及定位方法
US10304248B2 (en) Apparatus and method for providing augmented reality interaction service
US11481982B2 (en) In situ creation of planar natural feature targets
Mohr et al. Relative 3D reconstruction using multiple uncalibrated images
CN110345937A (zh) 一种基于二维码的导航定姿定位方法和系统
Reitmayr et al. Going out: robust model-based tracking for outdoor augmented reality
CN109544636A (zh) 一种融合特征点法和直接法的快速单目视觉里程计导航定位方法
CN108090958A (zh) 一种机器人同步定位和地图构建方法和系统
Negahdaripour On 3-D motion estimation from feature tracks in 2-D FS sonar video
US9378559B2 (en) System and method for motion estimation
US20120300979A1 (en) Planar mapping and tracking for mobile devices
CN111982099B (zh) 机器人混合定位方法、装置、设备及计算机可读介质
CN111190230B (zh) 一种基于磁梯度张量的探测方法
US20230091749A1 (en) Maintaining localization and orientation of electronic headset after loss of slam tracking
WO2019021569A1 (ja) 情報処理装置、情報処理方法、及びプログラム
CN105096341A (zh) 基于三焦张量和关键帧策略的移动机器人位姿估计方法
KR100327120B1 (ko) 증강현실 기반의 3차원 트래커와 컴퓨터 비젼을 이용한영상 정합 방법
CN112541973A (zh) 虚实叠合方法与系统
JP6922348B2 (ja) 情報処理装置、方法、及びプログラム
Singh et al. Ubiquitous hybrid tracking techniques for augmented reality applications
KR102528353B1 (ko) 가상마커를 이용한 확장 된 3d 데이터 기반의 공간기저벡터 정밀도 보정 장치 및 이를 이용한 공간기저벡터 정밀도 보정 방법
CN104166995A (zh) 一种基于马步测度的Harris-SIFT双目视觉定位方法
Schall et al. 3D tracking in unknown environments using on-line keypoint learning for mobile augmented reality
JP6676785B2 (ja) バーチャル環境表示における視方向の設定方法

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant