KR101900759B1 - Mobile terminal performing augmented reality servcie and mehod thereof - Google Patents

Mobile terminal performing augmented reality servcie and mehod thereof Download PDF

Info

Publication number
KR101900759B1
KR101900759B1 KR1020160178770A KR20160178770A KR101900759B1 KR 101900759 B1 KR101900759 B1 KR 101900759B1 KR 1020160178770 A KR1020160178770 A KR 1020160178770A KR 20160178770 A KR20160178770 A KR 20160178770A KR 101900759 B1 KR101900759 B1 KR 101900759B1
Authority
KR
South Korea
Prior art keywords
information
image
unit
sensor
feature point
Prior art date
Application number
KR1020160178770A
Other languages
Korean (ko)
Other versions
KR20180075723A (en
Inventor
서덕영
김태섭
Original Assignee
경희대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경희대학교 산학협력단 filed Critical 경희대학교 산학협력단
Priority to KR1020160178770A priority Critical patent/KR101900759B1/en
Publication of KR20180075723A publication Critical patent/KR20180075723A/en
Application granted granted Critical
Publication of KR101900759B1 publication Critical patent/KR101900759B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72522
    • G06K9/46
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/026Details of the structure or mounting of specific components
    • H04M1/0264Details of the structure or mounting of specific components for a camera module assembly
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/34Microprocessors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Navigation (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명에 따른, 증강현실 서비스를 수행하는 이동 단말기는, 카메라로부터 이미지 및 센서로부터의 센서 정보를 수신하는 입력부; 상기 이미지의 특징점이 뷰 평면(view plane) 상의 실제 3차원 좌표에 매칭(matching)되도록 처리하는 처리부; 증강 현실 서비스를 위하여 사용자(user) 위치에 대해 계산을 수행하고, 사용자 위치 정보를 제공하는 계산부; 및 상기 사용자 위치 정보에 기반하여 상기 뷰 평면 상의 특징점을 상기 이미지 상 픽셀 값으로 치환하여, 상기 사용자 위치 정보의 정확성을 판정하는 검증부를 포함하고, 추가적인 장비 없이 스마트 기기의 카메라와 센서, 3차원 지도 정보만을 이용하여 자기 위치 찾기 및 증강 현실 서비스를 제공할 수 있다.According to another aspect of the present invention, there is provided a mobile terminal for performing an augmented reality service, comprising: an input unit for receiving sensor information from an image sensor and a camera; A processing unit for processing the feature points of the image to match actual three-dimensional coordinates on a view plane; A calculation unit for performing calculation for a user location for the augmented reality service and providing user location information; And a verifying unit for verifying the accuracy of the user location information by replacing the feature points on the view plane with the image pixel values based on the user location information. It is possible to provide self-locating and augmented reality service using only information.

Description

증강현실 서비스를 수행하는 이동 단말기 및 이를 수행하는 방법{MOBILE TERMINAL PERFORMING AUGMENTED REALITY SERVCIE AND MEHOD THEREOF}TECHNICAL FIELD [0001] The present invention relates to a mobile terminal performing an augmented reality service and a mobile terminal performing the augmented reality service,

본 발명은 증강현실 서비스를 수행하는 이동 단말기 및 이를 수행하는 방법에 관한 것이다. 보다 상세하게는, 이미지 분석과 3차원 지도를 이용한 단일카메라 자기 위치 찾기와 보정 방법에 관한 것이다.The present invention relates to a mobile terminal performing an augmented reality service and a method of performing the same. And more particularly, to a single camera self-locating and correcting method using image analysis and three-dimensional map.

증강현실(Augmented Reality) 서비스 제공을 위해, 사용자의 정확한 위치 파악은 필수적이다. 자신의 위치를 기반으로, 주변 건물 정보 등의 증강 정보를 사용자의 스크린에 알맞은 위치에 표현해야 한다. Augmented Reality In order to provide a service, it is essential to know the exact location of the user. Based on his / her location, the augmenting information such as surrounding building information should be displayed in a proper position on the screen of the user.

이와 관련하여, 현재 증강현실에 사용하는 자기 위치 찾기 방법은 주로 GPS를 통한 위치 탐색이다. GPS는 도심이나, 실내에서 낮은 정확성을 가진다. 실내 사용자 위치 찾기에 주로 쓰이는 BLE (Bluetooth Low Energy)의 RSSI (Received Signal Strength Indicator)는 Beacon과의 거리에 대한 한계가 있어 정확도를 높이기 위해선, 많은 기기 설치가 필요하다. UWB (Ultra Wide Broadband) 기술과 RFID(Radio Frequency Identification)은 기본적인 인프라 구성이 필요하다. 이는 건물 제공자가 정확한 위치 찾기를 위해 추가 장비를 설치해야 하는 단점이 있다.In this regard, the method of finding a self position that is currently used for augmented reality is mainly a position search through GPS. GPS has low accuracy in the city or indoors. The Received Signal Strength Indicator (RSSI) of Bluetooth Low Energy (BLE), which is mainly used for indoor user location, has a limit to the distance from the beacon. Ultra Wide Broadband (UWB) technology and Radio Frequency Identification (RFID) require a basic infrastructure configuration. This has the disadvantage that the building provider must install additional equipment for accurate location.

해당 기술들은 상황에 따라, 오차가 생기게 되는데, 이를 보정하는 방법이 명확하지 않다. 이는 높은 정확도를 요구하는 증강현실 기술에는 문제점이 있다.Depending on the situation, the techniques may cause errors, but the method of correcting them is not clear. This poses a problem in augmented reality technologies that require high accuracy.

따라서, 본 발명에서 해결하고자 하는 과제는 추가적인 장비 없이 스마트 기기의 카메라와 센서, 3차원 지도 정보만을 이용하여 자기 위치 찾기 및 증강 현실 서비스를 제공하는 데에 그 목적이 있다. Accordingly, an object of the present invention is to provide a self-locating and augmented reality service using only a camera, a sensor, and three-dimensional map information of a smart device without additional equipment.

또한, 본 발명에서 해결하고자 하는 과제는 추가적인 장비 없이 스마트 기기만을 이용하여 사용자 위치 오차를 보정하여 효율적인 증강 현실 서비스를 제공하는데에 그 목적이 있다.Another object of the present invention is to provide an efficient augmented reality service by correcting a user position error using only a smart device without additional equipment.

상기와 같은 과제를 해결하기 위한 본 발명에 따른, 증강현실 서비스를 수행하는 이동 단말기는, 카메라로부터 이미지 및 센서로부터의 센서 정보를 수신하는 입력부; 상기 이미지의 특징점이 뷰 평면(view plane) 상의 실제 3차원 좌표에 매칭(matching)되도록 처리하는 처리부; 증강 현실 서비스를 위하여 사용자(user) 위치에 대해 계산을 수행하고, 사용자 위치 정보를 제공하는 계산부; 및 상기 사용자 위치 정보에 기반하여 상기 뷰 평면 상의 특징점을 상기 이미지 상 픽셀 값으로 치환하여, 상기 사용자 위치 정보의 정확성을 판정하는 검증부를 포함하고, 추가적인 장비 없이 스마트 기기의 카메라와 센서, 3차원 지도 정보만을 이용하여 자기 위치 찾기 및 증강 현실 서비스를 제공할 수 있다.According to an aspect of the present invention, there is provided a mobile terminal for performing augmented reality service, including: an input unit for receiving sensor information from an image and a sensor from a camera; A processing unit for processing the feature points of the image to match actual three-dimensional coordinates on a view plane; A calculation unit for performing calculation for a user location for the augmented reality service and providing user location information; And a verifying unit for verifying the accuracy of the user location information by replacing the feature points on the view plane with the image pixel values based on the user location information. It is possible to provide self-locating and augmented reality service using only information.

일 실시예에 따르면, 상기 사용자의 주변 영상을 촬영하여 상기 입력부로 상기 이미지를 상기 입력부로 제공하는 카메라; 상기 카메라가 상기 주변 영상을 바라보는 방향에 대한 센서 정보를 상기 입력부로 제공하는 센서; 및 상기 사용자 위치 정보와 연관된 3차원 지도 정보를 상기 입력부로 제공하는 3차원 지도 정보 제공부를 더 포함할 수 있다.According to an embodiment of the present invention, a camera for capturing a surrounding image of the user and providing the image to the input unit through the input unit; A sensor for providing sensor information on a direction in which the camera looks at the peripheral image to the input unit; And a three-dimensional map information providing unit for providing three-dimensional map information related to the user location information to the input unit.

일 실시예에 따르면, 상기 처리부는, 상기 이미지를 상기 입력부로부터 수신하여 상기 이미지의 특징점을 검출하는 특징점 검출부; 및 상기 특징점 검출부에서 검출된 상기 이미지의 특징점과 연관된 제1 특징점 정보, 상기 3차원 지도 정보 제공부로부터 제공된 상기 3차원 지도 정보, 및 상기 센서로부터 제공된 상기 센서 정보에 기반하여, 상기 이미지의 특징점이 상기 뷰 평면 상의 실제 3차원 좌표에 매칭되도록 제2특징점 정보를 산출하여 상기 계산부로 제공하는 특징점 정보 연결부를 포함할 수 있다.According to an embodiment, the processing unit may include: a feature point detecting unit receiving the image from the input unit and detecting a feature point of the image; Based on the first feature point information associated with the feature point of the image detected by the feature point detection section, the three-dimensional map information provided from the three-dimensional map information providing section, and the sensor information provided from the sensor, And a minutia information connection unit for calculating second minutia information to match the actual three-dimensional coordinates on the view plane and providing the minutia information to the calculation unit.

일 실시예에 따르면, 상기 계산부는, 상기 특징점 정보 연결부로부터 제공되는 상기 제2특징점 정보와 상기 입력부를 통해 제공되는 상기 센서 정보에 기반하여, 상기 사용자 위치에 대한 계산을 수행하고, 상기 사용자 위치 정보와 상기 센서 정보를 상기 검증부에 제공할 수 있다.According to an embodiment, the calculation unit may perform calculation for the user position based on the second minutia information provided from the minutia information connection unit and the sensor information provided through the input unit, And the sensor information to the verification unit.

일 실시예에 따르면, 상기 검증부는, 상기 계산부로부터 수신된 상기 사용자 위치 정보와 상기 센서 정보에 기반하여, 상기 뷰 평면 상의 특징점을 상기 이미지 상 픽셀 값으로 변환하고, 상기 변환된 픽셀 값을 포함하는 제3특징점 정보를 생성하는 특징점 계산부를 포함할 수 있다. 또한, 상기 검증부는, 상기 입력부로부터 제공된 상기 이미지의 픽셀 값과, 상기 특징점 계산부로부터 제공된 상기 제3특징점 정보에 포함된 상기 변환된 픽셀 값의 차이를 비교하여 비교 값을 생성하는 특징점 비교부를 더 포함할 수 있다. 또한, 상기 검증부는, 상기 특징점 비교부로부터 획득된 상기 비교 값이 특정 임계값보다 작으면 상기 사용자 위치 정보를 출력하고, 상기 임계값보다 크면 상기 픽셀 값의 차이에 기반하여 보정된 센서 정보를 상기 계산부로 제공하는 정확성 판단부를 더 포함할 수 있다.According to one embodiment, the verification unit may convert the feature points on the view plane into the image pixel values based on the user position information and the sensor information received from the calculation unit, and may include the converted pixel values And a feature point calculator for generating third feature point information on the basis of the feature point information. The verifying unit may further include a feature point comparing unit for comparing the pixel value of the image provided from the input unit with the difference between the converted pixel value included in the third feature point information provided from the feature point calculating unit to generate a comparison value . The verification unit may output the user position information if the comparison value obtained from the feature point comparison unit is smaller than a specific threshold value and output the sensor information corrected based on the difference of the pixel value if the comparison value is larger than the threshold value, And may further include an accuracy judging unit for providing the calculation unit.

본 발명의 다른 양상에 따른 증강현실 서비스를 수행하는 방법은, 카메라로부터 이미지 및 센서로부터의 센서 정보를 수신하는 데이터 수신단계; 상기 이미지의 특징점을 뷰 평면(view plane) 상의 실제 3차원 좌표에 매핑 (mapping)시키는 이미지 매핑 단계; 증강 현실 서비스를 위하여 사용자(user) 위치에 대해 계산을 수행하는 사용자 위치 계산 단계; 및 상기 사용자 위치 정보에 기반하여 상기 뷰 평면 상의 특징점을 상기 이미지 상 픽셀 값으로 치환하여, 상기 사용자 위치 정보의 정확성을 판정하는 위치 정보 정확성 판정 단계를 포함한다.According to another aspect of the present invention, there is provided a method of performing an augmented reality service, comprising: receiving data from a camera and sensor information from a sensor; An image mapping step of mapping feature points of the image to actual three-dimensional coordinates on a view plane; A user location calculation step of performing a calculation for a user location for an augmented reality service; And a position information accuracy determining step of determining the accuracy of the user position information by replacing the feature points on the view plane with the image pixel values based on the user position information.

일 실시예에 따르면, 상기 이미지 매핑 단계는, 상기 수신된 이미지의 특징점을 검출하는 특징점 검출 단계; 및 상기 검출된 특징점과 연관된 제1 특징점 정보, 상기 사용자 위치 정보와 연관된 3차원 지도 정보, 및 상기 센서로부터 제공된 상기 센서 정보에 기반하여, 상기 이미지의 특징점이 상기 뷰 평면 상의 실제 3차원 좌표에 매핑되도록 제2특징점 정보를 산출하는 제2특징점 정보 산출 단계를 포함할 수 있다.According to an embodiment, the image mapping step may include: a feature point detection step of detecting a feature point of the received image; And mapping the feature points of the image to actual three-dimensional coordinates on the view plane based on the first feature point information associated with the detected feature point, the three-dimensional map information associated with the user location information, and the sensor information provided from the sensor And a second minutia information calculation step of calculating second minutia information so that the second minutia information is obtained.

일 실시예에 따르면, 상기 위치 정보 정확성 판정 단계는, 상기 사용자 위치 정보와 상기 센서 정보에 기반하여, 상기 뷰 평면 상의 특징점을 상기 이미지 상 픽셀 값으로 변환하고, 상기 변환된 픽셀 값을 포함하는 제3특징점 정보를 산출하는 제3특징점 정보 산출 단계를 포함할 수 있다. 또한, 상기 위치 정보 정확성 판정 단계는, 상기 이미지의 픽셀 값과, 상기 제3특징점 정보에 포함된 상기 변환된 픽셀 값의 차이를 비교하여 비교 값을 생성하고, 상기 비교 값을 특정 임계값과 비교하는 특징점 비교 단계를 더 포함할 수 있다. 또한, 상기 위치 정보 정확성 판정 단계는, 상기 비교 값이 특정 임계값보다 작으면 상기 사용자 위치 정보를 출력하고, 상기 임계값보다 크면 상기 픽셀 값의 차이에 기반하여 보정된 센서 정보를 상기 계산부로 제공하는 위치 정보 출력/센서 정보 보정 단계를 더 포함할 수 있다.According to one embodiment, the position information accuracy determining step may include a step of converting the feature points on the view plane into the image pixel values based on the user position information and the sensor information, And third feature point information calculating step of calculating three feature point information. The positional information accuracy determining step may include comparing the pixel value of the image with the difference between the converted pixel values included in the third characteristic point information to generate a comparison value and comparing the comparison value with a specific threshold value The feature point comparison step. The position information accuracy determination step may include outputting the user position information if the comparison value is smaller than a specific threshold value and providing sensor information corrected based on the difference of the pixel value to the calculation unit if the comparison value is greater than the threshold value The position information output / sensor information correction step.

본 발명의 또 다른 양상에 따른, 증강현실 서비스를 수행하는 이동 단말기는, 사용자의 주변 영상을 촬영하여 이미지를 생성하는 카메라; 상기 카메라가 상기 주변 영상을 바라보는 방향에 대한 센서 정보를 획득하는 센서; 상기 카메라로부터 이미지 및 상기 센서로부터의 센서 정보를 수신하는 입력부; 및 상기 이미지의 특징점이 뷰 평면(view plane) 상의 실제 3차원 좌표에 매칭(matching)되도록 처리하고, 증강 현실 서비스를 위하여 사용자(user) 위치에 대해 계산을 수행하고, 사용자 위치 정보를 제공하고, 그리고 상기 사용자 위치 정보에 기반하여 상기 뷰 평면 상의 특징점을 상기 이미지 상 픽셀 값으로 치환하여, 상기 사용자 위치 정보의 정확성을 판정하는 제어부를 포함한다.According to another aspect of the present invention, a mobile terminal performing an augmented reality service includes: a camera that captures a surrounding image of a user to generate an image; A sensor for acquiring sensor information on a direction in which the camera looks at the peripheral image; An input unit for receiving images from the camera and sensor information from the sensors; And processing the feature points of the image to match actual three-dimensional coordinates on the view plane, performing calculations on a user location for the augmented reality service, providing user location information, And a controller for determining the accuracy of the user location information by replacing the feature points on the view plane with the image pixel values based on the user location information.

일 실시예에 있어서, 상기 제어부는, 뷰 평면 방정식을 구하고, 임의의 특징점 P를 상기 뷰 평면 상의 제1변환점인 P'으로 치환하고, 상기 이미지 상의 특징점 A를 상기 뷰 평면 상의 제2변환점인 P''으로 치환하고, 상기 제1 및 제2변환점에 기반하여 상기 사용자 위치(v1, v2, v3)에 대한 계산을 수행할 수 있다.In one embodiment, the control unit obtains a view plane equation, substitutes an arbitrary feature point P with a first transformation point P 'on the view plane, and assigns a feature point A on the image to a second transformation point P ', And perform calculations for the user positions (v1, v2, v3) based on the first and second transition points.

일 실시예에 있어서, 상기 이미지 상의 두 개의 특징점 A, B에 대하여, 상기 사용자 위치(v1, v2, v3)는,In one embodiment, for two feature points A, B on the image, the user positions (v1, v2, v3)

Figure 112016127127797-pat00001
또는
Figure 112016127127797-pat00001
or

Figure 112016127127797-pat00002
Figure 112016127127797-pat00002

Figure 112016127127797-pat00003
또는
Figure 112016127127797-pat00003
or

Figure 112016127127797-pat00004
Figure 112016127127797-pat00004

Figure 112016127127797-pat00005
또는
Figure 112016127127797-pat00005
or

Figure 112016127127797-pat00006
로 결정되고,
Figure 112016127127797-pat00006
Lt; / RTI >

A1, A2, A3은 A의 3차원 좌표의 각 좌표이고, B1, B2, B3은 B의 3차원 좌표의 각 좌표이고, pml은 (P-L) 값이고, P는 상기 뷰 평면 상의 변환된 좌표이고, B1, B2, and B3 are angular coordinates of three-dimensional coordinates of B, pml is a (PL) value, P is a transformed coordinate on the view plane ,

L은

Figure 112016127127797-pat00007
이고, R은
Figure 112016127127797-pat00008
이고, L is
Figure 112016127127797-pat00007
And R is
Figure 112016127127797-pat00008
ego,

S는

Figure 112016127127797-pat00009
또는
Figure 112016127127797-pat00010
이고, d는 상기 카메라에서 상기 뷰 평면까지의 수직 거리이고, n은 상기 수직 거리에 대한 단위 벡터(unit vector), g1, g2는 단위 벡터 R, S에 대한 크기를 나타내는 것으로 결정될 수 있다.S is
Figure 112016127127797-pat00009
or
Figure 112016127127797-pat00010
D is a vertical distance from the camera to the view plane, n is a unit vector for the vertical distance, and g1 and g2 represent sizes for the unit vectors R and S, respectively.

본 발명에 따른 증강현실 서비스 수행 방법 및 이동 단말기는, 이미지 상 특징점과 실제 좌표의 관계를 통한 사용자 위치 찾기를 통해 추가적인 장비 없이 스마트 기기의 카메라와 센서, 3차원 지도 정보만을 이용하여 자기 위치 찾기 및 증강 현실 서비스를 제공할 수 있다는 장점이 있다.A method and a mobile terminal for performing an augmented reality service according to the present invention can search a user's location through a relationship between an image feature point and an actual coordinate, It is possible to provide an augmented reality service.

또한, 본 발명에 따른 증강현실 서비스 수행 방법 및 이동 단말기는, 실제 좌표를 다시 이미지 상 특징점으로 변환하여 이전 특징점과의 오차를 보정하여, 추가적인 장비 없이 스마트 기기만을 이용하여 사용자 위치 오차를 보정하여 효율적인 증강 현실 서비스를 제공할 수 있다는 장점이 있다.Also, the method and the mobile terminal of the present invention convert the actual coordinates to image feature points to correct errors with respect to the previous feature points, correct user position errors using only the smart device without additional equipment, It is possible to provide an augmented reality service.

도 1은 본 발명에 따른 이동 단말기의 세부 블록도를 도시한다.
도 2는 본 발명의 일 실시예에 따른 처리부의 세부 블록도를 도시한다.
도 3은 본 발명의 일 실시예에 따른 계산부의 세부 블록도를 도시한다.
도 4는 본 발명의 일 실시예에 따른 검증부의 세부 블록도를 도시한다.
도 5는 본 발명에 따른 임의의 특징점과 뷰 평면 상의 특징점과의 관계를 나타낸 개념도이다.
도 6은 본 발명에 따른 이미지 상의 특징점과 뷰 평면 상의 특징점의 관계를 나타내는 개념도이다.
도 7은 본 발명에 따른 n의 z 성분의 양수/음수인 때, n과 S의 관계를 도시한다.
도 8은 본 발명에 따른 카메라 회전에 따른 기울기 값이 형성되는 개념도를 도시한다.
도 9는 본 발명에 따른 기존 이미지와 부정확한 센서 값을 통해 얻은 이미지를 비교한 것이다.
도 10은 본 발명에 따른 증강 현실 서비스 수행 방법의 흐름도를 도시한다.
1 shows a detailed block diagram of a mobile terminal according to the present invention.
2 shows a detailed block diagram of a processing unit according to an embodiment of the present invention.
3 shows a detailed block diagram of a calculation unit according to an embodiment of the present invention.
4 shows a detailed block diagram of a verification unit according to an embodiment of the present invention.
FIG. 5 is a conceptual diagram showing the relationship between any feature point according to the present invention and a feature point on a view plane.
6 is a conceptual diagram showing the relationship between minutiae points on an image and minutiae points on a view plane according to the present invention.
Fig. 7 shows the relationship between n and S when the z component of n according to the present invention is positive / negative.
FIG. 8 is a conceptual diagram illustrating the formation of a tilt value according to the camera rotation according to the present invention.
Figure 9 compares an existing image according to the present invention with an image obtained through inaccurate sensor values.
FIG. 10 shows a flowchart of a method for performing an augmented reality service according to the present invention.

상술한 본 발명의 특징 및 효과는 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해 질 것이며, 그에 따라 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 개시형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 명세서에서 사용한 용어는 단지 특정한 실시 예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다.BRIEF DESCRIPTION OF THE DRAWINGS The above and other features and advantages of the present invention will become more apparent from the following detailed description of the present invention when taken in conjunction with the accompanying drawings, It will be possible. The present invention is capable of various modifications and various forms, and specific embodiments are illustrated in the drawings and described in detail in the text. It is to be understood, however, that the invention is not intended to be limited to the particular forms disclosed, but on the contrary, is intended to cover all modifications, equivalents, and alternatives falling within the spirit and scope of the invention. The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention.

각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용한다.Like reference numerals are used for similar elements in describing each drawing.

제1, 제2등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.

예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. "및/또는" 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. The term "and / or" includes any combination of a plurality of related listed items or any of a plurality of related listed items.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs.

일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않아야 한다.Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the related art and are to be interpreted as either ideal or overly formal in the sense of the present application Should not.

이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈", "블록" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. The suffix "module "," block ", and "part" for components used in the following description are given or mixed in consideration of ease of specification only and do not have their own distinct meanings or roles .

이하, 본 발명의 바람직한 실시 예를 첨부한 도면을 참조하여 당해 분야에 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 설명한다. 하기에서 본 발명의 실시 예를 설명함에 있어, 관련된 공지의 기능 또는 공지의 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS In the following description of the present invention, detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

본 발명은 사용자의 대략적인 위치 탐지만 가능하다면, 정확성을 높이기 위해 추가적인 장비가 불필요하다. 사용자 위치 찾기를 위해 센서와 카메라가 부착된 기존 스마트 기기와, 3차원 지도 정보를 이용한다. 해당 정보를 입력으로, Perspective Projection 알고리즘 기반의 자기 위치 찾기 알고리즘과, 오차를 보정하는 방법을 제안한다. The present invention eliminates the need for additional equipment to improve accuracy, if only the approximate location detection of the user is possible. We use existing smart devices with sensors and cameras and 3D map information for user location. We propose a self-locating algorithm based on Perspective Projection algorithm and a method of correcting the error.

구체적으로, 본 발명은 Perspective Projection 알고리즘을 이용한다. 3차원 지도 정보와, 센서로부터 얻은 카메라가 바라보는 방향에 대한 단위벡터 값, 그리고 카메라가 촬영한 이미지를 얻어 사용한다. 3차원 지도 정보는 실외에선 GIS(Geographic Information System) 정보와 DEM(Digital Elevation Model)을 사용하며, 실내에선 Indoor Map을 사용할 수 있다. 이미지 상 특징점에 실제 3차원 좌표를 매칭하여, Perspective projection 수식을 기반으로 사용자 위치(View Point)를 구할 수 있다. Specifically, the present invention uses a Perspective Projection algorithm. 3D map information, the unit vector value of the direction of the camera viewed from the sensor, and the image captured by the camera are used. Geographic information system (GIS) information and DEM (Digital Elevation Model) are used for outdoor 3D map information, and indoor maps can be used indoors. It is possible to obtain the user's position (View Point) based on the perspective projection equation by matching actual three-dimensional coordinates to the feature points on the image.

본 발명은 센서로부터 얻은 방향벡터는 부정확할 수 있으므로, 이를 보정하는 시스템도 포함한다. 계산한 사용자 위치 정보와 센서정보를 바탕으로 특징점을 다시 이미지화 시켜, 기존 이미지와의 차이 값을 계산한다. 계산한 데이터를 바탕으로 센서 정보를 보정하여 다시 사용자 위치를 계산한다. The present invention also includes a system for correcting the direction vector obtained from the sensor, since it may be inaccurate. Based on the calculated user location information and sensor information, the feature points are re-imaged and the difference value from the existing image is calculated. The sensor information is corrected based on the calculated data and the user position is calculated again.

본 발명은 3차원 지도 정보와, 스마트 기기의 카메라 및 센서 기능만을 이용한다. 따라서 대략적인 사용자 위치 제공을 위한 기기 외에 추가 장비 설치가 불필요하다. 또한, 이미지 상 특징점과 실제 좌표의 관계를 통한 수학적 사용자 위치 찾기 방법으로, 입력 값이 정확할 시에 정확한 사용자 위치를 계산하여 얻을 수 있다.The present invention uses only three-dimensional map information and camera and sensor functions of a smart device. Therefore, it is unnecessary to install additional equipment in addition to the device for providing approximate user location. In addition, a mathematical user locating method based on the relationship between feature points and actual coordinates in an image can be obtained by calculating an accurate user position when an input value is accurate.

이와 같은 본 발명에 따른 증강 현실 서비스를 제공하는 이동 단말기 및 증강 현실 서비스 수행 방법에 대해 살펴보기로 하자. Hereinafter, a mobile terminal and an augmented reality service providing method for providing an augmented reality service according to the present invention will be described.

이와 관련하여, 도 1은 본 발명에 따른 이동 단말기의 세부 블록도를 도시한다. 도 1에 도시된 바와 같이, 상기 이동 단말기(1000)는 카메라(100), 센서(200), 3차원 지도 제공부(300), 입력부(400) 및 제어부(500)를 포함한다. 한편, 상기 제어부(500)는 처리부(600), 계산부(700) 및 검증부(800)를 더 포함한다. In this regard, Fig. 1 shows a detailed block diagram of a mobile terminal according to the present invention. 1, the mobile terminal 1000 includes a camera 100, a sensor 200, a three-dimensional map data providing unit 300, an input unit 400, and a control unit 500. The control unit 500 further includes a processing unit 600, a calculation unit 700, and a verification unit 800.

또한, 도 2는 본 발명의 일 실시예에 따른 처리부의 세부 블록도를 도시한다. 도 2에 도시된 바와 같이, 상기 처리부(600)는 특징점 검출부(610) 및 특징점 정보 연결부(620)를 포함한다. Figure 2 also shows a detailed block diagram of a processing unit according to an embodiment of the present invention. As shown in FIG. 2, the processing unit 600 includes a feature point detector 610 and a feature point information connection unit 620.

또한, 도 3은 본 발명의 일 실시예에 따른 계산부의 세부 블록도를 도시한다. 도 3에 도시된 바와 같이, 상기 계산부(700)는 위치 계산부(710)를 포함한다. 3 shows a detailed block diagram of a calculation unit according to an embodiment of the present invention. As shown in FIG. 3, the calculation unit 700 includes a position calculation unit 710.

또한, 도 4는 본 발명의 일 실시예에 따른 검증부의 세부 블록도를 도시한다. 도 3에 도시된 바와 같이, 상기 검증부(800)은 특징점 계산부(810), 특징점 비교부(820) 및 정확성 판단부(830)를 포함한다. 4 shows a detailed block diagram of a verification unit according to an embodiment of the present invention. 3, the verifying unit 800 includes a minutiae point calculating unit 810, a minutiae point comparing unit 820, and an accuracy determining unit 830. As shown in FIG.

이하에서는, 도 1 내지 도 4를 참조하여, 세부 블록 별로 수행되는 기능에 대해 살펴보면 다음과 같다.Hereinafter, functions performed for each detailed block will be described with reference to FIGS. 1 to 4. FIG.

먼저, 상기 카메라(100)는 상기 사용자의 주변 영상을 촬영하여 상기 입력부(400)로 상기 이미지를 상기 입력부로 제공한다. 상기 센서(200)는 상기 카메라(100)가 상기 주변 영상을 바라보는 방향에 대한 센서 정보를 상기 입력부(400)로 제공한다. 상기 3차원 지도 정보 제공부(300)는 상기 사용자 위치 정보와 연관된 3차원 지도 정보를 상기 입력부로 제공한다. First, the camera 100 captures a surrounding image of the user and provides the image to the input unit 400. The sensor 200 provides sensor information on the direction in which the camera 100 looks at the peripheral image to the input unit 400. The three-dimensional map information providing unit 300 provides the three-dimensional map information associated with the user location information to the input unit.

다음으로, 상기 입력부(400)는 상기 카메라(100)로부터 이미지 및 상기 센서(200)로부터 센서 정보를 수신하도록 구성된다. 또한, 상기 입력부(400)는 상기 3차원 지도 정보 제공부(300)로부터 상기 사용자 위치 정보와 연관된 3차원 지도 정보를 수신하도록 더 구성될 수 있다. Next, the input unit 400 is configured to receive images from the camera 100 and sensor information from the sensor 200. The input unit 400 may further be configured to receive three-dimensional map information associated with the user location information from the three-dimensional map information providing unit 300.

상기 처리부(600)는 상기 이미지의 특징점이 뷰 평면(view plane) 상의 실제 3차원 좌표에 매칭(matching)되도록 처리하도록 구성된다. 도 2를 참조하면, 상기 특징점 검출부(610)는 상기 이미지를 상기 입력부(400)로부터 수신하여 상기 이미지의 특징점을 검출하도록 구성된다. The processing unit 600 is configured to process the feature points of the image to match the actual three-dimensional coordinates on the view plane. Referring to FIG. 2, the feature point detector 610 is configured to receive the image from the input unit 400 and to detect the feature point of the image.

상기 특징점 정보 연결부(620)는 상기 특징점 검출부(610)에서 검출된 상기 이미지의 특징점과 연관된 제1 특징점 정보, 상기 3차원 지도 정보 제공부(300)로부터 제공된 상기 3차원 지도 정보, 및 상기 센서(200)로부터 제공된 상기 센서 정보에 기반하여, 상기 이미지의 특징점이 상기 뷰 평면 상의 실제 3차원 좌표에 매칭되도록 제2특징점 정보를 산출하도록 구성된다. 또한, 상기 특징점 정보 연결부(620)는 상기 산출된 제2특징점 정보를 상기 계산부(700)로 제공하도록 더 구성된다.The minutia information connection unit 620 may include first minutia information related to the minutiae of the image detected by the minutia detection unit 610, the three-dimensional map information provided from the three-dimensional map information providing unit 300, 200 based on the sensor information provided by the first sensor and the second sensor, wherein the feature point of the image is matched with the actual three-dimensional coordinate on the view plane. In addition, the minutia information connection unit 620 is further configured to provide the calculated second minutia information to the calculation unit 700.

상기 계산부(700)는 증강 현실 서비스를 위하여 사용자(user) 위치에 대해 계산을 수행하고, 사용자 위치 정보를 제공하도록 구성된다. 도 3을 참조하면, 상기 위치 계산부(710)는 상기 특징점 정보 연결부(620)로부터 제공되는 상기 제2특징점 정보와 상기 입력부(400)를 통해 제공되는 상기 센서 정보에 기반하여, 상기 사용자 위치에 대한 계산을 수행하도록 구성된다. 또한, 상기 위치 계산부(710)는 상기 사용자 위치 정보와 상기 센서 정보를 상기 검증부(800)에 제공하도록 더 구성된다.The calculation unit 700 is configured to perform calculation for a user position for the augmented reality service and provide user position information. 3, the position calculation unit 710 calculates the position of the user at the user position based on the second minutia information provided from the minutia information connection unit 620 and the sensor information provided through the input unit 400 For example. The location calculation unit 710 is further configured to provide the user location information and the sensor information to the verification unit 800. [

상기 검증부(800)는 상기 사용자 위치 정보에 기반하여 상기 뷰 평면 상의 특징점을 상기 이미지 상 픽셀 값으로 치환하여, 상기 사용자 위치 정보의 정확성을 판정하도록 구성된다. 도 4를 참조하면, 상기 특징점 계산부(810)는 상기 계산부(700)로부터 수신된 상기 사용자 위치 정보와 상기 센서 정보에 기반하여, 상기 뷰 평면 상의 특징점을 상기 이미지 상 픽셀 값으로 변환하고, 상기 변환된 픽셀 값을 포함하는 제3특징점 정보를 생성하도록 구성된다.  The verification unit 800 is configured to determine the accuracy of the user location information by replacing the feature points on the view plane with the image pixel values based on the user location information. 4, the minutiae point calculator 810 converts minutiae points on the view plane into pixel values on the image plane based on the user position information and the sensor information received from the calculator 700, And generate third characteristic point information including the converted pixel value.

상기 특징점 비교부(820)는 상기 입력부(400)로부터 제공된 상기 이미지의 픽셀 값과, 상기 특징점 계산부(810)로부터 제공된 상기 제3특징점 정보에 포함된 상기 변환된 픽셀 값의 차이를 비교하여 비교 값을 생성하도록 구성된다. The feature point comparator 820 compares the pixel value of the image provided from the input unit 400 with the difference between the converted pixel value included in the third feature point information provided from the feature point calculator 810, ≪ / RTI >

상기 정확성 판단부(830)는 상기 특징점 비교부(820)로부터 획득된 상기 비교 값이 특정 임계값보다 작으면 상기 사용자 위치 정보를 출력하도록 구성된다. 또한, 상기 정확성 판단부(830)는 상기 특징점 비교부(820)로부터 획득된 상기 비교 값이 상기 임계값보다 크면 상기 픽셀 값의 차이에 기반하여 보정된 센서 정보를 상기 계산부로 제공하도록 구성된다.The accuracy determining unit 830 is configured to output the user location information if the comparison value obtained from the feature point comparing unit 820 is smaller than a specific threshold value. If the comparison value obtained from the minutia comparison unit 820 is greater than the threshold value, the accuracy determination unit 830 provides the calculated sensor information to the calculation unit based on the difference of the pixel values.

한편, 상기 증강 현실 수행 방법을 수행하는 이동 단말기, 보다 상세하게는 이미지 분석과 3차원 지도를 이용한 단일카메라 자기 위치 찾기와 보정 방법을 수행하는 이동 단말기에서의 사용자 위치 찾기 방법에 대해 아래에서 상세히 살펴보기로 하자. 이와 관련하여, 상기 사용자 위치 찾기 및 보정은 도 1에서 상기 제어부(500)에 의해 수행될 수 있다. 이때, 상기 제어부(500)는 프로세서(processor)로 지칭될 수 있으며, 어플리케이션 프로세서(AP: Application processor) 등이 이에 해당할 수 있다. 또는, 상기 제어부(500) 컴퓨터 소프트웨어 형태로 어플리케이션 레이어 또는 프레임워크 상에서 수행되는 임의의 컴퓨터 소프트웨어 또는 이러한 소프트웨어를 구동시키는 임의의 플랫폼일 수 있다. A mobile terminal performing the augmented reality performing method, more specifically, a method of searching a user's location in a mobile terminal performing a single camera self-positioning and correction method using image analysis and three-dimensional map will be described in detail below Let's take a look. In this regard, the user location and correction can be performed by the control unit 500 in FIG. At this time, the controller 500 may be referred to as a processor, and may be an application processor (AP) or the like. Alternatively, the controller 500 may be any computer software running on the application layer or framework in the form of computer software or any platform that runs such software.

상기 제어부(500)는 도 1에서 도시된 바와 같이, 상기 입력부(400)를 통해 상기 카메라(100)로부터 이미지 및 상기 센서(200)로부터의 센서 정보를 수신할 수 있다. 또한, 상기 제어부(500)는 상기 입력부(400)를 통해 상기 3차원 지도 제공부(300)로부터 상기 사용자 위치 정보와 연관된 3차원 지도 정보를 수신할 수 있다. 이를 기반으로, 상기 제어부(500)는 상기 이미지의 특징점이 뷰 평면(view plane) 상의 실제 3차원 좌표에 매칭(matching)되도록 처리한다. 또한, 상기 제어부(500)는 증강 현실 서비스를 위하여 사용자(user) 위치에 대해 계산을 수행하고, 사용자 위치 정보를 제공한다. 또한, 상기 제어부(500)는 상기 사용자 위치 정보에 기반하여 상기 뷰 평면 상의 특징점을 상기 이미지 상 픽셀 값으로 치환하여, 상기 사용자 위치 정보의 정확성을 판정한다. As shown in FIG. 1, the controller 500 may receive images from the camera 100 and sensor information from the sensors 200 through the input unit 400. The control unit 500 may receive the 3D map information associated with the user location information from the 3D map providing unit 300 through the input unit 400. [ On the basis of this, the controller 500 processes the feature points of the image to match the actual three-dimensional coordinates on the view plane. Also, the controller 500 performs calculation for a user location for the augmented reality service, and provides user location information. In addition, the controller 500 determines the accuracy of the user location information by replacing the feature points on the view plane with the image pixel values based on the user location information.

전술된 상기 제어부(500)의 동작과 관련하여, 사용자의 위치와 뷰 평면(View plane), 뷰 평면 상 (X,Y) 축 정보가 주어졌을 때, 임의의 점 P가 스크린상에서 어느 위치에 표현되는지에 대해 구체적으로 살펴보기로 하자. With respect to the operation of the control unit 500 described above, given a user's position, view plane, and (X, Y) axis information on the view plane, an arbitrary point P is represented at any position on the screen Let's take a closer look at what happens.

이와 관련하여, 상기 제어부(500)는 뷰 평면 방정식을 구하고, 임의의 특징점 P를 상기 뷰 평면 상의 제1변환점인 P'으로 치환한다. 또한, 상기 제어부(500)는 상기 이미지 상의 특징점 A를 상기 뷰 평면 상의 제2변환점인 P''으로 치환하고, 상기 제1 및 제2변환점에 기반하여 상기 사용자 위치(v1, v2, v3)에 대한 계산을 수행한다. In this regard, the control unit 500 obtains the view plane equation, and replaces any feature point P with the first transformation point P 'on the view plane. In addition, the controller 500 replaces the feature point A on the image with the second transition point P '' on the view plane, and outputs the user position (v1, v2, v3) based on the first and second transition points .

또는, 상기 이미지 상의 특징점 P (N개의 임의의 점을 포함)가 상기 뷰 평면 상에 P' (N개의 임의의 점을 포함)으로 치환되는 경우, P''은 N개의 임의의 점이 뷰 평면의 R,S축에 해당하는 2차원 좌표에 해당할 수 있다.Alternatively, when a feature point P (including N arbitrary points) on the image is replaced with P '(including N arbitrary points) on the view plane, P' R, and S axes, respectively.

이와 관련하여, 표 1은 사용자 위치 등을 포함하여 이미지와 뷰 평면 상의 지점들에 대한 변수를 나타내고 있다.In this regard, Table 1 shows the parameters for the image and the points on the view plane, including the user location and the like.

변수명Variable name Matrix 크기Matrix Size 설명Explanation VV (4 x 1)(4 x 1) 사용자 위치(View Point)User Point (View Point) nn (4 x 1)(4 x 1) 뷰 평면 방정식. 방정식의 (x,y,z) 값은 단위벡터 성질을 가진다.View plane equation. The (x, y, z) values of the equation have unit vector properties. dd 뷰 평면과 V간의 거리Distance between view plane and V OO (4 x 1)(4 x 1) 뷰 평면 상 원점Origin on view plane RR (4 x 1)(4 x 1) 뷰 평면 상 x축 단위 벡터X-axis unit vector on the view plane SS (4 x 1)(4 x 1) 뷰 평면 상 y축 단위 벡터Y-axis unit vector on the view plane PP (4 x N)(4 x N) N개의 임의의 점의 실제 3차원 좌표The actual three-dimensional coordinates of N arbitrary points P'P ' (4 x N)(4 x N) N개의 임의의 점이 뷰 평면 상에서 맺히는 3차원 좌표3D coordinates in which N arbitrary points are formed on the view plane P''P " (3 x N)(3 x N) N개의 임의의 점이 뷰 평면의 R,S축에 해당하는 2차원 좌표N arbitrary points are defined as two-dimensional coordinates corresponding to the R and S axes of the view plane

이와 관련하여, 도 5는 본 발명에 따른 임의의 특징점과 뷰 평면 상의 특징점과의 관계를 나타낸 개념도이다. 한편, 도 5 및 표 1을 참조하여, 전술된 변수들을 계산하는 방법에 대해 구체적으로 살펴보면 다음과 같다. In this regard, Fig. 5 is a conceptual diagram showing a relationship between any feature point according to the present invention and a feature point on a view plane. Referring to FIG. 5 and Table 1, a method of calculating the above-described variables will be described in detail.

A. 임의의 특징점을 뷰 A. View any feature point 평면 상의Flat 점으로 치환 Substitution by point

i. 뷰 평면 방정식i. View plane equation

뷰 평면 원점은 사용자 위치 V에 뷰 평면 벡터에 가중치를 더하여 구할 수 있다. 이 때, d는 사용자 임의로 정할 수 있다.The view plane origin can be obtained by adding the weight to the view plane vector at the user position V. At this time, d can be arbitrarily set by the user.

(수식 1)(Equation 1)

Figure 112016127127797-pat00011
Figure 112016127127797-pat00011

매트릭스 연산을 위해, 수식 1은 다음과 같이 표현될 수 있다.For a matrix operation, Equation 1 can be expressed as:

(수식 2)(Equation 2)

Figure 112016127127797-pat00012
Figure 112016127127797-pat00012

이 때, 뷰 평면 방정식은 (수식 1) 값을 이용한다.At this time, the view plane equation uses (Equation 1).

(수식 3)(Equation 3)

Figure 112016127127797-pat00013
Figure 112016127127797-pat00013

위의 형태를 풀이하면, 다음의 수학식(4)와 같다.The above form is solved by the following equation (4).

(수식 4)(Equation 4)

Figure 112016127127797-pat00014
Figure 112016127127797-pat00014

ii. 뷰 ii. View 평면 상의Flat 점 P'으로 치환 Replace with point P '

임의의 특징점 P를 뷰 평면 상 점 P'로 치환하기 위해서는 다음과 같은 연산을 수행한다.In order to replace an arbitrary feature point P with a point P 'on the view plane, the following operation is performed.

(수식 5)(Equation 5)

Figure 112016127127797-pat00015
Figure 112016127127797-pat00015

B. B. 이미지 상의Image 특징점을 뷰  View feature points 평면 상의Flat 점으로 치환 Substitution by point

i. i. 이미지 상의Image 특징점을 뷰  View feature points 평면 상의Flat 점으로 치환  Substitution by point

이와 관련하여, 도 6은 본 발명에 따른 이미지 상의 특징점과 뷰 평면 상의 특징점의 관계를 나타내는 개념도이다.In this regard, FIG. 6 is a conceptual diagram showing the relationship between the minutiae points on the image and the minutiae points on the view plane according to the present invention.

이미지 중앙을 기준으로 특징점 A가

Figure 112016127127797-pat00016
만큼 픽셀이 이동됐으면, View plane 상의 (X,Y) 좌표는 다음과 같다.Feature point A based on the center of the image
Figure 112016127127797-pat00016
(X, Y) coordinates on the view plane are as follows.

(수식 6)(Equation 6)

P''

Figure 112016127127797-pat00017
P "
Figure 112016127127797-pat00017

이때, View plane 상의 X축의 성분 (

Figure 112016127127797-pat00018
)은 R의 계수가 되고, View plane 상의 Y축의 성분
Figure 112016127127797-pat00019
S의 계수가 된다. 이때,
Figure 112016127127797-pat00020
는 편의상
Figure 112016127127797-pat00021
라 하자. 이를 통해 뷰 평면 상의 점(P')을 구할 수 있다.At this time, the component of the X axis on the view plane
Figure 112016127127797-pat00018
) Is the coefficient of R , and the component of the Y axis on the view plane
Figure 112016127127797-pat00019
Is the coefficient of S. At this time,
Figure 112016127127797-pat00020
For convenience
Figure 112016127127797-pat00021
Let's say. This gives a point (P ') on the view plane.

(수식 7)(Equation 7)

Figure 112016127127797-pat00022
Figure 112016127127797-pat00022

Figure 112016127127797-pat00023
을 L Matrix 라 부를 수 있으며, 이는 사용자 찾기 수식에 주요 변수다.
Figure 112016127127797-pat00023
Can be called L Matrix, which is a key variable in the user find formulas.

(수식 8) (Equation 8)

Figure 112016127127797-pat00024
Figure 112016127127797-pat00024

ii. ii. R,SR, S 벡터 값 구하기 Obtaining vector values

기울기가 0일 경우,

Figure 112016127127797-pat00025
이다. 그러나 R은 단위벡터이므로, If the slope is 0,
Figure 112016127127797-pat00025
to be. However, since R is a unit vector,

(수식 9)(Equation 9)

Figure 112016127127797-pat00026
Figure 112016127127797-pat00026

S는 n의 z축 성분에 따라 달라진다. 이와 관련하여, 도 7은 본 발명에 따른 n의 z 성분의 양수/음수인 때, n과 S의 관계를 도시한다. 구체적으로 (a)는 n의 z성분이 양수일 때 n과 S의 관계이고, (b)는 n의 z성분이 음수일 때 n과 S의 관계를 나타낸다.S depends on the z-axis component of n. In this regard, Fig. 7 shows the relationship between n and S when the z component of n according to the present invention is positive / negative. Specifically, (a) shows the relationship between n and S when the z component of n is positive, and (b) shows the relationship between n and S when the z component of n is negative.

(수식 10)(Equation 10)

Z축 성분이 0일 때,

Figure 112016127127797-pat00027
When the Z-axis component is 0,
Figure 112016127127797-pat00027

(수식 11)(Equation 11)

Z축 성분이 양수일 때,

Figure 112016127127797-pat00028
When the Z-axis component is positive,
Figure 112016127127797-pat00028

(수식 12)(Equation 12)

Z축 성분이 음수일 때,

Figure 112016127127797-pat00029
When the Z-axis component is negative,
Figure 112016127127797-pat00029

(수식 10-12)는 단위 벡터 값이 아니므로, 사용시에

Figure 112016127127797-pat00030
값으로 나누어줘 단위벡터로 만들어야 한다. (Equation 10-12) is not a unit vector value,
Figure 112016127127797-pat00030
You should divide it by value to make it a unit vector.

이때, 기울기 값이 있다면, 상기 식(9-12)에서

Figure 112016127127797-pat00031
만큼 값을 조정할 수 있다. 이와 관련하여, 도 8은 본 발명에 따른 카메라 회전에 따른 기울기 값이 형성되는 개념도를 도시한다. 이때, 이러한 카메라 회전에 따른 기울기 값은 이동 단말기 내의 센서 등에 의해 감지될 수 있다.At this time, if there is a slope value, the equation (9-12)
Figure 112016127127797-pat00031
Can be adjusted. In this regard, FIG. 8 shows a conceptual diagram in which a tilt value according to the camera rotation is formed according to the present invention. At this time, the tilt value according to the camera rotation can be detected by a sensor or the like in the mobile terminal.

다음으로, 이상에서 전술된 과정을 통해 사용자 위치를 계산하는 방법에 대해 살펴보면 다음과 같다.Next, a method of calculating the user's position through the above-described process will be described as follows.

(수식 5) 와 (수식 7)을 연립하여 계산하면, 이 때 h는

Figure 112016127127797-pat00032
값이며, pml은 (P-L) 값이다. 하나의 특징점으로 다음과 같이 얻을 수 있다.(Equation 5) and (Equation 7) are calculated,
Figure 112016127127797-pat00032
Value, and pml is the (PL) value. One feature point can be obtained as follows.

Figure 112016127127797-pat00033
(수식 13)
Figure 112016127127797-pat00033
(Equation 13)

Figure 112016127127797-pat00034
(수식 14)
Figure 112016127127797-pat00034
(14)

Figure 112016127127797-pat00035
(수식 15)
Figure 112016127127797-pat00035
(Equation 15)

(수식 13-15)을 이용하여, 2개의 점을 이용해 보다 신뢰성 있는 값을 얻을 수 있다. (Equation 13-15), a more reliable value can be obtained by using two points.

(수식 16) (Expression 16)

Figure 112016127127797-pat00036
or
Figure 112016127127797-pat00036
or

Figure 112016127127797-pat00037
Figure 112016127127797-pat00037

(수식 17)(Equation 17)

Figure 112016127127797-pat00038
or
Figure 112016127127797-pat00038
or

Figure 112016127127797-pat00039
Figure 112016127127797-pat00039

(수식 18) (Eq. 18)

Figure 112016127127797-pat00040
Figure 112016127127797-pat00040

Figure 112016127127797-pat00041
Figure 112016127127797-pat00041

수식 (16-18)은 2개의 특징점 A와 B로 사용자 위치 계산하는 방법이다. 이 때, (수식 16)의

Figure 112016127127797-pat00042
Figure 112016127127797-pat00043
은 0이 아니어야 하고, (
Figure 112016127127797-pat00044
)도 0이 아니어야 한다. (수식 13-18)을 통해 사용자 위치를 정확히 계산할 수 있다. Equation (16-18) is a method of calculating the user position with two minutiae points A and B. At this time,
Figure 112016127127797-pat00042
and
Figure 112016127127797-pat00043
Must not be 0, and (
Figure 112016127127797-pat00044
) Must also be nonzero. (Equations 13-18).

다음으로, 상기 제어부(500) 또는 상기 제어부(500)의 검증부(800)에서 수행하는 검증 단계에 대해 살펴보면 다음과 같다.Next, a verification step performed by the control unit 500 or the verification unit 800 of the control unit 500 will be described.

획득된 사용자 위치(V)와 센서 값을 통해, Perspective Projection 수식을 적용하여 다시 이미지 상 좌표를 구한다. 이때, 센서 값이 정확한 경우에는 값이 일치하게 된다. 센서 값이 부정확할 경우에는 특징점 간 차이를 분석하여 센서 값을 보정 할 수 있다. 이와 관련하여, 도 9는 본 발명에 따른 기존 이미지와 부정확한 센서 값을 통해 얻은 이미지를 비교한 것이다. 구체적으로, 도 9의 (a)는 기존 이미지를 통해 얻은 이미지고, 도 9의 (b)는 부정확한 센서 값을 통해 얻은 이미지이다.Through the obtained user position (V) and the sensor value, the perspective projection formula is applied and the image coordinate is obtained again. At this time, if the sensor value is correct, the values match. If the sensor value is incorrect, the sensor value can be corrected by analyzing the difference between the minutiae points. In this regard, Figure 9 compares an existing image according to the present invention with an image obtained through inaccurate sensor values. Specifically, FIG. 9 (a) is an image obtained through an existing image, and FIG. 9 (b) is an image obtained through an incorrect sensor value.

도 8을 참조하면, 기존 평면 벡터를 (1,0,0)에서 (0.98, 0.02, 0)으로 바꾸어 얻은 결과다. 이는 약 센서가 약 11°만큼 원래 값보다 좌측으로 판단한 경우다. 이때, 특징점들이 전체적으로 우측으로 이동함을 보인다. 이 경우, 센서 정보를 우측으로 이동시켜 센서 값을 보정한다. Referring to FIG. 8, the result is obtained by changing the existing plane vector from (1,0,0) to (0.98, 0.02, 0). This is the case when the weak sensor judges the left side of the original value by about 11 degrees. At this time, the feature points move to the right as a whole. In this case, the sensor information is moved to the right to correct the sensor value.

다음으로, 증강 현실 서비스 수행 방법에 대해 살펴보면 다음과 같다. 상기 증강 현실 서비스 수행 방법은 이동 단말기 내의 제어부(500) (또는 프로세서)에 의해서만 수행될 수 있다. 또한, 상기 제어부(500) (또는 프로세서)를 통해 구동되는 소프트웨어(또는 어플리케이션)에 의해 수행될 수 있다. 이와 관련하여, 도 10은 본 발명에 따른 증강 현실 서비스 수행 방법의 흐름도를 도시한다. 도 10을 참조하면, 상기 증강 현실 서비스 수행 방법은 데이터 수신단계(S610), 이미지 매핑 단계, 위치 정보 정확성 판정 단계를 포함한다. Next, a method of performing the augmented reality service will be described. The augmented reality service performing method may be performed only by the control unit 500 (or processor) in the mobile terminal. Also, it may be performed by software (or application) driven through the control unit 500 (or the processor). In this regard, FIG. 10 shows a flowchart of a method for performing an augmented reality service according to the present invention. Referring to FIG. 10, the augmented reality service performing method includes a data receiving step S610, an image mapping step, and a position information accuracy determining step.

또한, 상기 이미지 매핑 단계는 특징점 검출 단계(S621), 및 제2특징점 정보 산출 단계(S622)를 더 포함한다. In addition, the image mapping step further includes a feature point detection step (S621), and a second feature point information calculation step (S622).

또한, 상기 위치 정보 정확성 판정 단계는 제3특징점 정보 산출 단계(S631), 특징점 비교 단계(S632) 및 위치 정보 출력/센서 정보 보정 단계(S643)를 포함한다.In addition, the position information accuracy determination step includes a third characteristic point information calculation step S631, a characteristic point comparison step S632, and a position information output / sensor information correction step S643.

상기 데이터 수신단계(S610)는 카메라로부터 이미지 및 센서로부터의 센서 정보를 수신한다. The data receiving step (S610) receives image information from the camera and sensor information from the sensor.

상기 이미지 매핑 단계는 상기 이미지의 특징점을 뷰 평면(view plane) 상의 실제 3차원 좌표에 매핑 (mapping)시킨다. The image mapping step maps the feature points of the image to actual three-dimensional coordinates on the view plane.

상기 특징점 검출 단계(S621)는 상기 수신된 이미지의 특징점을 검출한다. 또한, 제2특징점 정보 산출 단계(S622)는 상기 검출된 특징점과 연관된 제1 특징점 정보, 상기 사용자 위치 정보와 연관된 3차원 지도 정보, 및 상기 센서로부터 제공된 상기 센서 정보에 기반하여, 상기 이미지의 특징점이 상기 뷰 평면 상의 실제 3차원 좌표에 매핑되도록 제2특징점 정보를 산출한다. The feature point detection step S621 detects the feature point of the received image. In addition, the second feature point information calculation step (S622) may calculate, based on the first feature point information associated with the detected feature point, the three-dimensional map information associated with the user position information, and the sensor information provided from the sensor, The second minutia information is mapped to the actual three-dimensional coordinates on the view plane.

상기 위치 정보 정확성 판정 단계는 상기 사용자 위치 정보에 기반하여 상기 뷰 평면 상의 특징점을 상기 이미지 상 픽셀 값으로 치환하여, 상기 사용자 위치 정보의 정확성을 판정한다. The position information accuracy determining step determines the accuracy of the user position information by replacing the feature point on the view plane with the image pixel value based on the user position information.

상기 제3특징점 정보 산출 단계(S631)는 상기 사용자 위치 정보와 상기 센서 정보에 기반하여, 상기 뷰 평면 상의 특징점을 상기 이미지 상 픽셀 값으로 변환하고, 상기 변환된 픽셀 값을 포함하는 제3특징점 정보를 산출한다. 또한, 특징점 비교 단계(S632)는 상기 이미지의 픽셀 값과, 상기 제3특징점 정보에 포함된 상기 변환된 픽셀 값의 차이를 비교하여 비교 값을 생성하고, 상기 비교 값을 특정 임계값과 비교한다. 또한, 상기 위치 정보 출력/센서 정보 보정 단계(S643)는 상기 비교 값이 특정 임계값보다 작으면 상기 사용자 위치 정보를 출력하고, 상기 임계값보다 크면 상기 픽셀 값의 차이에 기반하여 보정된 센서 정보를 상기 계산부로 제공한다. The third feature point information calculation step (S631) converts the feature points on the view plane into the image pixel values based on the user position information and the sensor information, and generates third feature point information . Also, the feature point comparison step S632 compares the pixel value of the image with the difference between the converted pixel values included in the third feature point information to generate a comparison value, and compares the comparison value with a specific threshold value . In addition, the position information output / sensor information correction step (S643) may output the user position information if the comparison value is smaller than a specific threshold value, and if the comparison value is greater than the threshold value, To the calculation unit.

전술된 증강 현실 서비스 수행 방법과 관련하여, 이전에 기술된 증강현실 서비스를 수행하는 이동 단말기에 관련된 내용과 결합되어 수행될 수 있음은 물론이다.It is needless to say that the present invention can be carried out in combination with the contents related to the mobile terminal performing the augmented reality service described previously in connection with the augmented reality service performing method described above.

한편, 전술된 증강 현실 서비스 수행 방법, 구체적으로 이미지 분석과 3차원 지도를 이용한 단일카메라 자기 위치 찾기와 보정 방법은 다음과 같이 다양한 분야에 활용이 가능하다.Meanwhile, a single camera self-locating and correcting method using the above-described augmented reality service performing method, specifically, image analysis and three-dimensional map, can be applied to various fields as follows.

(1) 스포츠 및 슈팅게임 장르의 증강현실 게임(1) Augmented Reality game of sports and shooting game genre

양궁, 탁구, 복싱 및 FPS(First-Person Shooter) 등의 게임을 증강현실 게임으로 구현하기 위해서는 높은 정확도의 서비스 제공이 필요하다. 상기 장르의 게임은 증강현실 서비스 정확도가 높지 않다면, 사용자들의 게임만족도를 떨어뜨리게 된다. 본 발명을 통해, 보다 정확한 증강현실 제공이 가능하여, 상기 게임 장르도 서비스 가능하다.In order to implement games such as archery, table tennis, boxing, and FPS (First-Person Shooter) as augmented reality games, it is necessary to provide high-accuracy services. If the accuracy of the augmented reality service is not high, the game of the above genre will degrade users' satisfaction with the game. Through the present invention, it is possible to provide more accurate augmented reality, and the game genre can also be provided.

(2) 의료 산업(2) Medical industry

수술 시, 환자의 몸을 MRI 등으로 스캔하여 몸 구조를 저장한다면, 해당 자료를 3차원 지도로도 사용할 수 있다. 수술에 증강현실 기술이 적용되려면, 정확한 위치의 증강정보 제공이 필수적이므로, 본 발명 기술이 장점을 가진다.If the patient's body is scanned by MRI or the like to save the body structure during surgery, the data can be used as a three-dimensional map. In order to apply the augmented reality technique to surgery, it is essential to provide the augmentation information of the accurate position, so that the technique of the present invention has an advantage.

(3) 증강현실 (3) Augmented Reality 네비게이션navigation 어플리케이션application

기존 네비게이션은 GPS를 기반으로 대략적인 위치정보를 제공했다. 본 발명으로 정확한 증강현실 서비스가 가능하며, 건물 안의 위치한 상점의 정보를 표현 가능하다. 또한, 기존보다 도착지 안내 서비스의 품질도 높일 수 있다. The existing navigation provided approximate location information based on GPS. According to the present invention, accurate augmented reality service is possible, and information of a shop located in a building can be expressed. In addition, the quality of the destination guidance service can be enhanced.

또한, 전술된 증강 현실 서비스 수행 방법, 구체적으로 이미지 분석과 3차원 지도를 이용한 단일카메라 자기 위치 찾기와 보정 방법은 다음과 같은 기대효과를 갖는다.In addition, the above-described method for performing the augmented reality service, specifically, the single camera self-locating and correcting method using the image analysis and the three-dimensional map has the following expected effects.

(1) 실내 증강현실 서비스 제공의 서비스를 높이기 위해서는 추가 기기 설치가 필수적이기 때문에, 건물 제공자 입장에서 부담이 됐다. 본 발명은 추가 기기 설치의 영향을 크게 받지 않으므로, 건물 제공자에 부담이 적다. 따라서, 실내 증강현실 서비스 개발의 활성화를 기대할 수 있다. (1) In order to increase the service of provision of indoor augmented reality service, it is necessary to install additional equipment, which is a burden for a building provider. Since the present invention is not greatly influenced by the installation of the additional apparatus, the burden on the building provider is small. Therefore, the development of indoor augmented reality service can be expected to be activated.

(2) 현재 증강현실 게임은 대략적인 위치 정보만 사용한다. 본 발명으로 인해 증강현실 게임 장르가 다양화되어, 증강현실 게임 서비스 시장의 활성화를 기대한다. (2) The current Augmented Reality game only uses approximate location information. According to the present invention, augmented reality game genres are diversified, and augmented reality game service market is expected to be activated.

(3) 외과, 정형외과 등의 병원에서 수술 시, 증강현실 기술로 수술 실패 위험을 줄일 수 있다. 따라서, 본 발명의 기술을 기반으로, 의료 산업에 증강현실 기술을 대중화하여 의료 기기 산업의 발전을 시킬 수 있다. (3) In a surgery such as surgery or orthopedic surgery, the risk of operation failure can be reduced by the augmented reality technique. Therefore, based on the technique of the present invention, the augmented reality technology can be popularized in the medical industry, thereby enabling the development of the medical device industry.

(4) 정확한 증강현실 네비게이션으로 건물 내 상점들의 정보를 정확하게 표현할 수 있다. 증강 정보를 통해 상점들은 홍보가 가능하며, 이는 수익창출 모델로 활용 가능하다.(4) Accurate augmented reality navigation can accurately represent the information of shops in a building. Stores can be promoted through augmented information, which can be used as a revenue generating model.

또한, 기술 사업화 전망 측면에서도, 본 발명은 센서와 카메라, 3차원 지도를 사용하는 SW 모듈이다. 따라서, CPU와 센서, 카메라 정보를 얻을 수 있는 어느 기기에도 활용 가능하다. 게임 산업, 의료 산업, 위치 제공 서비스에 큰 장점을 가진다. 또한, 위치 정보의 정확도를 높이기 위한 추가 기기 설치가 불필요하여 서비스 제공자에게 큰 매력이 된다.Also, from the viewpoint of technical commercialization, the present invention is a SW module using a sensor, a camera, and a three-dimensional map. Therefore, it can be applied to any device that can obtain CPU, sensor, and camera information. It has great advantages in the game industry, medical industry, and location service. In addition, it is unnecessary to install additional devices for increasing the accuracy of location information, which is a great attraction for service providers.

본 발명에 따른 증강현실 서비스 수행 방법 및 이동 단말기는, 이미지 상 특징점과 실제 좌표의 관계를 통한 사용자 위치 찾기를 통해 추가적인 장비 없이 스마트 기기의 카메라와 센서, 3차원 지도 정보만을 이용하여 자기 위치 찾기 및 증강 현실 서비스를 제공할 수 있다는 장점이 있다. A method and a mobile terminal for performing an augmented reality service according to the present invention can search a user's location through a relationship between an image feature point and an actual coordinate, It is possible to provide an augmented reality service.

또한, 본 발명에 따른 증강현실 서비스 수행 방법 및 이동 단말기는, 실제 좌표를 다시 이미지 상 특징점으로 변환하여 이전 특징점과의 오차를 보정하여, 추가적인 장비 없이 스마트 기기만을 이용하여 사용자 위치 오차를 보정하여 효율적인 증강 현실 서비스를 제공할 수 있다는 장점이 있다. Also, the method and the mobile terminal of the present invention convert the actual coordinates to image feature points to correct errors with respect to the previous feature points, correct user position errors using only the smart device without additional equipment, It is possible to provide an augmented reality service.

소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능뿐만 아니라 각각의 구성 요소들은 별도의 소프트웨어 모듈로도 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 메모리에 저장되고, 제어부(controller) 또는 프로세서(processor)에 의해 실행될 수 있다.According to a software implementation, not only the procedures and functions described herein, but also each component may be implemented as a separate software module. Each of the software modules may perform one or more of the functions and operations described herein. Software code can be implemented in a software application written in a suitable programming language. The software code is stored in a memory and can be executed by a controller or a processor.

1000: 이동 단말기 100: 카메라
200: 센서 300: 3차원 지도 제공부
400: 입력부 500: 제어부
600: 처리부 700: 계산부
800: 검증부
1000: mobile terminal 100: camera
200: Sensor 300: Three-dimensional map provider
400: input unit 500:
600: processor 700:
800: verification unit

Claims (11)

증강현실(Augmented Reality) 서비스를 수행하는 이동 단말기에 있어서,
카메라로부터 이미지 및 센서로부터의 센서 정보를 수신하는 입력부;
상기 이미지의 특징점이 뷰 평면(view plane) 상의 실제 3차원 좌표에 매칭(matching)되도록 처리하는 처리부;
증강 현실 서비스를 위하여 사용자(user) 위치에 대해 계산을 수행하고, 사용자 위치 정보를 제공하는 계산부; 및
상기 사용자 위치 정보에 기반하여 상기 뷰 평면 상의 특징점을 상기 이미지 상 픽셀 값으로 치환하여, 상기 사용자 위치 정보의 정확성을 판정하는 검증부를 포함하는, 이동 단말기.
1. A mobile terminal for performing an Augmented Reality service,
An input unit for receiving image information from the camera and sensor information from the sensor;
A processing unit for processing the feature points of the image to match actual three-dimensional coordinates on a view plane;
A calculation unit for performing calculation for a user location for the augmented reality service and providing user location information; And
And a verification unit that determines the accuracy of the user location information by replacing the feature points on the view plane with the image pixel values based on the user location information.
제1항에 있어서,
상기 사용자의 주변 영상을 촬영하여 상기 입력부로 상기 이미지를 상기 입력부로 제공하는 카메라;
상기 카메라가 상기 주변 영상을 바라보는 방향에 대한 상기 센서 정보를 상기 입력부로 제공하는 센서; 및
상기 사용자 위치 정보와 연관된 3차원 지도 정보를 상기 입력부로 제공하는 3차원 지도 정보 제공부를 더 포함하는, 이동 단말기.
The method according to claim 1,
A camera for photographing a surrounding image of the user and providing the image to the input unit through the input unit;
A sensor for providing the sensor information with respect to a direction in which the camera looks at the peripheral image to the input unit; And
And a three-dimensional map information providing unit for providing three-dimensional map information related to the user location information to the input unit.
제2항에 있어서,
상기 처리부는,
상기 이미지를 상기 입력부로부터 수신하여 상기 이미지의 특징점을 검출하는 특징점 검출부; 및
상기 특징점 검출부에서 검출된 상기 이미지의 특징점과 연관된 제1 특징점 정보, 상기 3차원 지도 정보 제공부로부터 제공된 상기 3차원 지도 정보, 및 상기 센서로부터 제공된 상기 센서 정보에 기반하여, 상기 이미지의 특징점이 상기 뷰 평면 상의 실제 3차원 좌표에 매칭되도록 제2특징점 정보를 산출하여 상기 계산부로 제공하는 특징점 정보 연결부를 포함하는, 이동 단말기.
3. The method of claim 2,
Wherein,
A feature point detection unit receiving the image from the input unit and detecting a feature point of the image; And
Based on the first feature point information related to the feature point of the image detected by the feature point detection unit, the three-dimensional map information provided from the three-dimensional map information providing unit, and the sensor information provided from the sensor, And a minutia information connection unit for calculating second minutia information to be matched with actual three-dimensional coordinates on a view plane and providing the second minutia information to the calculation unit.
제3항에 있어서,
상기 계산부는,
상기 특징점 정보 연결부로부터 제공되는 상기 제2특징점 정보와 상기 입력부를 통해 제공되는 상기 센서 정보에 기반하여, 상기 사용자 위치에 대한 계산을 수행하고, 상기 사용자 위치 정보와 상기 센서 정보를 상기 검증부에 제공하는, 이동 단말기.
The method of claim 3,
The calculation unit may calculate,
Performing calculations on the user position based on the second minutia information provided from the minutia information connection unit and the sensor information provided through the input unit and providing the user position information and the sensor information to the verification unit Lt; / RTI >
제4항에 있어서,
상기 검증부는,
상기 계산부로부터 수신된 상기 사용자 위치 정보와 상기 센서 정보에 기반하여, 상기 뷰 평면 상의 특징점을 상기 이미지 상 픽셀 값으로 변환하고, 상기 변환된 픽셀 값을 포함하는 제3특징점 정보를 생성하는 특징점 계산부;
상기 입력부로부터 제공된 상기 이미지의 픽셀 값과, 상기 특징점 계산부로부터 제공된 상기 제3특징점 정보에 포함된 상기 변환된 픽셀 값의 차이를 비교하여 비교 값을 생성하는 특징점 비교부; 및
상기 특징점 비교부로부터 획득된 상기 비교 값이 특정 임계값보다 작으면 상기 사용자 위치 정보를 출력하고, 상기 임계값보다 크면 상기 픽셀 값의 차이에 기반하여 보정된 센서 정보를 상기 계산부로 제공하는 정확성 판단부를 포함하는, 이동 단말기.
5. The method of claim 4,
Wherein the verifying unit comprises:
Calculating feature points based on the user position information and the sensor information received from the calculation unit, converting the feature points on the view plane to the image pixel values, and generating third feature point information including the converted pixel values, part;
A feature point comparing unit for comparing a difference between the pixel value of the image provided from the input unit and the converted pixel value included in the third feature point information provided from the feature point calculating unit to generate a comparison value; And
And outputting the user position information if the comparison value obtained from the minutiae point comparator is smaller than a specific threshold value and providing accuracy to the calculation unit based on the difference of the pixel value if the value is larger than the threshold value And a mobile terminal.
증강현실(Augmented Reality) 서비스를 수행하는 방법에 있어서,
카메라로부터 이미지 및 센서로부터의 센서 정보를 수신하는 데이터 수신단계;
상기 이미지의 특징점을 뷰 평면(view plane) 상의 실제 3차원 좌표에 매핑 (mapping)시키는 이미지 매핑 단계;
증강 현실 서비스를 위하여 사용자(user) 위치에 대해 계산을 수행하고, 사용자 위치 정보를 제공하는 사용자 위치 계산 단계; 및
상기 사용자 위치 정보에 기반하여 상기 뷰 평면 상의 특징점을 상기 이미지 상 픽셀 값으로 치환하여, 상기 사용자 위치 정보의 정확성을 판정하는 위치 정보 정확성 판정 단계를 포함하는, 증강현실 서비스 수행 방법.
A method for performing an Augmented Reality service,
Receiving data from the camera and sensor information from the sensor;
An image mapping step of mapping feature points of the image to actual three-dimensional coordinates on a view plane;
A user location calculation step of performing calculation for a user location for the augmented reality service and providing user location information; And
And a position information accuracy determining step of determining the accuracy of the user position information by replacing the feature points on the view plane with the image pixel values based on the user position information.
제6항에 있어서,
상기 이미지 매핑 단계는,
상기 수신된 이미지의 특징점을 검출하는 특징점 검출 단계;
상기 검출된 특징점과 연관된 제1 특징점 정보, 상기 사용자 위치 정보와 연관된 3차원 지도 정보, 및 상기 센서로부터 제공된 상기 센서 정보에 기반하여, 상기 이미지의 특징점이 상기 뷰 평면 상의 실제 3차원 좌표에 매핑되도록 제2특징점 정보를 산출하는 제2특징점 정보 산출 단계를 포함하는, 증강현실 서비스 수행 방법.
The method according to claim 6,
Wherein the image mapping step comprises:
A feature point detection step of detecting a feature point of the received image;
Based on the first feature point information associated with the detected feature point, the three-dimensional map information associated with the user location information, and the sensor information provided from the sensor, so that the feature points of the image are mapped to actual three- And a second minutia information calculation step of calculating second minutia information.
제6항에 있어서,
상기 위치 정보 정확성 판정 단계는,
상기 사용자 위치 정보와 상기 센서 정보에 기반하여, 상기 뷰 평면 상의 특징점을 상기 이미지 상 픽셀 값으로 변환하고, 상기 변환된 픽셀 값을 포함하는 제3특징점 정보를 산출하는 제3특징점 정보 산출 단계;
상기 이미지의 픽셀 값과, 상기 제3특징점 정보에 포함된 상기 변환된 픽셀 값의 차이를 비교하여 비교 값을 생성하고, 상기 비교 값을 특정 임계값과 비교하는 특징점 비교 단계; 및
상기 비교 값이 특정 임계값보다 작으면 상기 사용자 위치 정보를 출력하고, 상기 임계값보다 크면 상기 픽셀 값의 차이에 기반하여 보정된 센서 정보를 계산부로 제공하는 위치 정보 출력/센서 정보 보정 단계를 더 포함하는, 증강현실 서비스 수행 방법.
The method according to claim 6,
The position information accuracy determining step may include:
A third minutia information calculation step of converting minutiae points on the view plane into pixel values on the image based on the user position information and the sensor information and calculating third minutia information including the converted pixel values;
A feature point comparison step of comparing a pixel value of the image with a difference between the converted pixel values included in the third feature point information to generate a comparison value and comparing the comparison value with a specific threshold value; And
And outputting the user location information if the comparison value is smaller than a specific threshold value and providing the corrected sensor information based on the difference of the pixel value to the calculation unit if the comparison value is larger than the threshold value And performing augmented reality service.
증강현실 서비스를 수행하는 이동 단말기에 있어서,
사용자의 주변 영상을 촬영하여 이미지를 생성하는 카메라;
상기 카메라가 상기 주변 영상을 바라보는 방향에 대한 센서 정보를 획득하는 센서;
상기 카메라로부터 이미지 및 상기 센서로부터의 상기 센서 정보를 수신하는 입력부; 및
상기 이미지의 특징점이 뷰 평면(view plane) 상의 실제 3차원 좌표에 매칭(matching)되도록 처리하고, 증강 현실 서비스를 위하여 사용자(user) 위치에 대해 계산을 수행하고, 사용자 위치 정보를 제공하고, 그리고 상기 사용자 위치 정보에 기반하여 상기 뷰 평면 상의 특징점을 상기 이미지 상 픽셀 값으로 치환하여, 상기 사용자 위치 정보의 정확성을 판정하는 제어부를 포함하는, 이동 단말기.
1. A mobile terminal for performing augmented reality service,
A camera for photographing a surrounding image of a user to generate an image;
A sensor for acquiring sensor information on a direction in which the camera looks at the peripheral image;
An input unit for receiving an image from the camera and the sensor information from the sensor; And
Processing the feature points of the image to match the actual three-dimensional coordinates on the view plane, performing calculations on user positions for augmented reality services, providing user location information, and And a controller for determining the accuracy of the user location information by replacing the feature point on the view plane with the image pixel value based on the user location information.
제9항에 있어서,
상기 제어부는,
뷰 평면 방정식을 구하고, 임의의 특징점 P를 상기 뷰 평면 상의 제1변환점인 P'으로 치환하고, 상기 이미지 상의 특징점 A를 상기 뷰 평면 상의 제2변환점인 P''으로 치환하고, 상기 제1 및 제2변환점에 기반하여 상기 사용자 위치(v1, v2, v3)에 대한 계산을 수행하는, 이동 단말기.
10. The method of claim 9,
Wherein,
Replacing any feature point P with a first transformed point P 'on the view plane, replacing a feature point A on the image with a second transformed point P''on the view plane, And performs calculations for the user locations (v1, v2, v3) based on a second conversion point.
제10항에 있어서,
상기 이미지 상의 두 개의 특징점 A, B에 대하여,
상기 사용자 위치(v1, v2, v3)는,
Figure 112016127127797-pat00045
또는
Figure 112016127127797-pat00046

Figure 112016127127797-pat00047
또는
Figure 112016127127797-pat00048

Figure 112016127127797-pat00049
또는
Figure 112016127127797-pat00050
로 결정되고,
A1, A2, A3은 A의 3차원 좌표의 각 좌표이고,
B1, B2, B3은 B의 3차원 좌표의 각 좌표이고,
pml은 (P-L) 값이고,
P는 상기 뷰 평면 상의 변환된 좌표이고,
L은
Figure 112016127127797-pat00051
이고,
R은
Figure 112016127127797-pat00052
이고,
S는
Figure 112016127127797-pat00053
또는
Figure 112016127127797-pat00054
이고,
d는 상기 카메라에서 상기 뷰 평면까지의 수직 거리이고, n은 상기 수직 거리에 대한 단위 벡터(unit vector),
g1, g2는 단위 벡터 R, S에 대한 크기를 나타내는 것으로 결정되는, 이동 단말기.
11. The method of claim 10,
For two feature points A and B on the image,
The user locations (v1, v2, v3)
Figure 112016127127797-pat00045
or
Figure 112016127127797-pat00046

Figure 112016127127797-pat00047
or
Figure 112016127127797-pat00048

Figure 112016127127797-pat00049
or
Figure 112016127127797-pat00050
Lt; / RTI >
A1, A2, and A3 are respective coordinates of the three-dimensional coordinates of A,
B1, B2, and B3 are respective coordinates of the three-dimensional coordinates of B,
pml is the (PL) value,
P is the transformed coordinate on the view plane,
L is
Figure 112016127127797-pat00051
ego,
R is
Figure 112016127127797-pat00052
ego,
S is
Figure 112016127127797-pat00053
or
Figure 112016127127797-pat00054
ego,
d is a vertical distance from the camera to the view plane, n is a unit vector of the vertical distance,
g1, g2 are determined to represent the sizes for the unit vectors R, S.
KR1020160178770A 2016-12-26 2016-12-26 Mobile terminal performing augmented reality servcie and mehod thereof KR101900759B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160178770A KR101900759B1 (en) 2016-12-26 2016-12-26 Mobile terminal performing augmented reality servcie and mehod thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160178770A KR101900759B1 (en) 2016-12-26 2016-12-26 Mobile terminal performing augmented reality servcie and mehod thereof

Publications (2)

Publication Number Publication Date
KR20180075723A KR20180075723A (en) 2018-07-05
KR101900759B1 true KR101900759B1 (en) 2018-09-21

Family

ID=62920628

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160178770A KR101900759B1 (en) 2016-12-26 2016-12-26 Mobile terminal performing augmented reality servcie and mehod thereof

Country Status (1)

Country Link
KR (1) KR101900759B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022080869A1 (en) * 2020-10-14 2022-04-21 삼성전자 주식회사 Method for updating 3-dimensional map using image, and electronic device for supporting same

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102312531B1 (en) * 2020-11-05 2021-10-14 (주)케이넷 이엔지 Location system and computing device for executing the system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101665386B1 (en) * 2010-11-15 2016-10-12 한화테크윈 주식회사 Method and apparatus for estimating position in a mobile robot
KR101329111B1 (en) * 2012-05-02 2013-11-14 한국과학기술연구원 System and method for indoor navigation
KR101707279B1 (en) * 2014-06-30 2017-02-16 건국대학교 산학협력단 Coordinate Calculation Acquisition Device using Stereo Image and Method Thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022080869A1 (en) * 2020-10-14 2022-04-21 삼성전자 주식회사 Method for updating 3-dimensional map using image, and electronic device for supporting same

Also Published As

Publication number Publication date
KR20180075723A (en) 2018-07-05

Similar Documents

Publication Publication Date Title
US9316501B2 (en) Generating magnetic field map for indoor positioning
EP2844009B1 (en) Method and system for determining location and position of image matching-based smartphone
US9109889B2 (en) Determining tilt angle and tilt direction using image processing
US20150092048A1 (en) Off-Target Tracking Using Feature Aiding in the Context of Inertial Navigation
Burschka et al. V-GPS (SLAM): Vision-based inertial system for mobile robots
CN109059895A (en) A kind of multi-modal indoor ranging and localization method based on mobile phone camera and sensor
Tian et al. Towards ubiquitous indoor localization service leveraging environmental physical features
Ruotsalainen et al. Heading change detection for indoor navigation with a smartphone camera
TWM560099U (en) Indoor precise navigation system using augmented reality technology
KR101900759B1 (en) Mobile terminal performing augmented reality servcie and mehod thereof
KR101573289B1 (en) Apparatus and method for recongnizing position using camera
Aicardi et al. Sensors integration for smartphone navigation: performances and future challenges
US9817099B2 (en) System and method for precision collaborative targeting
KR101459522B1 (en) Location Correction Method Using Additional Information of Mobile Instrument
KR101601726B1 (en) Method and system for determining position and attitude of mobile terminal including multiple image acquisition devices
CN110268438B (en) Image database construction device, position and inclination estimation device, and image database construction method
Qian et al. Optical flow-based gait modeling algorithm for pedestrian navigation using smartphone sensors
KR101578158B1 (en) Device and method for calculating position value
KR102445400B1 (en) Method and apparatus for tracking the movement path of a user terminal
Cao et al. The deployment of a Wi-Fi positioning system via crowdsourcing
CN110675446A (en) Positioning method and device
Hoffmann et al. Robust pedestrian dead reckoning using anchor point recalibration
Yun et al. Sub-meter accuracy 3D indoor positioning algorithm by matching feature points of 2D smartphone photo
Liu et al. A novel camera calibration method of variable focal length based on single-view
US20230410351A1 (en) Terminal device for indoor positioning based on object recognition, service server, and method therefor

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right