KR101601926B1 - Sensor measurement error correction apparatus for measuring direction using image analysis and method of the same - Google Patents

Sensor measurement error correction apparatus for measuring direction using image analysis and method of the same Download PDF

Info

Publication number
KR101601926B1
KR101601926B1 KR1020140106291A KR20140106291A KR101601926B1 KR 101601926 B1 KR101601926 B1 KR 101601926B1 KR 1020140106291 A KR1020140106291 A KR 1020140106291A KR 20140106291 A KR20140106291 A KR 20140106291A KR 101601926 B1 KR101601926 B1 KR 101601926B1
Authority
KR
South Korea
Prior art keywords
information
value
sensor
image
image information
Prior art date
Application number
KR1020140106291A
Other languages
Korean (ko)
Other versions
KR20160020930A (en
Inventor
김홍엽
Original Assignee
김홍엽
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김홍엽 filed Critical 김홍엽
Priority to KR1020140106291A priority Critical patent/KR101601926B1/en
Publication of KR20160020930A publication Critical patent/KR20160020930A/en
Application granted granted Critical
Publication of KR101601926B1 publication Critical patent/KR101601926B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C25/00Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R35/00Testing or calibrating of apparatus covered by the other groups of this subclass
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/03Cooperating elements; Interaction or communication between different cooperating elements or between cooperating elements and receivers
    • G01S19/07Cooperating elements; Interaction or communication between different cooperating elements or between cooperating elements and receivers providing data for correcting measured positioning data, e.g. DGPS [differential GPS] or ionosphere corrections
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Manufacturing & Machinery (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Theoretical Computer Science (AREA)
  • Navigation (AREA)

Abstract

본 발명은 이미지 분석을 이용하여 정확한 방향을 측정하기 위한 센서 측정 오차 보정 장치 및 그 방법에 관한 것이다. 본 발명의 센서 측정 오차 보정 장치는 방향을 측정하기 위한 다수의 센서들을 갖는 모바일 단말기에 구비된다. 센서들은 방향 측정 센서와, 카메라 센서 및 GPS 센서 등을 포함한다. 센서 측정 오차 보정 장치는 방향 측정 센서와 카메라 센서로부터 수집된 방향 정보와 이미지 정보로부터 외곽선 분석 또는 특정 위치 분석을 통하여 보정값을 산출한다. 본 발명에 의하면, 카메라 센서에 의해서 얻은 이미지 정보를 분석하여 오차값을 보정하고, 측정 방향에 대한 3 차원축 좌표값을 정확히 인식하며, 이미지 정보 및 지도 정보에 특정 위치에 대한 위치값을 정확히 표시 및 제공할 수 있다.The present invention relates to a sensor measurement error correction apparatus and a method thereof for measuring an accurate direction using image analysis. A sensor measurement error correction apparatus of the present invention is provided in a mobile terminal having a plurality of sensors for measuring directions. The sensors include a directional sensor, a camera sensor and a GPS sensor. The sensor measurement error correction device calculates the correction value from the direction information and image information collected from the direction measurement sensor and the camera sensor through outline analysis or specific position analysis. According to the present invention, the error value is corrected by analyzing the image information obtained by the camera sensor, the three-dimensional coordinate value of the measurement direction is accurately recognized, and the positional value of the specific position is accurately displayed in the image information and the map information And the like.

Description

이미지 분석을 이용하여 방향을 측정하기 위한 센서 측정 오차 보정 장치 및 그 방법{SENSOR MEASUREMENT ERROR CORRECTION APPARATUS FOR MEASURING DIRECTION USING IMAGE ANALYSIS AND METHOD OF THE SAME}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a sensor measurement error correction apparatus and a method thereof,

본 발명은 센서 측정 오차 보정 장치에 관한 것으로, 좀 더 구체적으로 GPS 센서에 의해서 측정된 지점의 위치 정보와 방향 측정 센서에 의해서 측정된 센서 정보를 이용하여 가상의 3 차원 지형에 대한 관측 지점을 위치시키고, 카메라 센서로부터 이미지 정보를 획득하여, 측정 방향을 기준으로 획득된 이미지 정보를 분석해서 센서들에 대한 오차를 보정함으로써, 정밀한 방향을 측정할 수 있도록 하는 센서 측정 오차 보정 장치 및 그 방법에 관한 것이다.
[0001] The present invention relates to a sensor measurement error correction apparatus, and more particularly, to an apparatus for correcting a sensor measurement error using position information of a point measured by a GPS sensor and sensor information measured by a direction measurement sensor, The present invention relates to a sensor measurement error correction apparatus and method for acquiring image information from a camera sensor and analyzing image information obtained based on the measurement direction to correct an error with respect to sensors, will be.

스마트폰 등과 같은 모바일 단말기의 사용이 급속도로 증가하면서, 모바일 단말기의 휴대성을 이용하여 실생활에 연계하여 이용할 수 있는 다양한 기능들에 대한 개발이 지속적으로 이루어지고 있다. 그 중에서 상기 모바일 단말기를 이용한 위치, 방향 및 거리를 측정하는 방법 등이 다양하게 제시되고 있다.The use of mobile terminals such as smart phones has been rapidly increasing, and various functions that can be used in connection with real life by utilizing the portability of mobile terminals have been continuously developed. A method of measuring a position, a direction and a distance using the mobile terminal, and the like.

일반적으로 모바일 단말기를 이용하여 위치를 측정하는 방법으로는 GPS 수신기를 장착하여 위치 정보를 얻거나, 이동 통신 기지국이나 무선랜(WLAN)의 무선 전파를 이용하여 위치를 구하는 방법 등이 알려져 있다.Generally, as a method of measuring a position using a mobile terminal, there is known a method of acquiring position information by mounting a GPS receiver or obtaining a position using a radio wave of a mobile communication base station or a wireless LAN (WLAN).

또한, 모바일 단말기는 GPS 센서, 방향 측정 센서 등 다양한 센서들을 구비하여, 위치를 측정하거나, 방향, 가속, 기압 등과 같은 환경 속성을 감지한다. 이 센서들 중 방향 측정 센서는 물리 센서로서, 센서에서 측정된 3 개의 축정보를 모바일 단말기에서 사용하게 된다. 즉, 방향을 측정하는 센서는 지구 및 스마트폰의 3 차원 방향에 대해, X 축은 지구의 진북을 가리키는 방향, Y 축은 대략적으로 동쪽 방향을 가리키는 수평 방향, Z 축은 지구의 바깥 방향을 가리키는 수직 방향에 대한 값을 수집한다.In addition, the mobile terminal includes various sensors such as a GPS sensor and a direction measurement sensor, and measures the position, and detects environmental attributes such as direction, acceleration, and air pressure. Among these sensors, the direction measurement sensor is a physical sensor, and the three axis information measured by the sensor is used in the mobile terminal. In other words, the sensor for measuring the direction has a value for the three-dimensional direction of the earth and the smartphone, the X axis indicates the direction pointing toward the true north of the earth, the Y axis indicates the horizontal direction indicating the east direction, and the Z axis indicates the value Lt; / RTI >

그러나 스마트폰의 방향 측정 센서의 수집값에는 다양한 오차가 포함되어 있다. 예를 들어, 기기별 측정치의 오차, 측정 지형의 환경적인 요인(예를 들어, 측정 위치의 주변에 금속성 성분이 많은 경우 등)으로 인한 오차, 방향 측정값이 시간이 지날수록 변하는 오차 등으로 인하여 정확한 방향 정보의 측정은 제한이 된다.
However, there are various errors in the collection value of the direction measurement sensor of the smartphone. For example, errors due to instrumental errors, environmental factors of the measured topography (eg, when there are many metallic components around the measurement site), and errors that change as the direction measurements change over time Measurement of accurate direction information is limited.

국내 공개특허공보 제10-2010-0060472호(공개일 2010년 06월 07일)Korean Patent Publication No. 10-2010-0060472 (published on June 07, 2010) 국내 등록특허공보 제10-1365291호(공고일 2014년 02월 19일)Korean Patent Registration No. 10-1365291 (Published on Feb. 19, 2014) 국내 등록특허공보 제10-1332042호(공고일 2013년 11월 22일)Korean Registered Patent No. 10-1332042 (Published on Nov. 22, 2013) 국내 등록특허공보 제10-1383818호(공고일 2014년 04월 08일)Korean Registered Patent No. 10-1383818 (Announcement date Apr. 08, 2014)

본 발명의 목적은 이미지 분석을 이용하여 방향을 측정하기 위한 센서 측정 오차 보정 장치 및 그 방법을 제공하는 것이다.It is an object of the present invention to provide a sensor measurement error correction apparatus and method for measuring a direction using image analysis.

본 발명의 다른 목적은 방향을 측정하는 다양한 센서들을 구비하는 모바일 장치의 정확한 방향을 측정하기 위하여, 센서 오차를 보정하는 센서 측정 오차 보정 장치 및 그 방법을 제공하는 것이다.It is another object of the present invention to provide a sensor measurement error correction apparatus and method for correcting a sensor error in order to measure a precise direction of a mobile device having various sensors for measuring a direction.

본 발명의 또 다른 목적은 3 차원 지형 정보와 이미지 정보를 이용하여 측정 방향의 오차를 보정하는 센서 측정 오차 보정 장치 및 그 방법을 제공하는 것이다.
It is still another object of the present invention to provide a sensor measurement error correction apparatus and method for correcting an error of a measurement direction using three-dimensional topographic information and image information.

상기 목적들을 달성하기 위한, 본 발명의 센서 측정 오차 보정 장치는 3 차원 지형 정보와 카메라 센서로 획득된 이미지 정보를 이용하여 센서의 측정 오차를 보정하는데 그 한 특징이 있다. 이와 같은 센서 측정 오차 보정 장치는 3 차원 지형 정보에 따른 3 차원축 좌표값을 이용하여 이미지 정보의 외곽선 또는 특정 지점의 좌표값을 산출하고, 이를 이미지 정보의 외곽선 또는 특정 지점의 좌표값과 비교, 분석하여 방향 측정에 따른 오차값을 보정 가능하게 한다.In order to achieve the above objects, an apparatus for correcting a sensor measurement error of the present invention is characterized by correcting a measurement error of a sensor using three-dimensional topographic information and image information obtained by a camera sensor. Such a sensor measurement error correction device calculates a coordinate value of an outline or a specific point of image information by using a three-dimensional coordinate coordinate value according to three-dimensional topographic information, compares it with an outline of the image information or a coordinate value of a specific point, So that the error value according to the direction measurement can be corrected.

이 특징에 따른 본 발명의 방향 측정 센서와 카메라 센서 및 GPS 센서를 구비하는 모바일 단말기의 센서 측정 오차 보정 장치는, 상기 방향 측정 센서로부터 상기 모바일 단말기의 세로 방향 또는 가로 방향으로 위치하였는지에 대한 기기 방향 정보를 수집하는 기기 방향 센서부와; 상기 방향 측정 센서로부터 측정된 상기 모바일 단말기의 방향 정보를 수집하는 방향 정보 센서부와; 상기 카메라 센서로부터 획득된 이미지 정보를 수집하는 이미지 센서부 및; 상기 기기 방향 정보를 받아서 상기 모바일 단말기의 세로 방향 또는 가로 방향 위치를 판별하고, 상기 방향 정보와 상기 이미지 정보를 받아서 상기 방향 정보에 따른 제1 외곽선 정보와, 상기 이미지 정보에 따른 제2 외곽선 정보를 생성하고, 상기 제1 및 상기 제2 외곽선 정보를 비교하여 제1 오차값을 산출하며, 상기 제1 오차값으로 상기 방향 정보와 상기 이미지 정보가 일치되도록 보정하는 계산 처리부를 포함한다.The device for correcting sensor measurement errors of a mobile terminal having a direction sensor, a camera sensor, and a GPS sensor according to the present invention may further include a direction measurement sensor for detecting a direction of the device, A device direction sensor unit for collecting the device; A direction information sensor unit for collecting direction information of the mobile terminal measured by the direction measurement sensor; An image sensor unit for acquiring image information obtained from the camera sensor; Receiving the device direction information and determining the vertical or horizontal position of the mobile terminal, receiving the direction information and the image information, and receiving first outline information according to the direction information and second outline information according to the image information, And a calculation processor for calculating the first error value by comparing the first and second outline information and correcting the direction information and the image information to coincide with the first error value.

이 특징의 한 실시예에 있어서, 상기 계산 처리부는; 적어도 2 개의 특정 위치에 대한 좌표값을 선정하고, 선정된 상기 좌표값과, 상기 이미지 정보에서 상기 특정 위치에 대한 좌표값을 비교하여 제2 오차값을 산출하며, 상기 제2 오차값으로 상기 방향 정보와 상기 이미지 정보가 일치되도록 자동 보정하되; 상기 제1 및 상기 제2 오차값들 중 어느 하나를 선택하여 자동 보정한다.In one embodiment of this aspect, the calculation processing unit comprises: Calculating a second error value by comparing coordinate values of the at least two specific positions with coordinate values of the specific position in the image information, Automatically corrects the information to match the image information; The first and second error values are selected and automatically corrected.

다른 실시예에 있어서, 상기 계산 처리부는; 상기 이미지 정보에 오차 이미지가 포함되어 있으면, 상기 센서 측정 오차 보정 장치에 구비된 입력 정보 관리부를 통해 오차값을 입력하여 수동 보정하도록 처리한다.In another embodiment, the calculation processing unit comprises: If an error image is included in the image information, an error value is input through an input information management unit provided in the sensor measurement error correction apparatus to perform manual correction.

또 다른 실시예에 있어서, 상기 센서 측정 오차 보정 장치는; 상기 터치 패널을 통해 표시 모드를 선택하고, 상기 모바일 단말기에 표시되는 이미지 정보 또는 지도 정보에서 특정 위치를 선택하면, 상기 표시 모드에 대응하여 상기 특정 위치에 따른 입력값을 관리하는 입력 정보 관리부와; 상기 입력 정보 관리부로부터 상기 입력값을 받아서 상기 지도 정보 또는 상기 이미지 정보 각각에 대해 상기 특정 위치를 표시하도록 상기 입력값을 출력값으로 변환하는 출력 정보 변환부와; 상기 표시 모드가 지도 모드로 선택되면, 상기 출력 정보 변환부로부터 상기 출력값을 포함하는 상기 지도 정보를 표시하도록 하는 지도 정보 표시부 및; 상기 표시 모드가 이미지 모드로 선택되면, 상기 출력 정보 변환부로부터 상기 출력값을 포함하는 이미지 정보를 표시하도록 하는 이미지 정보 표시부를 더 포함한다.In another embodiment, the sensor measurement error correction apparatus comprises: An input information management unit for managing an input value corresponding to the specific position in response to the display mode when a display mode is selected through the touch panel and a specific position is selected from image information or map information displayed on the mobile terminal; An output information converting unit for receiving the input value from the input information managing unit and converting the input value to an output value so as to display the specific position for each of the map information or the image information; A map information display unit for displaying the map information including the output value from the output information conversion unit when the display mode is selected as the map mode; And an image information display unit for displaying the image information including the output value from the output information conversion unit when the display mode is selected as the image mode.

또 다른 실시예에 있어서, 상기 출력 정보 변환부는; 상기 입력 정보 관리부로부터 상기 이미지 정보에서 상기 특정 위치가 선택되면, 상기 이미지 정보에 대응되는 3 차원 지형 정보에서 상기 특정 위치에 대한 3 차원 지형 위치로 변환하고, 상기 3 차원 지형 위치를 관측 지점에서의 거리 및 방위각을 산출하여 상기 지도 정보에 표시하도록 한다.In another embodiment, the output information conversion unit may include: Dimensional terrain position corresponding to the image information to a three-dimensional terrain position for the specific position when the specific position is selected from the image information from the input information management unit, and converts the three- Distance and azimuth are calculated and displayed on the map information.

본 발명의 다른 특징에 따르면, 3 차원 지형 정보와 카메라 센서로 획득된 이미지 정보를 이용하여 센서의 측정 오차를 보정하는 센서 측정 오차 보정 장치의 처리 방법이 제공된다.According to another aspect of the present invention, there is provided a method of processing a sensor measurement error correction apparatus for correcting a measurement error of a sensor using three-dimensional topographic information and image information obtained by a camera sensor.

이 특징에 따른 방향 측정 센서와 카메라 센서 및 GPS 센서를 구비하는 모바일 단말기의 센서 측정 오차 보정 장치의 처리 방법은, 상기 방향 측정 센서로부터 상기 모바일 단말기의 가로 방향 또는 세로 방향으로 위치되었는지에 대한 기기 방향 정보를 수집하는 단계와; 상기 방향 측정 센서로부터 모바일 단말기의 측정 방향에 따른 방향 정보를 수집하는 단계와; 상기 방향 정보를 이용하여 측정 방향에 대한 3 차원 지형을 분석하는 단계와; 상기 카메라 센서를 이용하여 측정 방향에 대한 이미지 정보를 수집하는 단계와; 상기 카메라 센서로부터 수집된 이미지 정보를 분석하여 이미지 정보에 대한 외곽선 정보를 산출하는 단계와; 상기 3 차원 지형 분석과 상기 이미지 정보 분석 결과를 비교하여 측정된 방향 정보의 오차값을 산출하는 단계와; 상기 오차값을 이용하여 자동 보정 가능한지를 판별하는 단계와; 상기 오차값이 자동 보정 가능하면, 산출된 상기 오차값을 적용하여 좌우, 상하 및 회전 방향값으로 자동 보정하고, 상기 오차값이 자동 보정 가능하지 않으면, 사용자에 의해 상기 오차값을 보정할 수 있도록 수동으로 상기 오차값을 입력하는 단계 및; 보정이 완료되면, 표시 모드에 따른 지도 정보 또는 이미지 정보를 표시하도록 처리하는 단계를 포함한다.A processing method of a sensor measurement error correction apparatus of a mobile terminal having a direction measurement sensor, a camera sensor, and a GPS sensor according to the present invention is characterized by comprising: Collecting information; Collecting direction information from the direction measurement sensor according to a measurement direction of the mobile terminal; Analyzing the three-dimensional topography of the measurement direction using the direction information; Collecting image information about a measurement direction using the camera sensor; Analyzing image information collected from the camera sensor and calculating outline information for image information; Calculating an error value of the measured direction information by comparing the 3D terrain analysis and the image information analysis result; Determining whether an automatic correction is possible using the error value; If the error value is automatically correctable, the calculated error value is applied to automatically correct the error value to left, right, up and down direction and rotational direction value, and if the error value is not automatically correctable, the error value can be corrected by the user Manually inputting the error value; And when the correction is completed, processing to display map information or image information according to the display mode.

이 특징의 한 실시예에 있어서, 상기 3 차원 지형을 분석하는 단계는; 상기 모바일 단말기에 구비되는 3 차원 지형 정보를 활용하여, 상기 GPS 센서의 위치 정보와, 상기 방향 측정 센서에 의해서 측정된 방향 정보를 이용하여 가상의 3 차원 지형에 하나의 관측 지점을 위치시키고, 상기 카메라 센서에 의해서 획득된 이미지 정보를 이용하여 측정 방향을 기준으로 분석 시작점으로부터 분석 종료점까지 외곽선 정보를 읽어들여서 3 차원 지형을 분석하여, 상기 3 차원 지형 정보에 대한 외곽선 정보를 산출한다.In one embodiment of this aspect, analyzing the 3D terrain includes: Positioning one observation point on a virtual three-dimensional terrain by using three-dimensional topographic information provided in the mobile terminal, using the position information of the GPS sensor and the direction information measured by the direction measuring sensor, The image information obtained by the camera sensor is used to read outline information from the analysis start point to the analysis end point on the basis of the measurement direction to analyze the three-dimensional topography, and the outline information on the three-dimensional topography information is calculated.

다른 실시예에 있어서, 상기 이미지 정보를 분석하는 단계는; 상기 이미지 정보에서 상하 방향의 직선 단위로 픽셀값을 로드하고, 상기 픽셀값을 3 개의 컬러 영상 값들로 각각 분석하고, 상기 컬러 영상값의 변화량을 분석하여 다른 지점의 컬러 영상값에 비해 급격히 변화하는 지점을 인식하여 상기 이미지 정보에서의 특정 지점에 대한 외곽선 정보를 생성한다.In another embodiment, analyzing the image information comprises: A pixel value is loaded in a linear unit in the vertical direction in the image information, the pixel value is analyzed as each of the three color image values, the variation amount of the color image value is analyzed, And generates outline information for a specific point in the image information.

또 다른 실시예에 있어서, 상기 오차값을 산출하는 단계는; 상기 3 차원 지형 분석과 상기 이미지 정보 분석 결과에 따른 외곽선 정보를 동일선상에 일치되도록 비교하여, 2 개의 외곽선 정보의 차이값으로 상기 오차값을 산출하거나, 상기 방향 정보에 대응하는 적어도 2 개의 특정 위치에 대한 3 차원축 좌표값을 산출하고, 상기 이미지 정보에서 상기 특정 위치에 대응되는 적어도 2 개의 특정 지점에 대한 특정값을 산출하여, 상기 특정 위치의 좌표값과 상기 특정값을 동일한 위치가 되도록 비교하여, 상기 좌표값과 상기 특정값에 대한 차이값을 상기 오차값으로 산출한다.In yet another embodiment, the step of calculating the error value comprises: Dimensional terrain analysis and the outline information according to the image information analysis result are compared with each other so as to coincide with each other on the same line to calculate the error value with the difference value of the two outline information or at least two specific positions corresponding to the direction information Calculating coordinate values of at least two specific points corresponding to the specific position in the image information, comparing the coordinates of the specific position with the specific value so as to be at the same position, And calculates the difference value between the coordinate value and the specific value as the error value.

또 다른 실시예에 있어서, 상기 지도 정보 또는 상기 이미지 정보를 표시하도록 처리하는 단계는; 상기 표시 모드 중 상기 지도 모드가 선택되면, 사용자가 선택한 위치에 대한 특정 위치값을 포함한 이미지 정보에 대응하는 지도 정보를 표시하고, 상기 이미지 정보의 상기 특정 위치값을 상기 지도 정보에 표시될 수 있도록 변환하여, 상기 지도 정보를 표시하도록 하거나, 상기 표시 모드 중 상기 이미지 모드가 선택되면, 사용자가 선택한 위치에 대한 상기 특정 위치값을 포함한 지도 정보에 대응하는 이미지 정보를 표시하고, 상기 지도 정보의 상기 특정 위치값을 상기 이미지 정보에 표시될 수 있도록 변환하여, 상기 이미지 정보를 표시하도록 한다.
In yet another embodiment, the processing to display the map information or the image information comprises: And displaying the map information corresponding to the image information including the specific position value for the position selected by the user when the map mode is selected in the display mode and displaying the specific position value of the image information on the map information And displays the map information. When the image mode is selected in the display mode, the display unit displays image information corresponding to the map information including the specific position value for the position selected by the user, A specific position value is converted so as to be displayed in the image information, and the image information is displayed.

상술한 바와 같이, 본 발명의 센서 측정 오차 보정 장치는 방향을 측정하는 센서들을 구비하는 모바일 장치의 센서 측정 오차를 보정하여 정확한 방향을 측정할 수 있다.As described above, the sensor measurement error correction apparatus of the present invention can measure the accurate direction by correcting the sensor measurement error of the mobile device having the sensors for measuring the direction.

또 본 발명의 센서 측정 오차 보정 장치는 방향 측정 센서와 카메라 센서로부터 수집된 이미지 정보를 이용하여 보정값을 산출함으로써, 카메라 센서에 의해서 모바일 단말기에 표시되는 이미지의 정확한 3 차원축 좌표값을 인식하고, 모바일 단말기에 표시되는 이미지의 특정 위치에 대한 정확한 2 차원 위치값 예를 들어, 위경도, 군사 좌표(Military Grid Reference System : MGRS) 등의 2 차원 위치값 및 2 차원 위치값에 해당되는 이미지의 위치값을 제공할 수 있다.Further, the apparatus for correcting sensor measurement error of the present invention may calculate the correction value using the image information collected from the direction measurement sensor and the camera sensor, thereby recognizing the accurate three-dimensional coordinate value of the image displayed on the mobile terminal by the camera sensor An accurate two-dimensional position value for a specific position of an image displayed on the mobile terminal, for example, a two-dimensional position value such as a midsagittal coordinate system (Military Grid Reference System: MGRS), and an image corresponding to a two- Position value.

또한 본 발명의 센서 측정 오차 보정 장치는 방향 측정 센서와 카메라 센서로부터 수집된 이미지 정보를 이용하여 보정값을 산출함으로써, 이미지 정보로부터 지도 정보를 변환하거나 지도 정보로부터 이미지 정보로 변환하여 정확한 측정 방향 및 위치값을 표시할 수 있다.Further, the apparatus for correcting sensor measurement error according to the present invention may convert map information from image information or image information from map information by calculating a correction value using image information collected from a direction sensor and a camera sensor, The position value can be displayed.

뿐만 아니라, 본 발명의 센서 측정 오차 보정 장치는 방향 측정 시, 센서들의 측정 오차를 자동 또는 수동으로 보정 처리 가능하다.
In addition, the sensor measurement error correction apparatus of the present invention is capable of automatically or manually correcting the measurement error of the sensors during orientation measurement.

도 1은 본 발명에 따른 방향 측정을 위한 센서 오차 보정 장치를 구비하는 모바일 단말기의 구성을 도시한 블럭도;
도 2는 본 발명에 따른 방향 측정을 위한 센서 오차 보정 장치의 처리 수순을 도시한 흐름도;
도 3은 도 1에 도시된 기기 방향 센서부에 의한 모바일 단말기의 기기 방향 정보 수집을 설명하기 위한 도면;
도 4는 도 1에 도시된 방향 정보 센서부에 의한 모바일 단말기의 방향 정보 수집을 설명하기 위한 도면;
도 5는 본 발명에 따른 모바일 단말기의 3 차원 지형 정보를 측정하기 위한 도면;
도 6은 도 1에 도시된 계산 처리부의 3 차원 및 이미지 외곽값을 생성 및 비교하기 위한 과정들을 나타내는 도면;
도 7은 도 1에 도시된 계산 처리부의 이미지 분석 과정을 설명하기 위한 도면;
도 8은 도 7에 도시된 이미지 분석 결과에 따른 RGB 픽셀값을 나타내는 도면들;
도 9는 도 6에 도시된 외곽값을 이용하여 보정값을 산출하는 과정들을 나타내는 도면;
도 10은 본 발명에 따른 특정 위치를 분석하기 위한 특정값을 생성 및 비교하는 과정들을 나타내는 도면;
도 11은 도 10에 도시된 특정 위치의 특정값을 이용하여 보정값을 산출하는 과정들을 나타내는 도면;
도 12는 본 발명에 따른 오차 이미지를 포함하는 이미지 정보를 나타내는 도면;
도 13은 도 12에 도시된 이미지 정보의 수동 보정을 위한 과정들을 나타내는 도면;
도 14는 도 12에 도시된 이미지 정보의 수동 보정 전후를 나타내는 도면;
도 15는 본 발명에 따른 이미지 정보로부터 지도 정보로 변환하는 기능을 설명하기 위한 도면;
도 16은 본 발명에 따른 지도 정보로부터 이미지 정보로 변환하는 기능을 설명하기 위한 도면;
도 17은 도 16에 도시된 이미지 정보로 변환 시, 가시선 상에 선택 위치가 있는지를 판별하기 위한 가시선 분석을 설명하는 도면; 그리고
도 18은 본 발명에 따른 이미지 정보와 지도 정보를 매칭시키는 과정을 설명하기 위한 도면이다.
1 is a block diagram illustrating a configuration of a mobile terminal including a sensor error correction device for direction measurement according to the present invention;
FIG. 2 is a flowchart illustrating a processing procedure of a sensor error correcting apparatus for direction measurement according to the present invention; FIG.
3 is a view for explaining the device direction information collection of the mobile terminal by the device direction sensor unit shown in FIG. 1;
4 is a view for explaining direction information collection of the mobile terminal by the direction information sensor unit shown in FIG. 1;
5 is a diagram for measuring 3D terrain information of a mobile terminal according to the present invention;
FIG. 6 is a diagram illustrating processes for generating and comparing three-dimensional and image outline values of the calculation processing unit shown in FIG. 1; FIG.
FIG. 7 is a diagram for explaining an image analysis process of the calculation processing unit shown in FIG. 1; FIG.
FIG. 8 is a diagram illustrating RGB pixel values according to the image analysis result shown in FIG. 7;
FIG. 9 is a diagram illustrating a process of calculating a correction value using the outer values shown in FIG. 6; FIG.
10 illustrates processes for generating and comparing specific values for analyzing a particular location in accordance with the present invention;
11 is a diagram illustrating a process of calculating a correction value using a specific value of a specific position shown in FIG. 10;
12 illustrates image information including an error image according to the present invention;
13 is a diagram illustrating processes for manual correction of the image information shown in FIG. 12;
Fig. 14 is a diagram showing before and after manual correction of the image information shown in Fig. 12; Fig.
15 is a diagram for explaining a function of converting image information into map information according to the present invention;
16 is a diagram for explaining a function of converting map information into image information according to the present invention;
17 is a view for explaining line-of-sight analysis for discriminating whether or not there is a selection position on a visible line when converting into the image information shown in Fig. 16; Fig. And
18 is a view for explaining a process of matching image information and map information according to the present invention.

본 발명의 실시예는 여러 가지 형태로 변형될 수 있으며, 본 발명의 범위가 아래에서 서술하는 실시예로 인해 한정되어지는 것으로 해석되어서는 안된다. 본 실시예는 당업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위해서 제공되는 것이다. 따라서 도면에서의 구성 요소의 형상 등은 보다 명확한 설명을 강조하기 위해서 과장되어진 것이다.The embodiments of the present invention can be modified into various forms and the scope of the present invention should not be interpreted as being limited by the embodiments described below. The present embodiments are provided to enable those skilled in the art to more fully understand the present invention. Therefore, the shapes and the like of the components in the drawings are exaggerated in order to emphasize a clearer explanation.

이하 첨부된 도 1 내지 도 18을 참조하여 본 발명의 실시예를 상세히 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to FIGS. 1 to 18 attached hereto.

도 1은 본 발명에 따른 센서 측정 오차 보정 장치를 구비하는 모바일 단말기의 구성을 도시한 블럭도이고, 도 3 내지 도 18 까지는 본 발명에 따른 센서 측정 오차 보정 장치의 보정값을 생성하는 과정들을 설명하기 위한 도면들이다.FIG. 1 is a block diagram illustrating a configuration of a mobile terminal having a sensor measurement error correction apparatus according to the present invention. FIGS. 3 to 18 illustrate processes of generating a correction value of the sensor measurement error correction apparatus according to the present invention FIG.

도 1을 참조하면, 본 발명의 센서 측정 오차 보정 장치(110)는 이미지 정보를 분석하여 방향 측정 센서(102)와 카메라 센서(104)들로부터 측정된 방향 정보의 오차를 보정한다.Referring to FIG. 1, the apparatus for correcting sensor measurement error 110 of the present invention analyzes image information and corrects an error of direction information measured from the direction measurement sensor 102 and the camera sensors 104.

본 발명의 모바일 단말기(100)는 예를 들어, 스마트 폰, 타블릿 컴퓨터 등의 휴대용 전자 장치로, 방향 측정 센서(102)와 카메라 센서(104)와, 터치 패널(106) 및 센서 측정 오차 보정 장치(110)를 구비한다. 또 모바일 단말기(100)는 도면에는 도시되지 않았으나, 모바일 단말기(100)의 위치 정보를 측정하기 위한 GPS 센서를 구비한다. 센서 측정 오차 보정 장치(110)는 방향 측정 센서(102)로부터 측정된 방향 정보와, 카메라 센서(104)로부터 획득한 이미지 정보를 이용하여 모바일 단말기(100)의 측정된 방향 정보의 오차를 보정한다.The mobile terminal 100 of the present invention may be a portable electronic device such as a smart phone or a tablet computer, and may include a directional sensor 102 and a camera sensor 104, a touch panel 106, (110). The mobile terminal 100 includes a GPS sensor for measuring position information of the mobile terminal 100, though it is not shown in the figure. The sensor measurement error correction device 110 corrects the error of the measured direction information of the mobile terminal 100 using the direction information measured from the direction measurement sensor 102 and the image information acquired from the camera sensor 104 .

또 모바일 단말기(100)는 입출력 장치로 터치 패널(106)을 구비하고 있지만, 다른 예로서, 다수의 입력키들을 갖는 키패드와, LCD 패널, OLED 패널 등과 같은 표시 장치로 구비될 수도 있다. 이 실시예에서는 터치 패널(106)을 이용하여 다양한 입력 정보를 수집하거나 출력 정보를 표시한다.Also, the mobile terminal 100 is provided with a touch panel 106 as an input / output device. Alternatively, the mobile terminal 100 may be provided with a keypad having a plurality of input keys and a display device such as an LCD panel, an OLED panel, or the like. In this embodiment, the touch panel 106 collects various input information or displays output information.

이를 위해, 본 발명의 센서 측정 오차 보정 장치(110)는 기기 방향 센서부(112)와, 방향 정보 센서부(114)와, 이미지 센서부(116)와, 계산 처리부(118)와, 입력 정보 관리부(120)와, 출력 정보 변환부(122)와, 지도 정보 표시부(124) 및 이미지 정보 표시부(126)를 포함한다. 또 본 발명의 센서 측정 오차 보정 장치(110)는 지형 정보에 대해 3 차원축 좌표값을 포함하는 3 차원 지형 정보(128)를 구비한다. 이 실시예에서 본 발명의 센서 측정 오차 보정 장치(110)는 컴퓨터 프로그래밍 가능한 알고리즘 및 모듈 등으로 구비되었으나, 동일한 기능이 처리 가능한 반도체 소자 등의 하드웨어로 구비될 수도 있음은 자명하다.To this end, the sensor measurement error correction apparatus 110 of the present invention includes an apparatus direction sensor unit 112, a direction information sensor unit 114, an image sensor unit 116, a calculation processing unit 118, An output information conversion unit 122, a map information display unit 124, The sensor measurement error correction apparatus 110 of the present invention has three-dimensional topographic information 128 including three-dimensional coordinate values for the terrain information. In this embodiment, the sensor measurement error correction apparatus 110 of the present invention is provided with computer-programmable algorithms and modules, but it is obvious that the sensor measurement error correction apparatus 110 may be provided with hardware such as a semiconductor device capable of processing the same function.

구체적으로, 기기 방향 센서부(112)는 사용자가 방향 측정 시, 방향 측정 센서(102)로부터 측정된 기기 방향 정보를 수집한다. 즉, 기기 방향 센서부(112)는 모바일 단말기(100)의 세로 방향 또는 가로 방향으로 위치하였는지에 대한 방향 정보를 수집한다. 예를 들어, 모바일 단말기(100)를 도 3에 도시된 바와 같이, 세로 방향 또는 가로 방향으로 놓고 방향을 측정할 경우, 방향 정보의 3 차원축에 대한 측정값 중 Y 축 좌표값이 서로 다르게 측정된다. 즉, 세로 방향과 가로 방향으로 측정할 경우, 측정되는 Y 측 좌표값은 서로 90 도의 오차가 발생된다. 기기 방향 센서부(112)는 수집된 모바일 단말기(100)의 방향 위치에 따른 방향 정보를 계산 처리부(118)로 제공한다.Specifically, the device direction sensor unit 112 collects the measured device direction information from the direction measurement sensor 102 when the user measures the direction. That is, the device direction sensor unit 112 collects direction information on whether the device direction sensor unit 112 is located in the vertical direction or the horizontal direction of the mobile terminal 100. [ For example, when the mobile terminal 100 is placed in the longitudinal direction or the lateral direction as shown in FIG. 3, the Y axis coordinate values of the measured values for the three-dimensional axis of the direction information are measured do. That is, when the measurement is performed in the longitudinal direction and the lateral direction, an error of 90 degrees is generated between the measured Y side coordinate values. The device direction sensor unit 112 provides the calculation processing unit 118 with direction information according to the direction position of the collected mobile terminal 100.

방향 정보 센서부(114)는 모바일 단말기(100) 자체에서 제공되는 오차값이 포함된 3 차원축의 좌표값을 수집한다. 즉, 방향 정보 센서부(114)는 도 4에 도시된 바와 같이, 사용자가 방향을 측정하고자 하는 지점(200)을 모바일 단말기(100)의 중심 예를 들어, 터치 패널(106)의 중심에 위치하면, 3 차원 지형 정보(128)를 이용하여 방향 측정 센서(102)로부터 측정 지점에 대한 3 차원축의 좌표값(202)을 갖는 방향 정보를 수집한다. 방향 정보 센서부(114)는 수집된 방향 정보를 계산 처리부(118)로 제공한다.The direction information sensor 114 collects coordinate values of a three-dimensional axis including an error value provided from the mobile terminal 100 itself. 4, the direction information sensor 114 may detect a point 200 at which the user wishes to measure the direction at a center of the mobile terminal 100, for example, at the center of the touch panel 106 Dimensional direction information having the coordinate value 202 of the three-dimensional axis with respect to the measurement point from the direction measurement sensor 102 using the three-dimensional topographic information 128. [ The direction information sensor unit 114 provides the collected direction information to the calculation processing unit 118.

이미지 센서부(116)는 카메라 센서(104)에 의해서 획득되는 이미지 정보를 수집한다. 이미지 센서부(116)는 수집된 이미지 정보를 계산 처리부(118)로 제공한다.The image sensor unit 116 collects image information obtained by the camera sensor 104. [ The image sensor unit 116 provides the collected image information to the calculation processing unit 118.

또 본 발명의 센서 측정 오차 보정 장치(110)는 3 차원 지형 정보(128)를 활용하여 GPS 센서(미도시됨)를 이용하여 측정된 위치 정보와, 방향 측정 센서(102)에 의해서 측정된 방향 정보를 이용하여 도 5에 도시된 바와 같이, 가상의 3 차원 지형에 관측 지점(204)을 위치시키고, 카메라 센서(104)로부터 획득된 이미지 정보를 이용하여 측정 방향(210)을 기준으로 해서 분석 시작점(206)으로부터 분석 종료점(208)까지의 외곽선 정보를 읽어들인다. 여기서 외곽선 정보는 3 차원축에 대한 외곽값으로 구비된다.In addition, the sensor measurement error correction apparatus 110 of the present invention uses position information measured using a GPS sensor (not shown) utilizing the three-dimensional topographic information 128 and a direction measured by the direction measurement sensor 102 5, an observation point 204 is located in a virtual three-dimensional topography, and an analysis is performed based on the measurement direction 210 using the image information obtained from the camera sensor 104 The outline information from the start point 206 to the analysis end point 208 is read. Here, the outline information is provided as an outline value for the three-dimensional axis.

계산 처리부(118)는 방향 정보 센서부(114)로부터 수집된 방향 정보의 좌표값에 대해 오차를 보정하기 위해, 방향 정보와 카메라 센서(104)로부터 획득된 이미지 정보를 이용하여 보정값을 계산하고, 보정값을 이용하여 방향 측정 센서(102)로부터 측정된 오차가 포함된 방향 정보를 자동 또는 수동 보정한다.The calculation processing unit 118 calculates the correction value using the direction information and the image information acquired from the camera sensor 104 to correct the error with respect to the coordinate value of the direction information collected from the direction information sensor unit 114 , And automatically or manually corrects the direction information including the measured error from the direction measurement sensor 102 using the correction value.

즉, 계산 처리부(118)는 방향 정보 센서부(114)로부터 측정된 3 차원축에 대한 좌표값과, 이미지 센서부(116)로부터 획득된 이미지 정보를 분석, 비교하여 보정값을 산출한다. 이를 위해 계산 처리부(118)는 보정값을 산출하기 위한 자동 보정 기능과 수동 보정 기능을 구비한다.That is, the calculation processing unit 118 analyzes and compares the coordinate values of the three-dimensional axis measured by the direction information sensor unit 114 and the image information obtained from the image sensor unit 116 to calculate correction values. For this, the calculation processing unit 118 has an automatic correction function and a manual correction function for calculating correction values.

계산 처리부(118)의 자동 보정 기능은 이미지 정보에 대한 외곽값 분석과, 특정 위치 분석 중 어느 하나를 이용하여 자동으로 처리한다.The automatic correction function of the calculation processing unit 118 automatically performs processing using either outline value analysis for image information or specific position analysis.

자동 보정 기능에 의한 외곽값 분석은 도 6에 도시된 바와 같이, 계산 처리부(118)의 3 차원 분석 기능을 통하여 측정된 3 차원축 좌표값(202)으로부터 3 차원축에 대한 외곽값(212)을 산출하며, 계산 처리부(118)의 이미지 분석 기능을 통하여 이미지 센서부(116)로부터 수집된 이미지 정보(214)로부터 이미지 정보에 대한 외곽값(216)을 산출한다. 그리고 이 2 개의 외곽값(212, 216)을 계산 처리부(118)의 비교/분석 기능을 통하여 보정값을 산출하도록 비교(218)한다.As shown in FIG. 6, the outline value analysis by the automatic correction function calculates the outline value 212 for the three-dimensional axis from the three-dimensional axis coordinate value 202 measured through the three-dimensional analysis function of the calculation processing unit 118, And calculates the outer value 216 for the image information from the image information 214 collected from the image sensor unit 116 through the image analysis function of the calculation processing unit 118. Then, the two comparison values 212 and 216 are compared 218 to calculate the correction value through the comparison / analysis function of the calculation processing unit 118.

구체적으로, 외곽값 분석에 따른 보정값은 3 차원 외곽값(212)과 이미지 외곽값(216)을 비교하여 두 개의 외곽값(212, 216)이 일치되도록 이동하여 산출된다. 즉, 3 차원 외곽값(212)과 이미지 외곽값(216)이 동일한 위치가 되도록 하기 위하여, 도 9에 도시된 바와 같이, 보정 전 이미지(218)에서 이미지 외곽값(216)를 좌우로 이동하여 X 축에 대한 보정값을 산출(222)하고, 상하로 이동하여 Z 축에 대한 보정값을 산출(224)하며, 그리고 이미지 외곽값(216)을 회전시켜서 Y 축에 대한 보정값을 산출(226)한다. 그 결과, 3 차원 외곽값(212)과 이미지 외곽값(216)에 대한 이미지 비교 분석을 통하여 3 차원축 각각에 대한 보정값을 산출(226)하게 된다.Specifically, the correction value according to the outline value analysis is calculated by comparing the three-dimensional outline value 212 and the image outline value 216 so that the two outline values 212 and 216 coincide with each other. That is, in order to make the three-dimensional outer value 212 and the image outer value 216 be in the same position, the image outline value 216 is shifted left and right in the pre-correction image 218 as shown in FIG. 9 The correction value for the X axis is calculated 222, the correction value for the Z axis is calculated 224 and the image outer value 216 is rotated to calculate the correction value for the Y axis 226 )do. As a result, a correction value for each of the three-dimensional axes is calculated (226) through image comparison analysis for the three-dimensional outer value 212 and the image outer value 216.

이 때, 이미지 외곽값은 도 7에 도시된 바와 같이, 분석할 이미지 정보(214)에서 상하 방향의 직선(220) 단위로 픽셀(pixel) 값을 로드한다. 이 픽셀값을 컬러 영상의 삼원색 신호인 독립된 세 개의 적색(R), 녹색(G), 청색(B) 값들로 각각 산출한다. 예를 들면, 이미지 정보(214)에서 상하 방향으로 하나의 직선(220)의 값을 분석하면, 도 8에 도시된 바와 같이, R, G, B 값(216a, 216b, 216c) 각각에 대한 컬러 영상값으로 산출된다. 이 컬러 영상값들의 변화량을 분석하여 다른 지점의 컬러 영상값에 비해 급격히 변화하는 지점을 판별하여 해당 지점의 외곽선(외곽 지점)으로 인식할 수 있다. 이러한 분석 방식으로 이미지 정보(214)의 시작점(206)부터 끝지점(208)까지의 변화량을 분석하면, 이미지 정보(214)에 대한 외곽선 정보(216)가 생성된다.In this case, as shown in FIG. 7, the image outline value loads a pixel value in a straight line 220 in the vertical direction in the image information 214 to be analyzed. This pixel value is calculated as three independent red (R), green (G), and blue (B) values, which are the three primary color signals of the color image. For example, by analyzing the values of one straight line 220 in the vertical direction in the image information 214, it is possible to calculate the color values of the R, G, and B values 216a, 216b, and 216c, respectively, And is calculated as an image value. By analyzing the amount of change of the color image values, it is possible to recognize a point that changes abruptly compared with a color image value of another point and recognize the point as an outline (outline point) of the point. By analyzing the amount of change from the starting point 206 to the ending point 208 of the image information 214 by this analysis method, the outline information 216 for the image information 214 is generated.

또 자동 보정 기능에 의한 특정 위치 분석은 계산 처리부(118)의 3 차원 분석 기능을 이용하여 3 차원축에 따른 특정 지점에 대한 보정값을 산출한다.Also, the specific position analysis by the automatic correction function calculates a correction value for a specific point along the three-dimensional axis by using the three-dimensional analysis function of the calculation processing unit 118.

구체적으로, 특정 지점에 대한 보정값은 도 10에 도시된 바와 같이, 예컨대, 고지대, 계곡 등의 2 곳의 특정 지점을 선정(228)하고, 이미지 센서부(116)로부터 수집된 이미지 정보를 계산 처리부(118)의 이미지 분석 기능을 통하여 이미지 정보의 특정 지점에 대한 좌표값을 산출(230)한다. 그리고 이 2 개의 특정 지점에 대한 좌표값을 계산 처리부(118)의 비교/분석 기능을 통하여 보정값을 산출(232)하게 된다.Specifically, as shown in FIG. 10, a correction value for a specific point is selected (228) at two specific points, for example, a highland, a valley, and the like, and the image information collected from the image sensor unit 116 is calculated The coordinate value of a specific point of the image information is calculated 230 through the image analysis function of the processing unit 118. Then, the correction value is calculated (232) through the comparison / analysis function of the calculation processing unit 118 with respect to the coordinate values of the two specific points.

이 때, 보정값의 산출 방법은 도 11에 도시된 바와 같이, 3 차원 및 이미지 특정값을 비교, 분석하여 2 개의 특정값이 동일한 위치가 되도록 하기 위하여, 이미지(232)를 좌우로 이동하여 X 축에 대한 보정값을 산출(234)하고, 상하로 이동하여 Z 축에 대한 보정값을 산출(236)한다. 그리고 이미지의 회전시켜서 Y 축에 대한 보정값을 산출(238)한다. 따라서 두 개의 이미지를 비교 분석하여 3 차원축의 좌표값 각각에 대한 보정값을 산출하게 된다. 여기서 사용되는 특정 지점은 2 곳 이상으로 설정된다. 이는 만약 한 지점만 특정점으로 사용하게 되면, 회전값을 계산할 수 없게 되어, Y 축에 대한 보정값을 산출할 수 없기 때문이다.In this case, as shown in FIG. 11, the correction value is calculated by comparing and analyzing the three-dimensional and image-specific values and moving the image 232 left and right so that the two specific values are in the same position, The correction value for the axis is calculated (234), and the correction value for the Z axis is calculated (236) by moving up and down. Then, the image is rotated to calculate a correction value for the Y axis (238). Therefore, the two images are compared and analyzed to calculate the correction value for each coordinate value of the three-dimensional axis. The specific point used here is set to two or more. This is because, if only one point is used as a specific point, the rotation value can not be calculated, and the correction value for the Y axis can not be calculated.

그리고 계산 처리부(118)의 수동 보정 기능은 사용자에 의해서 보정을 수동 처리하도록 제공된다. 수동 보정 기능을 제공하는 이유는 도 12에 도시된 수동 보정 이미지(240)에서와 같이, 이미지 센서부(116)로부터 수집된 이미지에 오차 이미지가 포함되어 있는 경우에 자동 보정 기능에 의해서 보정할 경우, 오차 이미지에 의해서 자동 보정이 제한되기 때문이다. 따라서 계산 처리부(118)는 이 경우 사용자에게 수동 보정 가능하도록 수동 보정 기능을 제공한다.And the manual correction function of the calculation processing unit 118 is provided for manually processing the correction by the user. The reason for providing the manual correction function is that, as in the manual correction image 240 shown in FIG. 12, when the image collected from the image sensor unit 116 includes an error image and is corrected by the automatic correction function , And the automatic correction is limited by the error image. Therefore, the calculation processing unit 118 provides a manual correction function so that the user can manually correct in this case.

이 수동 보정 기능은 사용자에게 도 13에 도시된 사용자 표시 이미지에서와 같이, 계산 처리부(118)의 3 차원 분석 기능을 이용하여 계산된 3 차원축에 대한 외곽값과, 이미지 센서부(116)로부터 오차 이미지가 포함된 이미지 정보를 겹쳐서 사용자 표시 이미지를 제공한다. 여기서 사용자는 도 14에 도시된 바와 같이, 사용자 표시 이미지에서 3 차원축에 대한 외곽값을 수동으로 좌우, 상하 및/또는 회전하여 보정값을 산출한다.This manual correction function allows the user to obtain an outline value for the three-dimensional axis calculated by using the three-dimensional analysis function of the calculation processing unit 118, as well as an outlier value for the three-dimensional axis from the image sensor unit 116 And overlaps the image information including the error image to provide a user display image. Here, as shown in FIG. 14, the user manually calculates the correction value by horizontally, vertically, and / or rotating the outline value for the three-dimensional axis in the user display image.

입력 정보 관리부(120)는 모바일 단말기에 표시되는 이미지 또는 지도 정보의 특정 위치를 사용자가 터치패널(106)을 이용하여 입력하게 되면, 이들 입력 정보를 관리한다. 즉, 입력 정보 관리부(120)는 계산 처리부(118)에서 3 차원축에 대한 좌표값을 보정한 후, 터치 패널(106)로 표시 모드를 선택하고, 선택된 표시 모드에 따른 입력값을 받아들여서 출력 정보 변환부(122)로 제공한다. 이에, 출력 정보 변환부(122)는 선택한 표시 모드별로 지도 정보 표시부(124) 또는 이미지 정보 표시부(126)를 통해 지도 모드 또는 이미지 모드를 사용자에게 제공한다.The input information management unit 120 manages the input information when a user inputs a specific location of an image or map information displayed on the mobile terminal using the touch panel 106. [ That is, the input information management unit 120 corrects coordinate values for the three-dimensional axis in the calculation processing unit 118, selects a display mode on the touch panel 106, receives an input value according to the selected display mode, Information conversion unit 122. [ The output information conversion unit 122 provides the map mode or the image mode to the user through the map information display unit 124 or the image information display unit 126 according to the selected display mode.

출력 정보 변환부(122)는 입력 정보 관리부(120)로부터 제공되는 입력값을 지도 정보 또는 이미지 정보 위에 표시할수 있도록 출력값으로 변환한다. 출력 정보 변환부(122)는 표시 모드별로 입력 정보 관리부(120)로부터 제공되는 입력값을 변환하여 지도 정보 표시부(124) 또는 이미지 정보 표시부(126)에 제공한다. 출력 정보 변환부(122)는 도 15에 도시된 바와 같이, 사용자가 입력한 이미지 정보의 입력값을 지도 정보 표시부(124)에 표시될 수 있도록 출력값으로 변환한다.The output information converting unit 122 converts an input value provided from the input information managing unit 120 into an output value so as to be displayed on map information or image information. The output information conversion unit 122 converts input values provided from the input information management unit 120 for each display mode and provides the converted values to the map information display unit 124 or the image information display unit 126. As shown in FIG. 15, the output information converting unit 122 converts the input value of the image information input by the user into an output value so that the input value can be displayed on the map information display unit 124.

출력 정보 변환부(122)는 도 16에 도시된 바와 같이, 사용자가 입력한 입력 정보 관리부의 입력값을 이미지 정보 표시부(126)에 표시될 수 있도록 변환한다. 이 때, 이미지 정보 표시부(126)에 표시되는 출력값은 이미지 정보에 지형 위치값(예를 들어, 방위각, 거리 등)으로 제공된다.As shown in FIG. 16, the output information conversion unit 122 converts the input value of the input information management unit input by the user so as to be displayed on the image information display unit 126. At this time, the output value displayed on the image information display section 126 is provided to the image information as a terrain position value (e.g., azimuth angle, distance, etc.).

그러나 출력 정보 변환부(122)는 도 17에 도시된 바와 같이, 지도 정보 표시부(124)에서 선택한 입력값이 변환 가능 여부를 판단한 경우, 가시선을 분석하여 이미지 정보 표시부(126)에서는 보이지 않는 위치가 된다. 이런 변환 가능 여부를 판단하였을 경우, 가시선이 보이지 않을 경우에는 이미지 정보 표시부(126)에 해당 출력값을 출력하지 않거나 출력값의 색상 또는 점선 등으로 사용자가 구분할 수 있도록 제공한다.17, when the input value selected by the map information display unit 124 is judged to be convertible, the output information converting unit 122 analyzes the line of sight and displays the position invisible in the image information display unit 126 do. When the visible line is not visible, the output value is not output to the image information display unit 126, or the color or dotted line of the output value can be distinguished by the user.

지도 정보 표시부(124)는 방향을 측정한 지점에 대한 지도 정보를 터치 패널(106)에 표시하도록 처리한다. 지도 정보 표시부(124)는 지도 정보와 2 차원 위치값을 출력한다. 2 차원 위치값은 예를 들어, 위경도, 군사 좌표(Military Grid Reference System : MGRS) 등이 포함된다.The map information display unit 124 processes the map information about the point where the direction is measured to be displayed on the touch panel 106. [ The map information display unit 124 outputs the map information and the two-dimensional position value. The two-dimensional position values include, for example, the radius, the Military Grid Reference System (MGRS), and the like.

그리고 이미지 정보 표시부(126)는 방향을 측정한 지점에 대한 이미지 정보를 터치 패널(106)에 표시하도록 처리한다.Then, the image information display unit 126 processes the image information about the point where the direction is measured to be displayed on the touch panel 106.

따라서 본 발명의 센서 오차 보정 장치(100)는 방향 측정 센서(102)의 오차가 포함된 방향 측정값을 카메라 센서(104)로 획득한 이미지 정보와 생성된 이미지의 외곽값, 특정 지점의 좌표값 등을 이용하여 이미지 정보를 분석 비교하여 오차값을 보정하고, 보정된 방향 측정값을 제공한다.Therefore, the sensor error correction apparatus 100 of the present invention can correct the direction measurement value including the error of the direction measurement sensor 102 by using the image information acquired by the camera sensor 104 and the outline value of the generated image, Etc., to correct the error value and provide the corrected direction measurement value.

그리고 도 2는 본 발명에 따른 방향 측정을 위한 센서 오차 보정 장치의 처리 수순을 도시한 흐름도이다. 이 수순은 도 1에 도시된 센서 오차 보정 장치의 구성들을 이용하여 처리된다.And FIG. 2 is a flowchart illustrating a processing procedure of a sensor error correcting apparatus for direction measurement according to the present invention. This procedure is performed using the configurations of the sensor error correcting apparatus shown in Fig.

도 2를 참조하면, 본 발명의 센서 오차 보정 장치(110)는 단계 S150에서 기기 방향 센서부(112)가 방향 측정 센서(102)로부터 도 3에 도시된 바와 같이, 모바일 단말기(100)의 가로 방향 또는 세로 방향으로 위치되었는지에 대한 기기 방향 정보를 수집하고, 단계 S152에서 방향 측정 센서(102)로부터 방향 정보 센서부(114)로 방향 정보를 수집한다. 방향 정보는 도 4에 도시된 바와 같이, 방향 측정 지점(200)을 모바일 단말기(100)의 중앙에 위치시켜서 3 차원 지형 정보(128)로부터 3 차원축 즉, X, Y 및 Z 축 좌표값(202)들을 측정하고, 측정된 방향 정보(202)는 계산 처리부(118)로 제공된다.2, the sensor error correcting apparatus 110 of the present invention is configured such that in step S150, the device direction sensor unit 112 detects the direction of the transverse direction of the mobile terminal 100 from the direction measurement sensor 102, Direction or vertical direction, and acquires direction information from the direction measurement sensor 102 to the direction information sensor unit 114 in step S152. 4, the direction measurement point 200 is positioned at the center of the mobile terminal 100, and three-dimensional coordinates, i.e., X, Y, and Z-axis coordinate values ( 202, and the measured direction information 202 is provided to the calculation processing unit 118. [

단계 S154에서 측정된 방향 정보를 이용하여 측정 방향에 대한 3 차원 지형을 분석한다. 본 발명에서 3 차원 지형 분석은 도 5에 도시된 바와 같이, 모바일 단말기(100)에 구비되는 3 차원 지형 정보(128)를 활용하여, GPS 센서(미도시됨)를 이용하여 측정된 위치 정보와, 방향 측정 센서(102)에 의해서 측정된 방향 정보를 이용하여 가상의 3 차원 지형에 관측 지점(204)을 위치시키고, 측정 방향(210)을 기준으로 해서 분석 시작점(206)으로부터 분석 종료점(208)까지 외곽선 정보를 읽어들여서 3 차원 지형 분석 정보를 생성한다. 즉, 3 차원 지형 분석 정보는 도 6의 (a)와 같이, 방향 정보(202)로부터 계산 처리부(118)에 의해 3 차원 지형을 분석하여 3 차원 지형 정보에 대한 외곽선 정보 즉, 외곽값(212)으로 산출된다.Dimensional terrain of the measurement direction is analyzed using the direction information measured in step S154. In the present invention, as shown in FIG. 5, the three-dimensional topography analysis is performed by using three-dimensional topographic information 128 provided in the mobile terminal 100, position information measured using a GPS sensor (not shown) , The observation point 204 is positioned on the virtual three-dimensional topography by using the direction information measured by the direction measurement sensor 102 and the analysis end point 208 from the analysis start point 206 on the basis of the measurement direction 210 ) To generate three-dimensional topographic analysis information. That is, as shown in (a) of FIG. 6, the three-dimensional topographic analysis information is obtained by analyzing the three-dimensional topography by the calculation processing unit 118 from the direction information 202 and obtaining the outline information for the three- ).

단계 S156에서 카메라 센서(104)를 이용하여 이미지 정보를 수집한다. 카메라 센서(104)로부터 획득된 이미지 정보는 이미지 센서부(116)에서 수집된다. 이 때, 이미지 센서부(116)는 이미지 정보를 계산 처리부(118)로 제공하고, 계산 처리부(118)는 이미지 정보를 분석하여 이미지 분석 정보를 생성한다. 즉, 도 6의 (b)와 같이, 계산 처리부(118)는 이미지 정보(214)를 분석하여 이미지 정보에 대한 외곽선 정보 즉, 외곽값(216)을 산출한다.In step S156, image information is collected using the camera sensor 104. [ The image information obtained from the camera sensor 104 is collected in the image sensor unit 116. [ At this time, the image sensor unit 116 provides image information to the calculation processing unit 118, and the calculation processing unit 118 analyzes the image information to generate image analysis information. 6B, the calculation processing unit 118 analyzes the image information 214 to calculate the outline information 216, i.e., the outline value 216, for the image information.

여기서 이미지 분석 방법은 도 7에 도시된 바와 같이, 분석할 이미지 정보(214)에서 상하 방향의 직선(220) 단위로 픽셀(pixel) 값을 산출한다. 이 픽셀값을 컬러 영상의 삼원색 신호인 독립된 세 개의 적색(R), 녹색(G), 청색(B) 값들로 각각 산출한다. 예를 들면, 이미지 정보(214)에서 상하 방향으로 하나의 직선(220)의 값을 분석하면, 도 9에 도시된 바와 같이, R, G, B 값 각각에 대한 컬러 영상값으로 분석 결과가 나온다. 그러면 이 컬러 영상값들의 변화량을 분석하여 다른 지점의 컬러 영상값에 비해 급격히 변화하는 지점을 판별하여 해당 지점을 외곽선으로 인식할 수 있다. 이러한 분석 방식으로 이미지 정보(214)의 시작점(206)부터 끝지점(208)까지 컬러 영상값의 변화량을 분석하면, 이미지 정보(214)에 대한 외곽선 정보(216)가 생성된다.Here, as shown in FIG. 7, the image analysis method calculates a pixel value in units of straight lines 220 in the vertical direction in the image information 214 to be analyzed. This pixel value is calculated as three independent red (R), green (G), and blue (B) values, which are the three primary color signals of the color image. For example, when the value of one straight line 220 is analyzed in the vertical direction in the image information 214, the analysis result is shown as a color image value for each of R, G, and B values as shown in FIG. 9 . Then, by analyzing the amount of change of the color image values, it is possible to recognize a point that changes abruptly compared with a color image value of another point, and recognize the point as an outline. When the variation amount of the color image value is analyzed from the starting point 206 to the end point 208 of the image information 214 in this analysis method, the outline information 216 for the image information 214 is generated.

단계 S158에서 계산 처리부(118)는 3 차원 지형 분석 정보와 이미지 분석 정보를 비교, 분석하여 측정된 방향의 오차값(즉, 보정값)을 산출한다. 보정값을 산출하는 방법은 자동 보정 방법과 수동 보정 방법으로 처리되며, 자동 보정 방법에는 외곽값 분석와 특정 위치 분석으로 자동 분석이 가능하다.In step S158, the calculation processing unit 118 compares and analyzes the three-dimensional topographic analysis information and the image analysis information, and calculates an error value (i.e., a correction value) of the measured direction. The method of calculating the correction value is processed by the automatic correction method and the manual correction method, and the automatic correction method can be automatically analyzed by the outline value analysis and the specific position analysis.

먼저, 두 외곽선 정보의 보정값을 계산하는 방법은 도 6의 (C)에서와 같이, 이미지 분석 정보와 3 차원 분석 정보를 동일선상에 위치시켜서 각 외곽선의 높이값을 비교하여 보정전 분석 정보(218)를 생성하고, 이를 통해 오차값(보정값)을 계산하게 된다. 구체적으로 도 9에 도시된 바와 같이, 3 차원 지형 정보의 외곽값과 이미지 정보의 외곽값을 비교한 보정 전 분석 정보(218)로부터 두 외곽값이 일치되도록 하기 위하여, 이미지 외곽값을 좌우 이동(222)시켜서 X 축 보정값을 산출하고, 이를 상하 이동(224)시켜서 Z 축 보정값을 산출하고, 이어서 이미지 외곽값을 회전(226)하여 Y 축 보정값을 산출하여 3 개의 축값에 대한 보정값을 산출함으로써, 보정된 분석 정보(226)를 생성한다.First, as a method of calculating the correction value of two outline information, as shown in FIG. 6C, the image analysis information and the three-dimensional analysis information are located on the same line, and the height values of the respective outline are compared, 218), and the error value (correction value) is calculated therefrom. Specifically, as shown in FIG. 9, in order to make the two outer values coincide from the pre-correction analysis information 218 that compares the outer value of the three-dimensional topographic information with the outer value of the image information, 222), calculates the X-axis correction value, calculates the Z-axis correction value by moving it up and down (224), then rotates the image outline value 226 to calculate the Y-axis correction value, To generate the corrected analysis information 226. [

여기서 측정 방향값을 자동으로 보정하기 위해서는, 3 차원 지형 분석 시에 모바일 단말기(100)에 예를 들어, 기기의 허용 오차, 자력이 강한 지형의 오차 등으로 설정된 오차값 ±α을 이용하여 이미지 분석 범위를 분석 시작점의 -α에서부터 분석 종료점의 + α 까지를 추가하여 지형을 분석한다. 또 이미지 분석 기능을 통하여 이미지 외곽값을 계산한 후, 이미지 분석 정보를 -α 위치부터 이동하면서 +α 위치까지 2 개의 외곽값을 비교, 분석하여 보정값을 산출한다. 이 때, 이미지 분석 정보와 3 차원 분석 정보를 동일선상에 위치시켰을 경우, 각 높이값을 비교하여 오차값을 계산하게 된다. 또 좌우 이동값을 통하여 X 축 보정값을 산출하며, 이미지 분석 정보를 이동하면서 3차원 지형 분석 정보와 오차량를 비교하여 오차값의 분포도가 가장 일정한 위치의 보정값이 X 축의 보정값이 된다. 동일한 방법으로 Z 축 보정값과 Y 축 보정값을 산출할 수 있으며, 이 때, 보정값은 오차값들을 비교하여 가장 작은 위치의 값으로 결정된다.Here, in order to automatically correct the measurement direction value, it is necessary to perform an image analysis using the error value ± α set for the mobile terminal 100, for example, an allowable error of the device, Analyze the terrain by adding the range from -α of the analysis starting point to + α of the analysis ending point. Also, after calculating the image outline value through the image analysis function, the correction value is calculated by comparing and analyzing the two outline values from the image analysis information to the + α position while moving from the -α position. In this case, when the image analysis information and the three-dimensional analysis information are located on the same line, the error values are calculated by comparing the height values. Also, the X-axis correction value is calculated through the lateral movement value, and the correction value of the position where the distribution of the error value is most constant is the correction value of the X-axis by comparing the three-dimensional topographic analysis information with the error while moving the image analysis information. In the same manner, the Z-axis correction value and the Y-axis correction value can be calculated. In this case, the correction value is determined as the value of the smallest position by comparing the error values.

또 특정 위치 분석 방법은 계산 처리부(118)에서 도 10의 (a)에 도시된 바와 같이, 방향 정보의 3 차원축 좌표값을 3 차원 분석하여 3 차원 특정값을 산출한다. 이 때, 특정값은 고지, 계곡 등을 특정 지점으로 선정되며, 이 실시예에서는 고지 2 곳을 특정 지점으로 선정하였다. 또 계산 처리부(118)는 도 10의 (b)에 도시된 바와 같이, 이미지 센서부(116)로부터 수집된 이미지 정보를 이미지 분석하여 이미지 정보의 2 특정 지점에 대한 특정값을 산출한다. 그리고 계산 처리부(118)는 도 10의 (c)에 도시된 바와 같이, 이 2 개의 특정값들을 비교/분석하여 보정값을 산출한다.In the specific position analysis method, the calculation processing unit 118 calculates the three-dimensional specific value by three-dimensionally analyzing the three-dimensional coordinate values of the direction information as shown in FIG. 10 (a). At this time, specific values are selected as specific points such as highland and valley, and in this embodiment, two highland are selected as specific points. 10 (b), the calculation processing unit 118 performs image analysis of the image information collected from the image sensor unit 116 to calculate a specific value for two specific points of the image information. Then, the calculation processing unit 118 compares / analyzes these two specific values to calculate a correction value, as shown in FIG. 10 (c).

즉, 특정 위치 분석에 따른 보정값 산출 방법은 도 11에 도시된 바와 같이, 3 차원 및 이미지 특정값(232)들을 비교하여 2 개의 특정값이 동일한 위치가 되도록 하기 위하여, 이미지를 좌우로 이동시켜서 X 축값을 보정(234)하고, 상하로 이동시켜서 Z 축값을 보정(236)하며, 그리고 이미지를 회전시켜서 Y 축값을 보정한다. 이처럼 특정 위치에 따른 2 개의 이미지를 비교 분석하여 3 개의 축값에 대한 보정값을 산출한다. 여기서 특정 지점은 두 지점 이상으로 사용하게 되는데, 만약 한 지점만 특정점으로 사용하게 되면, 도 11에서 회전값을 계산할 수 없게 되고, 이는 Y 축 보정값과 연관이 있으므로, 2 지점 이상을 특정 지점으로 선정해야 한다.That is, as shown in FIG. 11, the correction value calculation method according to the specific position analysis is a method in which the three-dimensional and image specific values 232 are compared and the image is moved left and right The X-axis value is corrected (234), the Z-axis value is corrected (236) by moving the image up and down, and the Y-axis value is corrected by rotating the image. In this way, two images according to a specific position are compared and analyzed to calculate correction values for three axis values. In this case, since a particular point is used in more than two points, if only one point is used as a specific point, the rotation value can not be calculated in Fig. 11, .

그리고 수동 보정 방법은 사용자에 의해서 보정값을 입력하는 것으로, 수동보정 방법을 사용하는 이유는 도 12에 도시된 바와 같이, 이미지 센서부(116)로부터 수집된 이미지 정보(240)에 오차 이미지(242)가 포함되어 있는 경우에, 이 오차 이미지(242)로 인하여 자동 보정이 제한된다. 따라서 계산 처리부(118)는 오차 이미지(242)가 포함된 이미지 정보(240)의 경우에 사용자에게 수동 보정 방법을 이용하여 보정 가능하도록 한다.The reason for using the manual correction method is that the error image 242 is added to the image information 240 collected from the image sensor unit 116, Is included, this error image 242 limits the automatic correction. Accordingly, the calculation processing unit 118 allows the user to perform correction using the manual correction method in the case of the image information 240 including the error image 242. [

즉, 수동 보정 방법은 도 13에 도시된 바와 같이, 계산 처리부(118)의 3차원 분석 기능을 통하여 계산된 3 차원축 외곽값(244)과 이미지 센서부(116)로부터 오차 이미지(242)가 포함된 이미지 정보(240)를 겹쳐서 사용자 표시 이미지(246)를 제공한다. 따라서 사용자는 도 14에 도시된 바와 같이, 사용자 표시 이미지(246)에서 3 차원 외곽값(244)을 수동으로 좌우 이동, 상하 이동 및 회전시켜서 이미지 정보와 일치시킴(248)으로써, 보정값을 산출한다. 여기서 이미지 정보(240)에 오차 이미지(242)가 포함되었는지 여부는 외곽선 비교, 분석을 통하여 보정한 후, 3 차원 외곽값(244)과 비교하였을 경우 오차 이미지(242)에 의해 외곽값에 오차가 발생하게 된다. 따라서 본 발명에서는 보정 후, 오차 이미지(242)에 의해 3 차원 외곽값(244)과 일정량 이상의 오차량이 발생되면, 이미지 정보(240)에 오차 이미지(242)가 포함되어 있음을 판별하여, 수동 처리하도록 한다. 또 특정값을 이용한 분석에서도 동일하게 특정값과의 차이가 일정값 이상일 경우, 이미지 정보(240)에 오차 이미지(242)가 포함되어 있음을 판별하여, 수동 처리하도록 한다.13, the three-dimensional axis value 244 calculated through the three-dimensional analysis function of the calculation processing unit 118 and the error image 242 from the image sensor unit 116 And overlays embedded image information 240 to provide a user display image 246. [ 14, the user manually moves the three-dimensional outer value 244 in the user display image 246, moves it up and down, rotates it, and matches it with the image information 248, thereby calculating the correction value do. Here, whether or not the error image 242 is included in the image information 240 is corrected through outline comparison and analysis, and then, when the image is compared with the three-dimensional outer value 244, an error is added to the outer value by the error image 242 . Accordingly, in the present invention, when an error image of more than a predetermined amount with respect to the three-dimensional surrounding value 244 is generated by the error image 242 after correction, it is determined that the error image 242 is included in the image information 240, . Also, in the analysis using the specific value, if the difference from the specific value is equal to or larger than a predetermined value, it is determined that the error information 242 is included in the image information 240, and the manual processing is performed.

다시 도 2를 참조하면, 단계 S160에서 산출된 오차값이 자동 보정 가능한지를 판별한다. 단계 S162에서 오차값이 자동 보정 가능하면, 이 수순은 단계 S164로 진행하여, 산출된 오차값을 적용하여 보정된 방향값으로 자동 보정하고, 오차값이 자동 보정 가능하지 않으면, 단계 S162에서 사용자에 의해 오차값을 보정할 수 있도록 수동으로 입력한다.Referring again to FIG. 2, it is determined whether the error value calculated in step S160 is automatically correctable. If the error value is automatically correctable in step S162, the procedure proceeds to step S164 to automatically correct the error value to the corrected direction value by applying the calculated error value. If the error value is not automatically correctable, Input manually so that the error value can be corrected.

이어서 보정이 완료되면, 표시 모드에 따른 지도 정보 및 이미지 정보를 표시하도록 처리한다. 즉, 단계 S166에서 사용자가 입력 정보 관리부(120)로 지도 모드와 이미지 모드를 나타내는 표시 모드를 선택한다. 표시 모드 중 지도 모드가 선택되면, 단계 S168에서 출력 정보 변환부(122)는 도 15에 도시된 바와 같이, 사용자가 선택한 위치에 대한 특정 위치값(252)을 포함하는 이미지 정보(250)에 대응하는 지도 정보(260)를 표시하고, 단계 S170에서 이미지 정보(250)의 특정 위치값(252)을 수집하고, 단계 S172에서 특정 위치값(252)을 지도 정보(260)에 적합하게 표시될 수 있도록 입력값(252)을 출력값(262)으로 변환하여 단계 S174에서 지도 정보 표시부(124)를 통해 특정 위치값(262)이 포함된 지도 정보(260)를 표시한다. 이 때, 지도 정보(260)에 표시되는 출력값(262)은 지도 정보(260)의 2 차원 위치값 예를 들어, 위경도, 군사 좌표(MGRS) 등으로 제공된다.Subsequently, when the correction is completed, processing is performed to display map information and image information according to the display mode. That is, the user selects the display mode indicating the map mode and the image mode in the input information management unit 120 in step S166. When the map mode is selected in the display mode, the output information converting unit 122 in step S168 corresponds to the image information 250 including the specific position value 252 for the position selected by the user The specific position value 252 of the image information 250 is collected in step S170 and the specific position value 252 is displayed on the map information 260 in step S172 The input value 252 is converted into the output value 262 and the map information 260 including the specific position value 262 is displayed through the map information display unit 124 in step S174. At this time, the output value 262 displayed on the map information 260 is provided as a two-dimensional position value of the map information 260, for example, a degree of magnitude, a military coordinate (MGRS), and the like.

그리고 표시 모드 중 이미지 모드가 선택되면, 단계 S176에서 출력 정보 변환부(122)는 도 16에 도시된 바와 같이, 사용자가 선택한 위치에 대한 특정 위치값(262)을 포함하는 지도 정보(260)에 대응하는 이미지 정보(250)를 표시하고, 단계 S178에서 지도 정보(260)의 특정 위치값(262)을 수집하고, 단계 S180에서 특정 위치값(262)을 이미지 정보(250)에 적합하게 표시될 수 있도록 입력값(262)을 출력값(252)으로 변환한다. 이어서 단계 S182에서 이미지 정보 표시부(126)를 통해 특정 위치값(252)이 포함된 이미지 정보(250)를 표시한다. 이 때, 이미지 정보(250)에 표시되는 출력값(252)은 이미지 정보(250)의 지형 위치값 예를 들어, 방위각, 거리 등으로 제공된다.When the image mode is selected in the display mode, the output information converting unit 122 outputs map information 260 including the specific position value 262 for the position selected by the user in step S176 The specific position value 262 of the map information 260 is collected in step S178 and the specific position value 262 is displayed on the image information 250 in step S180 The input value 262 is converted to an output value 252 so that the input value 262 can be obtained. Then, in step S182, the image information 250 including the specific position value 252 is displayed through the image information display unit 126. [ At this time, the output value 252 displayed in the image information 250 is provided as the terrain position value of the image information 250, for example, the azimuth angle, the distance, and the like.

또, 지도 정보(260)를 이미지 정보(150)로 변환할 경우, 도 17에 도시된 바와 같이, 지도 정보 표시부(124)에서 선택한 입력값(262)이 변환 가능한지 여부를 판단해야 한다. 예를 들어, 지도 정보(260)에서의 입력값(262)이 이미지 정보 표시부(126)의 관측 위치에서는 보이지 않는 지점이 되면, 즉, 가시선 분석을 이용하여 입력값(262)의 특정 지점이 관측 위치(264)의 가시선 상에서 보이지 않게 되면, 이미지 정보 표시부(126)에서 해당 출력값을 출력하지 않거나, 출력값의 색상을 달리하여 표시하거나 또는 점선 등으로 사용자가 구분할 수 있도록 제공한다.When converting the map information 260 into the image information 150, it is necessary to determine whether the input value 262 selected by the map information display unit 124 is convertible, as shown in FIG. For example, when the input value 262 in the map information 260 becomes a point invisible at the observation position of the image information display unit 126, that is, when a specific point of the input value 262 is observed using the line- If it is not visible on the line of sight of the position 264, the image information display unit 126 does not output the corresponding output value, displays the output value in a different color, or provides the dotted line so that the user can distinguish the output value.

따라서 본 발명에서 이미지 정보(250)와 지도 정보(260)를 매칭시키는 방법은 우선 이미지 선택 위치(252)를 3 차원 지형 위치로 변형시키고, 상술한 이미지 정보와 3 차원 지형 정보를 외곽값 분석 또는 특정 위치 분석 등의 보정 과정을 통하여 매칭된 분석 정보를 이용한다. 그 결과, 도 18에 도시된 바와 같이, 3 차원 지형 정보의 선택 위치(252)에 대한 거리(266), 방위각(268)을 산출하고, 지도 정보(260)에서 관측 위치(264)로부터 산출된 거리(266) 및 방위각(268)의 위치에 해당하는 지점(262)으로 매칭시킨다.Accordingly, in the present invention, the method of matching the image information 250 and the map information 260 first transforms the image selection position 252 to the three-dimensional topographic position, and analyzes the above-described image information and three- And uses the matched analysis information through a correction process such as a specific position analysis. As a result, the distance 266 and the azimuth angle 268 to the selected position 252 of the three-dimensional topographic information are calculated, and the map information 260 is calculated from the observation position 264 To a point 262 corresponding to the position of the distance 266 and the azimuth angle 268.

이상에서, 본 발명에 따른 모바일 단말기의 센서 측정 오차 보정 장치의 구성 및 작용을 상세한 설명과 도면에 따라 도시하였지만, 이는 실시예를 들어 설명한 것에 불과하며, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 다양한 변화 및 변경이 가능하다.
While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. Various changes and modifications are possible.

100 : 모바일 단말기
102 : 방향 측정 센서
104 : 카메라 센서
106 : 터치 패널
110 : 센서 측정 오차 보정 장치
112 : 기기 방향 센서부
114 : 방향 정보 센서부
116 : 이미지 센서부
118 : 계산 처리부
120 : 입력 정보 관리부
122 : 출력 정보 변환부
124 : 지도 정보 표시부
126 : 이미지 정보 표시부
128 : 3 차원 지형 정보
100: mobile terminal
102: Direction measurement sensor
104: Camera sensor
106: Touch panel
110: Sensor measurement error correction device
112:
114: direction information sensor unit
116: Image sensor unit
118:
120: input information management unit
122: output information conversion section
124: map information display section
126: Image information display section
128: 3D terrain information

Claims (10)

방향 측정 센서와 카메라 센서 및 GPS 센서를 구비하는 모바일 단말기의 센서 측정 오차 보정 장치에 있어서:
상기 방향 측정 센서로부터 상기 모바일 단말기의 세로 방향 또는 가로 방향으로 위치하였는지에 대한 기기 방향 정보를 수집하는 기기 방향 센서부와;
상기 방향 측정 센서로부터 측정된 상기 모바일 단말기의 방향 정보를 수집하는 방향 정보 센서부와;
상기 카메라 센서로부터 획득된 이미지 정보를 수집하는 이미지 센서부 및;
상기 기기 방향 정보를 받아서 상기 모바일 단말기의 세로 방향 또는 가로 방향 위치를 판별하고, 상기 방향 정보와 상기 이미지 정보를 받아서 상기 방향 정보에 따른 제1 외곽선 정보와, 상기 이미지 정보에 따른 제2 외곽선 정보를 생성하고, 상기 제1 및 상기 제2 외곽선 정보를 비교하여 제1 오차값을 산출하며, 상기 제1 오차값으로 상기 방향 정보와 상기 이미지 정보가 일치되도록 보정하는 계산 처리부를 포함하는 것을 특징으로 하는 센서 측정 오차 보정 장치.
An apparatus for correcting a sensor measurement error of a mobile terminal having a direction measurement sensor, a camera sensor and a GPS sensor, comprising:
An apparatus direction sensor unit for collecting apparatus direction information on whether the mobile terminal is positioned in a longitudinal direction or a transverse direction of the mobile terminal from the direction measurement sensor;
A direction information sensor unit for collecting direction information of the mobile terminal measured by the direction measurement sensor;
An image sensor unit for acquiring image information obtained from the camera sensor;
Receiving the device direction information and determining the vertical or horizontal position of the mobile terminal, receiving the direction information and the image information, and receiving first outline information according to the direction information and second outline information according to the image information, And a calculation processor for calculating a first error value by comparing the first and second outline information and correcting the direction information and the image information so as to coincide with the first error value, Sensor measurement error correction device.
제 1 항에 있어서,
상기 계산 처리부는;
적어도 2 개의 특정 위치에 대한 좌표값을 선정하고, 선정된 상기 좌표값과, 상기 이미지 정보에서 상기 특정 위치에 대한 좌표값을 비교하여 제2 오차값을 산출하며, 상기 제2 오차값으로 상기 방향 정보와 상기 이미지 정보가 일치되도록 자동 보정하되;
상기 제1 및 상기 제2 오차값들 중 어느 하나를 선택하여 자동 보정하는 것을 특징으로 하는 센서 측정 오차 보정 장치.
The method according to claim 1,
Wherein the calculation processing unit comprises:
Calculating a second error value by comparing coordinate values of the at least two specific positions with coordinate values of the specific position in the image information, Automatically corrects the information to match the image information;
Wherein the first and second error values are selected and corrected automatically.
제 2 항에 있어서,
상기 계산 처리부는;
상기 이미지 정보에 오차 이미지가 포함되어 있으면, 상기 센서 측정 오차 보정 장치에 구비된 입력 정보 관리부를 통해 오차값을 입력하여 수동 보정하도록 처리하는 것을 특징으로 하는 센서 측정 오차 보정 장치.
3. The method of claim 2,
Wherein the calculation processing unit comprises:
Wherein the error correction unit corrects the sensor error by inputting an error value through an input information management unit provided in the sensor error correction unit when the error information includes the error information.
제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
상기 센서 측정 오차 보정 장치는;
출력되는 표시 모드를 선택하고, 상기 모바일 단말기에 표시되는 이미지 정보 또는 지도 정보에서 특정 위치를 선택하면, 상기 표시 모드에 대응하여 상기 특정 위치에 따른 입력값을 관리하는 입력 정보 관리부와;
상기 입력 정보 관리부로부터 상기 입력값을 받아서 상기 지도 정보 또는 상기 이미지 정보 각각에 대해 상기 특정 위치를 표시하도록 상기 입력값을 출력값으로 변환하는 출력 정보 변환부와;
상기 표시 모드가 지도 모드로 선택되면, 상기 출력 정보 변환부로부터 상기 출력값을 포함하는 상기 지도 정보를 표시하도록 하는 지도 정보 표시부 및;
상기 표시 모드가 이미지 모드로 선택되면, 상기 출력 정보 변환부로부터 상기 출력값을 포함하는 이미지 정보를 표시하도록 하는 이미지 정보 표시부를 더 포함하는 것을 특징으로 하는 센서 측정 오차 보정 장치.
4. The method according to any one of claims 1 to 3,
Wherein the sensor measurement error correction device comprises:
An input information management unit for managing an input value corresponding to the specific position in response to the display mode when a display mode to be output is selected and a specific position is selected from image information or map information displayed on the mobile terminal;
An output information converting unit for receiving the input value from the input information managing unit and converting the input value to an output value so as to display the specific position for each of the map information or the image information;
A map information display unit for displaying the map information including the output value from the output information conversion unit when the display mode is selected as the map mode;
And an image information display unit for displaying the image information including the output value from the output information converting unit when the display mode is selected as the image mode.
제 4 항에 있어서,
상기 출력 정보 변환부는;
상기 입력 정보 관리부로부터 상기 이미지 정보에서 상기 특정 위치가 선택되면, 상기 이미지 정보에 대응되는 3 차원 지형 정보에서 상기 특정 위치에 대한 3 차원 지형 위치로 변환하고, 상기 3 차원 지형 위치를 관측 지점에서의 거리 및 방위각을 산출하여 상기 지도 정보에 표시하도록 하는 것을 특징으로 하는 센서 측정 오차 보정 장치.
5. The method of claim 4,
Wherein the output information conversion unit comprises:
Dimensional terrain position corresponding to the image information to a three-dimensional terrain position for the specific position when the specific position is selected from the image information from the input information management unit, and converts the three- The distance and the azimuth are calculated and displayed on the map information.
방향 측정 센서와 카메라 센서 및 GPS 센서를 구비하는 모바일 단말기의 센서 측정 오차 보정 장치의 처리 방법에 있어서:
상기 방향 측정 센서로부터 상기 모바일 단말기의 가로 방향 또는 세로 방향으로 위치되었는지에 대한 기기 방향 정보를 수집하는 단계와;
상기 방향 측정 센서로부터 모바일 단말기의 측정 방향에 따른 방향 정보를 수집하는 단계와;
상기 방향 정보를 이용하여 측정 방향에 대한 3 차원 지형을 분석하는 단계와;
상기 카메라 센서를 이용하여 측정 방향에 대한 이미지 정보를 수집하는 단계와;
상기 카메라 센서로부터 수집된 이미지 정보를 분석하여 이미지 정보에 대한 외곽선 정보를 산출하는 단계와;
상기 3 차원 지형 분석과 상기 이미지 정보 분석 결과를 비교하여 측정된 방향 정보의 오차값을 산출하는 단계와;
상기 오차값을 이용하여 자동 보정 가능한지를 판별하는 단계와;
상기 오차값이 자동 보정 가능하면, 산출된 상기 오차값을 적용하여 좌우, 상하 및 회전 방향값으로 자동 보정하고, 상기 오차값이 자동 보정 가능하지 않으면, 사용자에 의해 상기 오차값을 보정할 수 있도록 수동으로 상기 오차값을 입력하는 단계 및;
보정이 완료되면, 표시 모드에 따른 지도 정보 또는 이미지 정보를 표시하도록 처리하는 단계를 포함하는 것을 특징으로 하는 센서 측정 오차 보정 장치의 처리 방법.
A method of processing a sensor measurement error correction apparatus of a mobile terminal having a direction measurement sensor, a camera sensor, and a GPS sensor,
Collecting device direction information on whether the mobile terminal is positioned in a lateral direction or a longitudinal direction of the mobile terminal from the direction measurement sensor;
Collecting direction information from the direction measurement sensor according to a measurement direction of the mobile terminal;
Analyzing the three-dimensional topography of the measurement direction using the direction information;
Collecting image information about a measurement direction using the camera sensor;
Analyzing image information collected from the camera sensor and calculating outline information for image information;
Calculating an error value of the measured direction information by comparing the 3D terrain analysis and the image information analysis result;
Determining whether an automatic correction is possible using the error value;
If the error value is automatically correctable, the calculated error value is applied to automatically correct the error value to left, right, up and down direction and rotational direction value, and if the error value is not automatically correctable, the error value can be corrected by the user Manually inputting the error value;
And when the correction is completed, processing to display map information or image information according to the display mode.
제 6 항에 있어서,
상기 3 차원 지형을 분석하는 단계는;
상기 모바일 단말기에 구비되는 3 차원 지형 정보를 활용하여, 상기 GPS 센서의 위치 정보와, 상기 방향 측정 센서에 의해서 측정된 방향 정보를 이용하여 가상의 3 차원 지형에 하나의 관측 지점을 위치시키고, 상기 카메라 센서에 의해서 획득된 이미지 정보를 이용하여 측정 방향을 기준으로 분석 시작점으로부터 분석 종료점까지 외곽선 정보를 읽어들여서 3 차원 지형을 분석하여, 상기 3 차원 지형 정보에 대한 외곽선 정보를 산출하는 것을 특징으로 하는 센서 측정 오차 보정 장치의 처리 방법.
The method according to claim 6,
Analyzing the 3D terrain includes:
Positioning one observation point on a virtual three-dimensional terrain by using three-dimensional topographic information provided in the mobile terminal, using the position information of the GPS sensor and the direction information measured by the direction measuring sensor, The image information obtained by the camera sensor is used to read the outline information from the analysis start point to the analysis end point based on the measurement direction to analyze the three dimensional topography and to calculate the outline information for the three dimensional topographic information A method of processing a sensor measurement error correction apparatus.
제 6 항에 있어서,
상기 외곽선 정보를 산출하는 단계에서 상기 이미지 정보를 분석하는 과정은;
상기 이미지 정보에서 상하 방향의 직선 단위로 픽셀값을 산출하고, 상기 픽셀값을 3 개의 컬러 영상값들로 각각 분석하고, 상기 컬러 영상값의 변화량을 분석하여 다른 지점의 컬러 영상값에 비해 급격히 변화하는 지점을 인식하여 상기 이미지 정보에서의 특정 지점에 대한 외곽선 정보를 생성하는 것을 특징으로 하는 센서 측정 오차 보정 장치의 처리 방법.
The method according to claim 6,
Wherein the step of analyzing the image information in the step of calculating the outline information comprises:
Calculating pixel values in linear units in the vertical direction in the image information, analyzing the pixel values into three color image values, analyzing a change amount of the color image values, And generates outline information for a specific point in the image information by recognizing a point at which the sensor measurement error is corrected.
제 6 항에 있어서,
상기 오차값을 산출하는 단계는;
상기 3 차원 지형 분석과 상기 이미지 정보 분석 결과에 따른 외곽선 정보를 동일선상에 일치되도록 비교하여, 2 개의 외곽선 정보의 차이값으로 상기 오차값을 산출하거나,
상기 방향 정보에 대응하는 적어도 2 개의 특정 위치에 대한 3 차원축 좌표값을 산출하고, 상기 이미지 정보에서 상기 특정 위치에 대응되는 적어도 2 개의 특정 지점에 대한 특정값을 산출하여, 상기 특정 위치의 좌표값과 상기 특정값을 동일한 위치가 되도록 비교하여, 상기 좌표값과 상기 특정값에 대한 차이값을 상기 오차값으로 산출하는 것을 특징으로 하는 센서 측정 오차 보정 장치의 처리 방법.
The method according to claim 6,
Wherein the step of calculating the error value comprises:
Comparing the 3D terrain analysis and the outline information according to the image information analysis results so as to coincide with each other, calculating the error value from the difference value of the two outline information,
Dimensional coordinate coordinate values for at least two specific positions corresponding to the direction information, calculating a specific value for at least two specific points corresponding to the specific position in the image information, And the difference between the coordinate value and the specific value is calculated as the error value by comparing the coordinate value and the specific value to be the same position.
제 6 항 내지 제 9 항 중 어느 한 항에 있어서,
상기 지도 정보 또는 상기 이미지 정보를 표시하도록 처리하는 단계는;
상기 표시 모드 중 지도 모드가 선택되면, 사용자가 선택한 위치에 대한 특정 위치값을 포함한 이미지 정보에 대응하는 지도 정보를 표시하고, 상기 이미지 정보의 상기 특정 위치값을 상기 지도 정보에 표시될 수 있도록 변환하여, 상기 지도 정보를 표시하도록 하거나,
상기 표시 모드 중 이미지 모드가 선택되면, 사용자가 선택한 위치에 대한 상기 특정 위치값을 포함한 지도 정보에 대응하는 이미지 정보를 표시하고, 상기 지도 정보의 상기 특정 위치값을 상기 이미지 정보에 표시될 수 있도록 변환하여, 상기 이미지 정보를 표시하도록 하는 것을 특징으로 하는 센서 측정 오차 보정 장치의 처리 방법.
10. The method according to any one of claims 6 to 9,
Wherein the processing to display the map information or the image information comprises:
And displaying the map information corresponding to the image information including the specific position value of the position selected by the user when the map mode is selected in the display mode, and converting the specific position value of the image information to be displayed in the map information To display the map information,
And displaying the image information corresponding to the map information including the specific position value for the position selected by the user when the image mode is selected in the display mode so that the specific position value of the map information can be displayed in the image information And the image information is displayed on the display unit.
KR1020140106291A 2014-08-14 2014-08-14 Sensor measurement error correction apparatus for measuring direction using image analysis and method of the same KR101601926B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140106291A KR101601926B1 (en) 2014-08-14 2014-08-14 Sensor measurement error correction apparatus for measuring direction using image analysis and method of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140106291A KR101601926B1 (en) 2014-08-14 2014-08-14 Sensor measurement error correction apparatus for measuring direction using image analysis and method of the same

Publications (2)

Publication Number Publication Date
KR20160020930A KR20160020930A (en) 2016-02-24
KR101601926B1 true KR101601926B1 (en) 2016-03-21

Family

ID=55449680

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140106291A KR101601926B1 (en) 2014-08-14 2014-08-14 Sensor measurement error correction apparatus for measuring direction using image analysis and method of the same

Country Status (1)

Country Link
KR (1) KR101601926B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007228154A (en) 2006-02-22 2007-09-06 Matsushita Electric Ind Co Ltd Image processor and image processing method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101573289B1 (en) 2008-11-27 2015-12-01 삼성전자주식회사 Apparatus and method for recongnizing position using camera
KR101365291B1 (en) 2012-11-30 2014-02-19 충남대학교산학협력단 Method and apparatus for estimating location in the object
KR101332042B1 (en) 2013-06-01 2013-11-22 (주)지오투정보기술 A system for processing spatial image using location information and horizontality information of camera
KR101383818B1 (en) 2013-11-05 2014-04-08 최진원 Method for measuring lengths, using mobile terminal and the system thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007228154A (en) 2006-02-22 2007-09-06 Matsushita Electric Ind Co Ltd Image processor and image processing method

Also Published As

Publication number Publication date
KR20160020930A (en) 2016-02-24

Similar Documents

Publication Publication Date Title
CN101561273B (en) Geographical data collecting device
CN108451536B (en) Method for automatically positioning an X-ray source of an X-ray system and X-ray system
US20220292720A1 (en) Method and system for calibrating multiple cameras
CN105783917B (en) Mobile terminal locating method and its device based on earth magnetism
JP6484587B2 (en) Method and system for determining spatial characteristics of a camera
JP6211157B1 (en) Calibration apparatus and calibration method
CN106767810B (en) Indoor positioning method and system based on WIFI and visual information of mobile terminal
JP2009210388A5 (en)
Tian et al. Towards ubiquitous indoor localization service leveraging environmental physical features
EP2972080B1 (en) Device for three-dimensional scanning, and method thereof
US9633450B2 (en) Image measurement device, and recording medium
WO2011114659A1 (en) Information processing device, information processing method, and program
JP2009042162A (en) Calibration device and method therefor
CN107796370B (en) Method and device for acquiring conversion parameters and mobile mapping system
CN105973140A (en) Method of measuring object spatial parameters and mobile terminal
JP2015138428A (en) Additional information display apparatus and additional information display program
EP2310799B1 (en) Stereoscopic measurement system and method
KR101900759B1 (en) Mobile terminal performing augmented reality servcie and mehod thereof
KR101601926B1 (en) Sensor measurement error correction apparatus for measuring direction using image analysis and method of the same
TW201621273A (en) Mobile positioning apparatus and positioning method thereof
JP6833275B2 (en) Magnetic field map update method and magnetic field map update device
CN112991376B (en) Equipment contour labeling method and system in infrared image
Zhou et al. A new algorithm for computing the projection matrix between a LIDAR and a camera based on line correspondences
JP2019066292A (en) Video display system
JP6812075B2 (en) Magnetic field map creation method, magnetic field map creation device, and positioning method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190218

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20200121

Year of fee payment: 5