KR101745626B1 - Apparatus and method for location-information - Google Patents

Apparatus and method for location-information Download PDF

Info

Publication number
KR101745626B1
KR101745626B1 KR1020160155226A KR20160155226A KR101745626B1 KR 101745626 B1 KR101745626 B1 KR 101745626B1 KR 1020160155226 A KR1020160155226 A KR 1020160155226A KR 20160155226 A KR20160155226 A KR 20160155226A KR 101745626 B1 KR101745626 B1 KR 101745626B1
Authority
KR
South Korea
Prior art keywords
image
reference information
user terminal
information
identification
Prior art date
Application number
KR1020160155226A
Other languages
Korean (ko)
Inventor
조유복
고준희
장경수
유성환
김수현
Original Assignee
아이씨티웨이주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아이씨티웨이주식회사 filed Critical 아이씨티웨이주식회사
Priority to KR1020160155226A priority Critical patent/KR101745626B1/en
Application granted granted Critical
Publication of KR101745626B1 publication Critical patent/KR101745626B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/32Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 사용자가 단말기를 활용하여 획득한 이미지를 기반으로 현재 사용자의 위치정보를 연산 방법 및 이를 위한 연산 장치에 관한 것이다. 구체적으로는 사용자가 단말기로 건물 등의 식별대상이 포함된 이미지를 획득하면 이를 데이터베이스 내에 저장된 레퍼런스 정보들과 비교한 뒤 하나의 레퍼런스 정보를 특정하며, 특정된 레퍼런스 정보 및 상기 획득된 이미지로부터 추출된 정합점을 활용하여 사용자 단말기의 정확한 현재 위치를 연산해 내는 방법 및 장치에 관한 것이다.The present invention relates to a method of computing current user's location information based on an image obtained by a user using a terminal and an arithmetic unit therefor. Specifically, when a user acquires an image including an identification object such as a building, the user compares the image with the reference information stored in the database, specifies one reference information, extracts the reference information extracted from the obtained image, And more particularly, to a method and apparatus for calculating an accurate current position of a user terminal using a matching point.

Description

위치정보 연산 방법 및 이를 위한 연산 장치{APPARATUS AND METHOD FOR LOCATION-INFORMATION}[0001] APPARATUS AND METHOD FOR LOCATION-INFORMATION [0002]

본 발명은 사용자가 단말기를 활용하여 획득한 이미지를 기반으로 현재 사용자의 위치정보를 연산하는 방법 및 이를 위한 연산 장치에 관한 것이다. 구체적으로는 사용자가 단말기로 건물 등의 식별대상이 포함된 이미지를 획득하면 이를 데이터베이스 내에 저장된 레퍼런스 정보들과 비교한 뒤 하나의 레퍼런스 정보를 특정하며, 특정된 레퍼런스 정보 및 상기 획득된 이미지로부터 추출된 정합점을 활용하여 사용자 단말기의 정확한 현재 위치를 연산해 내는 방법 및 장치에 관한 것이다.The present invention relates to a method of computing current user's location information based on an image acquired by a user using a terminal, and a computing device therefor. Specifically, when a user acquires an image including an identification object such as a building, the user compares the image with the reference information stored in the database, specifies one reference information, extracts the reference information extracted from the obtained image, And more particularly, to a method and apparatus for calculating an accurate current position of a user terminal using a matching point.

오늘날 스마트폰 등의 휴대용 단말기들은 다양한 기능을 수행하기 위한 부속장치들을 많이 포함하고 있으며, 최근 많은 서비스 제공 주체들은 이러한 부속장치들의 기능을 적극 조합하여 다양한 서비스를 제공하고자 노력하고 있다.Today, portable terminals such as smart phones include many accessories for carrying out various functions. Recently, many service providers are trying to provide various services by actively combining the functions of these accessories.

근래에는 특히 사용자 단말기의 위치정보 제공 기능을 활용하여 사용자의 현재 위치정보를 기반으로 한 서비스가 크게 증가하고 있다. 이러한 서비스의 대표적인 예로는 지도 애플리케이션, 네비게이팅 애플리케이션 등이 있으며, 이 외에도 위치정보를 기반으로 쿠폰 또는 할인 정보를 안내해 주는 애플리케이션 등 다양한 종류의 서비스가 존재한다. In recent years, the service based on the user's current location information has been greatly increased, in particular, by utilizing the location information providing function of the user terminal. Typical examples of such services include a map application and a navigating application. In addition, there are various kinds of services such as an application that provides coupon or discount information based on location information.

한편, 휴대용 단말기는 일반적으로 GPS를 활용하여 현재 단말기의 위치정보를 획득한다. 그러나 GPS를 이용하여 획득한 위치정보는 오차가 수 미터에 이르는 경우가 많아 정확한 위치를 파악하는 데에 어려움이 있으며, 나아가 건물이 조밀하게 군집되어 있는 도심 곳곳에서는 오차가 더 크게 발생할 수 있어 원활한 서비스 제공이 어렵다는 문제점이 있다. Meanwhile, the portable terminal generally acquires position information of the current terminal by utilizing GPS. However, since the position information obtained using the GPS is often several meters in error, it is difficult to grasp the accurate position, and furthermore, errors may be more likely to occur in the downtown area where the buildings are densely clustered. There is a problem that it is difficult to provide.

본 발명은 이러한 문제점을 해결하기 위해 고안된 것으로, 사용자가 단말기를 이용하여 획득한 이미지를 기반으로 정확한 위치값을 연산해 내는 것에 관한 것이다. 즉, 본 발명은 단말기를 이용하여 획득한 이미지 기반의 위치정보 연산 방법 및 장치에 관한 것으로, 이 건 발명은 앞서 살핀 기술적 요구를 충족시킴은 물론 본 기술분야에서 통상의 지식을 가진 자가 용이하게 발명할 수 없는 추가적인 기술요소들을 제공하기 위해 발명되었다.The present invention has been devised to solve such a problem, and relates to calculating an accurate position value based on an image acquired by a user using a terminal. That is, the present invention relates to an image-based position information calculation method and apparatus obtained by using a terminal, and the present invention not only satisfies the above-mentioned technical requirements, It was invented to provide additional technical elements that can not be done.

한국등록특허공보 10-0845892 (2008.07.07. 등록)Korean Patent Registration No. 10-0845892 (registered July 7, 2008)

본 발명은 앞서 언급한 문제점을 해결하기 위한 것으로, 단말기를 통해 획득한 식별대상의 이미지를 기반으로 해당 단말기의 정확한 현재 위치정보를 연산하는 것을 목적으로 한다.SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems, and it is an object of the present invention to calculate accurate current position information of a terminal based on an image of an identification object acquired through a terminal.

특히 본 발명은 GPS 등 기존 수단이 획득한 위치정보에 비해 개선된 오차범위 내에서의 위치정보를 연산해 내는 것을 목적으로 한다.In particular, the present invention aims to calculate location information within an improved error range as compared with position information obtained by existing means such as GPS.

또한 본 발명은 현재 단말기의 위치정보뿐 아니라 상기 단말기가 식별대상을 기준으로 어느 방향을 바라보도록 위치하고 있는지, 지상으로부터의 높이는 얼마나 되는지 등 종래 기술에 의해서는 파악할 수 없었던 부가적인 정보까지도 연산하는 것을 목적으로 한다.The present invention is not limited to the location information of the current terminal but also the purpose of calculating additional information that can not be grasped by the prior art, such as how the terminal is located in which direction the terminal is viewed based on the identification target, .

또 다른 한편, 본 발명은 단말기를 통해 획득한 식별대상의 이미지를 활용하여 이미 데이터베이스에 저장되어 있는 식별대상의 레퍼런스 정보, 더 구체적으로는 텍스쳐 데이터를 갱신하는 것을 목적으로 한다.On the other hand, the present invention aims to update the reference information of the identification object already stored in the database, more specifically, the texture data by utilizing the image of the identification object acquired through the terminal.

위와 같은 문제점을 해결하기 위하여, 연산부 및 메모리를 포함하는 연산 장치가 위치정보를 연산하는 방법은, 사용자 단말기로부터 식별대상 이미지를 수신하는 단계; 상기 식별대상 이미지와 대응되는 레퍼런스 정보를 획득하는 단계; 상기 식별대상의 이미지와 상기 레퍼런스 정보가 포함하는 모델링 데이터 간 복수의 정합점을 설정하는 단계; 및 상기 복수의 정합점 및 기 정의된 수식을 이용하여 상기 사용자 단말기의 위치정보 및 자세정보를 연산하는 단계;를 포함한다.According to an aspect of the present invention, there is provided a method for calculating position information of a computing device including a computing unit and a memory, the method comprising: receiving an identification target image from a user terminal; Obtaining reference information corresponding to the identification target image; Setting a plurality of matching points between the image of the identification object and the modeling data included in the reference information; And computing position information and attitude information of the user terminal using the plurality of matching points and the predefined formula.

또한, 상기 위치정보 연산 방법에 있어서, 상기 식별대상 이미지와 대응되는 레퍼런스 정보를 획득하는 단계는, 데이터베이스 내 저장된 복수 레퍼런스 정보들의 텍스쳐 데이터들과 상기 식별대상 이미지를 비교하고, 비교한 결과 유사도가 기 설정된 값보다 크거나 같은 경우 해당 레퍼런스 정보를 획득하는 것을 특징으로 할 수 있다.In the position information calculation method, the step of acquiring the reference information corresponding to the identification target image may include comparing the texture data of the plurality of reference information stored in the database with the identification target image, And acquires the reference information when the value is equal to or larger than the set value.

또한 이 때, 유사도가 기 설정된 값보다 크거나 같은 레퍼런스 정보가 복수 개인 경우, 상기 사용자 단말기로 상기 복수 개의 레퍼런스 정보를 전송하고, 상기 사용자 단말기로부터 수신한 선택입력에 따라 하나의 레퍼런스 정보를 특정하는 것을 특징으로 할 수도 있다.In this case, when there are a plurality of pieces of reference information having a similarity degree equal to or greater than a predetermined value, the plurality of reference information is transmitted to the user terminal, and one reference information is specified according to the selection input received from the user terminal .

또한, 상기 위치정보 연산 방법의 상기 사용자 단말기로부터 식별대상 이미지를 수신하는 단계는, 상기 사용자 단말기로부터 현재위치정보를 수신하는 단계를 더 포함하고, 상기 식별대상 이미지와 대응되는 레퍼런스 정보를 획득하는 단계는, 수신한 상기 현재위치정보에 기초하여 데이터베이스 내 저장된 복수 레퍼런스 정보들 중 제한된 범위의 레퍼런스 정보들 내에서 획득하는 것을 특징으로 할 수 있다.The receiving of the identification target image from the user terminal of the position information calculation method may further include receiving current position information from the user terminal, and acquiring the reference information corresponding to the identification target image May be acquired within a limited range of the plurality of reference information stored in the database based on the received current position information.

또한, 상기 위치정보 연산 방법에 있어서 상기 기 정의된 수식은, s·m'=A·[R|t] ·M' (단, s는 스케일 팩터, m'은 상기 식별대상 이미지의 정합점 좌표값 행렬, A는 상기 사용자 단말기 내 이미지 센서의 공유 파라미터 행렬, R은 회전 값들의 행렬, t는 이동값들의 행렬, M'은 식별대상의 정합점 좌표값 행렬임)일 수 있다.Also, in the position information calculation method, the predefined formula is s · m '= A · [R | t] · M' (where s is a scale factor and m ' A is a shared parameter matrix of the image sensor in the user terminal, R is a matrix of rotation values, t is a matrix of movement values, and M 'is a matching point coordinate value matrix of the object to be identified).

또한, 상기 위치정보 연산 방법에 있어서 상기 식별대상 이미지는 건물의 외벽면을 포함하고, 상기 식별대상 이미지 내의 복수의 정합점은 상기 건물의 외벽면에 존재하는 임의의 점들 중 추출될 수 있다. Also, in the location information calculation method, the identification target image includes an outer wall surface of the building, and a plurality of matching points in the identification target image may be extracted from arbitrary points existing on the outer wall surface of the building.

또한 이 때, 상기 식별대상 이미지는 건물의 제1외벽면 및 제2외벽면을 포함하고, 상기 식별대상 이미지 내의 복수의 정합점은 상기 제1외벽면에 존재하는 임의의 점들 중 적어도 하나 및 상기 제2외벽면에 존재하는 임의의 점들 중 적어도 하나를 포함할 수 있다.Wherein the identification target image includes a first outer wall surface and a second outer wall surface of the building, a plurality of matching points in the identification target image include at least one of arbitrary points existing on the first outer wall surface, And may include at least one of any points present on the second outer wall surface.

또한, 상기 위치정보 연산 방법은 상기 모델링 데이터와 상기 식별대상의 이미지 간 복수의 모서리점을 매칭시키는 단계; 및 상기 매칭된 복수의 모서리점을 기준으로, 상기 식별대상의 이미지를 참조하여 상기 레퍼런스 정보가 포함하는 텍스쳐 데이터를 갱신하는 단계;를 더 포함할 수도 있다.The position information calculation method may further comprise: matching a plurality of corner points between the modeling data and the image of the identification object; And updating the texture data included in the reference information with reference to the image of the identification object with reference to the matched corner points.

한편, 본 발명의 또 다른 실시예에 따른 위치정보 연산 장치는, 사용자 단말기로부터 식별대상의 이미지를 수신하는 통신부; 상기 식별대상의 이미지와 대응되는 레퍼런스 정보를 획득하고, 상기 식별대상의 이미지와 상기 레퍼런스 정보가 포함하는 모델링 데이터 간 복수의 정합점을 설정하며, 상기 복수의 정합점 및 기 정의된 수식을 이용하여 상기 사용자 단말기의 위치값을 연산하는 연산부; 및 메모리;를 포함할 수 있다.According to another aspect of the present invention, there is provided a position information calculation apparatus comprising: a communication unit for receiving an image of an identification object from a user terminal; A reference point corresponding to the image of the object to be identified is acquired, a plurality of matching points are set between the image of the object to be identified and the modeling data included in the reference information, and using the plurality of matching points and the pre- An operation unit for calculating a position value of the user terminal; And a memory.

또한 이 때, 상기 연산부는, 상기 식별대상 이미지와 대응되는 레퍼런스 정보를 획득함에 있어, 데이터베이스 내 저장된 복수 레퍼런스 정보들의 텍스쳐 데이터들과 상기 식별대상 이미지를 비교하고, 비교한 결과 유사도가 기 설정된 값보다 크거나 같은 경우 해당 레퍼런스 정보를 획득할 수 있다.Also, in this case, when acquiring the reference information corresponding to the identification object image, the operation unit compares the texture data of the plurality of reference information stored in the database with the identification object image, If it is greater than or equal to the reference information, the reference information can be obtained.

본 발명에 따르면 종래에 비해 보다 정확한 위치정보를 획득할 수 있는 효과가 있다.According to the present invention, more accurate position information can be obtained than in the prior art.

특히 본 발명에 따르면 건물 등이 밀집되어 있는 공간에서도 정확한 위치정보를 획득할 수 있으며, 오히려 건물 등이 많이 존재하는 공간일수록 참조할 수 있는 데이터가 더 많으므로 연산에 유리하게 활용할 수 있는 효과도 꾀할 수 있다.Particularly, according to the present invention, it is possible to acquire accurate position information even in a space where buildings and the like are densely packed. Rather, since there is more data to be referenced in a space where many buildings and the like exist, .

또한 본 발명에 따르면, 사용자 단말기가 식별대상으로부터 얼마나 떨어져 있는지, 지상으로부터의 높이는 어느 정도인지, 어느 방향을 바라보도록 배치되었는지 등의 부가적인 정보를 얻을 수 있는 효과가 있다.Further, according to the present invention, it is possible to obtain additional information such as how far the user terminal is from the identification target, the height from the ground, and the direction in which the user terminal is positioned.

또한 본 발명에 따르면, 다수의 레퍼런스 정보가 이미 생성 및 저장되어 있는 데이터베이스, 예를 들어 브이월드 서비스가 활용하고 있는 데이터베이스를 그대로 사용할 수 있으므로 별도 데이터베이스 구축의 필요 없이 서비스를 제공할 수 있게 되는 효과가 있다.Further, according to the present invention, since a database used by a VW service, in which a large number of reference information has already been generated and stored, can be used as it is, service can be provided without the need for separate database construction have.

또한 본 발명에 따르면, 서비스 이용자가 단말기를 통해 획득한 이미지를 기초로 데이터베이스 내 저장되어 있는 식별대상들의 텍스쳐 데이터를 갱신할 수 있어 데이터베이스 내 저장된 레퍼런스 정보들을 자동적으로 업데이트 할 수 있는 효과도 있다.In addition, according to the present invention, texture data of identification objects stored in a database can be updated based on an image acquired by a service user through a terminal, thereby automatically updating reference information stored in a database.

도 1은 본 발명에 따른 위치정보 연산 방법의 기본 개념을 개략적으로 나타낸 것이다.
도 2는 본 발명에 따른 위치정보 연산 방법을 순서에 따라 나타낸 것이다.
도 3은 연산 장치가 식별대상 이미지와 텍스쳐 데이터를 비교하여 레퍼런스 정보를 획득하는 과정을 나타낸 것이다.
도 4는 연산 장치가 식별대상의 이미지와 레퍼런스 정보 간 복수의 정합점을 설정하는 과정을 나타낸 것이다.
도 5 및 도 6은 본 발명의 또 다른 실시예에 따른 위치정보 연산 방법을 나타낸 것이다.
도 7은 본 발명에 따른 또 다른 실시예, 구체적으로는 레퍼런스 정보를 갱신하는 단계를 포함한 위치정보 연산 방법을 나타낸 것이다.
도 8은 도 7에 따른 레퍼런스 정보 갱신의 실시예의 구체적인 예시를 도시한 것이다.
FIG. 1 schematically shows a basic concept of a position information calculation method according to the present invention.
FIG. 2 is a flowchart illustrating a method of calculating positional information according to an embodiment of the present invention.
FIG. 3 illustrates a process in which a computing device compares reference images with texture data to obtain reference information.
4 shows a process in which a computing device sets a plurality of matching points between an image of an identification target and reference information.
5 and 6 illustrate a location information calculation method according to another embodiment of the present invention.
FIG. 7 illustrates another embodiment of the present invention, specifically, a method of calculating location information including a step of updating reference information.
FIG. 8 shows a specific example of an embodiment of reference information update according to FIG.

본 발명의 목적과 기술적 구성 및 그에 따른 작용 효과에 관한 자세한 사항은 본 발명의 명세서에 첨부된 도면에 의거한 이하의 상세한 설명에 의해 보다 명확하게 이해될 것이다. 첨부된 도면을 참조하여 본 발명에 따른 실시예를 상세하게 설명한다.DETAILED DESCRIPTION OF THE EMBODIMENTS Reference will now be made in detail to the preferred embodiments of the present invention, examples of which are illustrated in the accompanying drawings, wherein like reference numerals refer to the like elements throughout. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment according to the present invention will be described in detail with reference to the accompanying drawings.

본 명세서에서 개시되는 실시예들은 본 발명의 범위를 한정하는 것으로 해석되거나 이용되지 않아야 할 것이다. 이 분야의 통상의 기술자에게 본 명세서의 실시예를 포함한 설명은 다양한 응용을 갖는다는 것이 당연하다. 따라서, 본 발명의 상세한 설명에 기재된 임의의 실시예들은 본 발명을 보다 잘 설명하기 위한 예시적인 것이며 본 발명의 범위가 실시예들로 한정되는 것을 의도하지 않는다.The embodiments disclosed herein should not be construed or interpreted as limiting the scope of the present invention. It will be apparent to those of ordinary skill in the art that the description including the embodiments of the present specification has various applications. Accordingly, any embodiment described in the Detailed Description of the Invention is illustrative for a better understanding of the invention and is not intended to limit the scope of the invention to embodiments.

도면에 표시되고 아래에 설명되는 기능 블록들은 가능한 구현의 예들일 뿐이다. 다른 구현들에서는 상세한 설명의 사상 및 범위를 벗어나지 않는 범위에서 다른 기능 블록들이 사용될 수 있다. 또한, 본 발명의 하나 이상의 기능 블록이 개별 블록들로 표시되지만, 본 발명의 기능 블록들 중 하나 이상은 동일 기능을 실행하는 다양한 하드웨어 및 소프트웨어 구성들의 조합일 수 있다.The functional blocks shown in the drawings and described below are merely examples of possible implementations. In other implementations, other functional blocks may be used without departing from the spirit and scope of the following detailed description. Also, although one or more functional blocks of the present invention are represented as discrete blocks, one or more of the functional blocks of the present invention may be a combination of various hardware and software configurations that perform the same function.

또한, 어떤 구성요소들을 포함한다는 표현은 “개방형”의 표현으로서 해당 구성요소들이 존재하는 것을 단순히 지칭할 뿐이며, 추가적인 구성요소들을 배제하는 것으로 이해되어서는 안 된다.Furthermore, the expression "including an element" is merely referred to as an "open" expression, and the element should not be understood as excluding the additional elements.

나아가 어떤 구성요소가 다른 구성요소에 “연결되어” 있다거나 “접속되어” 있다고 언급될 때에는, 그 다른 구성요소에 직접적으로 연결 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 한다.Further, when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, but it should be understood that other elements may be present in between do.

이하에서는 도면을 참조하여 본 발명에 따른 위치정보 연산 방법을 살펴보기로 한다.Hereinafter, a location information calculation method according to the present invention will be described with reference to the drawings.

먼저 도 1은 본 발명에서 구현하고자 하는 위치정보 연산 방법의 개략적인 개념을 나타낸 것이다. 이에 따르면 위치정보 연산은 가장 먼저 사용자가 자신의 사용자 단말기(100)로 임의의 식별대상에 대한 이미지를 획득하는 것으로부터 시작되며, 이후 상기 식별대상에 대한 이미지는 데이터베이스(300) 내 저장되어 있는 수 많은 레퍼런스 정보, 더 정확하게는 상기 식별대상이 어느 위치에 있는 무엇인지를 특정하기 위한 레퍼런스 정보들과 비교된다. 한편, 식별대상이 어느 위치에 있는 무엇인지가 파악이 된 후 본 발명에 따른 연산 장치(200)는 상기 식별대상 이미지와 상기 식별대상의 레퍼런스 정보를 대비하여 상기 사용자 단말기(100)가 어느 위치에서 어느 자세로 상기 식별대상의 이미지를 획득하였는지 연산한다.First, FIG. 1 shows a schematic concept of a position information calculation method to be implemented in the present invention. According to this, the position information calculation starts with the user first acquiring an image of an arbitrary identification target with his / her user terminal 100, and then the image of the identification target is stored in the database 300 It is compared with a large amount of reference information, more precisely, reference information for specifying the position of the identification target. After that, the computing device 200 according to the present invention compares the identification object image with the reference information of the identification object to determine which position the user terminal 100 is located at And calculates in which posture the image of the identification object is acquired.

본 발명에 따른 위치정보 연산 방법의 실제 구현예를 살펴보면, 가령 사용자 A가 도심에서 현재 서 있는 곳의 정확한 위치정보를 알고자 하는 경우, 사용자 A는 소지하고 있는 스마트폰 등의 단말기를 이용하여 주변 건물을 촬영하고, 단말기는 이렇게 촬영한 주변 건물 이미지를 위치정보 서비스를 제공하는 서버 측으로 송신함으로써 최초의 위치정보 연산 요청을 한다. 상기 건물 이미지를 수신한 서버는 데이터베이스(300)를 탐색하여 건물 이미지와 매칭되는 레퍼런스 정보, 즉 상기 건물 이미지 내 건물과 유사도가 높은 건물의 모델링 데이터 및 텍스쳐 데이터를 추출해 냄으로써 상기 건물 이미지 내 건물의 정확한 위치를 획득한다. For example, when the user A wants to know the precise location information of the current location in the city center, the user A uses a terminal such as a smart phone, The terminal captures the building, and the terminal sends the image of the neighboring building photographed as described above to the server providing the location information service, thereby requesting the first location information calculation. The server receiving the building image searches the database 300 to extract the reference information matching the building image, that is, the modeling data and the texture data of the building having a high degree of similarity with the building in the building image, Obtain the location.

한편, 본 실시예에서 상기 서버가 궁극적으로 획득하고자 하는 정보는 건물의 위치정보가 아닌 사용자 A가 서 있는 지점의 위치정보이다. 즉 상기 서버는 건물 이미지 내 건물과 앞서 획득한 레퍼런스 정보 내 모델링 데이터 간 정합점을 찾아 건물 이미지 내 건물 및 레퍼런스 정보 내 모델링 데이터를 동기화 시키고, 상기 사용자가 획득한 이미지가 상기 건물로부터 얼마나 떨어진 곳에서 촬영된 것인지, 그리고 어느 지점에서 어느 각도로 촬영된 것인지를 연산해 냄으로써 최종적으로 사용자 A가 서 있는 곳의 위치정보를 획득하게 된다.Meanwhile, in the present embodiment, the information that the server ultimately desires to acquire is location information of the point where the user A stands, not the location information of the building. That is, the server finds a matching point between the building in the building image and the modeling data in the reference information acquired earlier, synchronizes the modeling data in the building and the reference information in the building image, The position information of the place where the user A stands is finally obtained by calculating the photographed position and the angle at which the photographed image is photographed.

이하에서는 나머지 도면들을 참조하여 본 발명에 따른 위치정보 연산 방법 및 이를 위한 장치 구성에 대해 더 자세히 살펴보기로 한다.Hereinafter, a location information calculation method according to the present invention and a device configuration therefor will be described in detail with reference to the remaining drawings.

도 2는 본 발명에 위치정보 연산 과정 및 이를 위해 필요한 장치들의 관계들을 도시한 것이다.FIG. 2 illustrates the relationship between the location information calculation process and the devices necessary for the present invention.

도 2에 따르면 위치정보 연산에는 사용자 단말기(100), 연산 장치(200), 그리고 데이터베이스(300)가 필요 구성으로서 존재할 수 있다. 각각의 구성에 대해 간략히 설명하면 다음과 같다.Referring to FIG. 2, the user terminal 100, the computing device 200, and the database 300 may exist as a necessary configuration in the location information calculation. A brief description of each configuration is as follows.

먼저 사용자 단말기(100)는 사용자가 소지 또는 휴대할 수 있는 장치를 일컫는 것으로 이해될 수 있다. 이 때, 사용자 단말기(100)는 이미지를 획득할 수 있는 수단, 예를 들어 CCD 등과 같은 이미지 센서를 필수적으로 포함한다. 즉, 본 상세한 설명에서 언급되는 사용자 단말기(100)는 임의의 식별 대상물, 예를 들어 건물 또는 입상 등의 촬영이 가능한 수단을 포함할 것을 요한다. 사용자 단말기(100)의 종류에는 예를 들어 스마트폰, 태블릿 컴퓨터, 디지털카메라, 랩탑 컴퓨터 등이 포함될 수 있으며, 이 외에 사용자가 휴대할 수 있는 장치로서 이미지 촬영이 가능한 수단을 포함하는 것은 모두 상기 사용자 단말기(100)의 범주 내에 포함되는 것으로 이해되어야 할 것이다.First, the user terminal 100 may be understood to refer to a device that a user can possess or carry. At this time, the user terminal 100 necessarily includes means for acquiring an image, for example, an image sensor such as a CCD or the like. That is, the user terminal 100 referred to in the present specification needs to include means for photographing any identification object, for example, a building or a figurine. The user terminal 100 may include, for example, a smart phone, a tablet computer, a digital camera, a laptop computer, and the like. But it should be understood that it is included within the scope of the terminal 100.

다음으로 연산 장치(200)는 대량의 데이터를 처리하기 위한 중앙연산장치(CPU), 그리고 데이터를 저장하기 위한 메모리를 포함하는 것을 전제로 한다. 본 발명에서 언급되는 서버는 예를 들어 일반적으로 업계에서 서버라 통용되는 장치를 모두 포함할 수 있으며, 반드시 서버가 아니라 하더라도 상기 중앙연산장치 및 메모리를 포함하는 것으로서 위치정보를 연산하기에 적합한 구성을 갖춘 연산 장치(200)는 모두 포함되는 것으로 이해되어야 한다.Next, the computing device 200 is assumed to include a central processing unit (CPU) for processing a large amount of data, and a memory for storing data. The server referred to in the present invention may include all devices commonly used in the industry, for example, and may include a central processing unit and a memory, not necessarily a server, It is to be understood that the computing device 200 equipped with the present invention is all included.

마지막으로 데이터베이스(300)는 대량의 정보, 더 구체적으로는 대량의 레퍼런스 정보들을 저장할 수 있는 장치를 일컫는다. 본 데이터베이스(300)는 그 자체가 데이터를 저장하는 용도의 저장수단(HDD, SSD 등)일 수 있으며, 또는 상기 데이터베이스(300)는 별도의 중앙연산장치 및 메모리를 갖춘 컴퓨터로서 대용량의 데이터를 저장하기 위한 저장수단을 더 포함하는 형태로도 구현될 수 있다. 전자의 경우 상기 데이터베이스(300)는 앞서 설명한 연산 장치(200) 내 결합된 형태로 존재할 수 있으며, 후자의 경우 상기 데이터베이스(300)는 상기 연산 장치(200)와 유선 또는 무선 등의 네트워크로 연결되어 상호 데이터를 송수신 할 수 있는 형태로 존재할 수 있다.Finally, the database 300 refers to a device capable of storing a large amount of information, more specifically, a large amount of reference information. The database 300 may be storage means (HDD, SSD, etc.) for storing data itself, or the database 300 may be a computer having a separate central processing unit and a memory and stores a large amount of data And a storage means for storing the data. In the former case, the database 300 may exist in a combined form in the computing device 200 described above. In the latter case, the database 300 is connected to the computing device 200 through a network such as a wired or wireless network And may exist in a form in which mutual data can be transmitted and received.

다시 도 2를 참조하여 본 발명에 따른 위치정보 연산 방법을 살펴보면 다음과 같다.The location information calculation method according to the present invention will now be described with reference to FIG.

본 발명에 따른 위치정보 연산 방법은 가장 먼저 사용자 단말기(100)가 식별대상의 이미지를 획득하는 것으로부터 시작된다. (S110) 이 때 식별대상이란 사용자가 서 있는 지점 주변의 건물 또는 동상, 조형물 등의 입상이 포함될 수 있으며, 그 외에 해당 지점을 식별할 수 있는 동산 또는 부동산이 포함될 수 있다. 또한, 식별대상의 이미지를 획득한다는 것의 의미는 기본적으로 상기 식별대상물에 대한 촬영을 함으로써 이에 따른 이미지가 생성 및 저장되는 것으로 이해될 것이나, 그 외에 식별대상의 외곽선, 그리고 식별대상의 외측면에 형성된 무늬, 패턴 등의 형상을 이미지 또는 이미지 데이터의 형태로 생성할 수 있다면 모두 상기 S110단계의 범주에 포함되는 것으로 이해되어야 할 것이다. The location information calculation method according to the present invention starts with the user terminal 100 acquiring the image of the identification object first. (S110) At this time, the identification target may include a building, a statue, a figurine or the like around the point where the user stands, or may include a movable object or real estate that can identify the corresponding point. In addition, the meaning of acquiring the image of the identification object is basically understood to be that the image corresponding thereto is generated and stored by taking the image of the identification object, but in addition, the outline of the identification object, Pattern, pattern, and the like can be generated in the form of image or image data, it should be understood that they are all included in the category of step S110.

한편, S110단계는 상기 사용자 단말기(100) 내에 설치된 소프트웨어, 예를 들어 위치정보 연산 서비스를 이용하기 위해 설치된 애플리케이션을 구동하고 해당 애플리케이션의 가이드에 따라 촬영될 수 있다.Meanwhile, in step S110, the application installed to use the software installed in the user terminal 100, for example, the location information calculation service, may be driven and photographed according to the guide of the application.

S110단계 이후, 사용자 단말기(100)는 연산 장치(200)로, 더 구체적으로는 연산 장치의 통신부를 통해 상기 획득한 식별대상의 이미지를 전송한다. (S120) 이 때 전송이란 바람직하게는 이동통신망, 와이파이 등의 무선 네트워크를 통해 데이터가 일측(사용자 단말기(100))에서 타측(연산 장치(200))으로 전송되는 것으로 이해되나, 상기 전송은 유선 네트워크를 통해서도 이루어질 수 있음을 이해해야 할 것이다. S120 단계는 또한 사용자 단말기(100) 내 설치된 애플리케이션에 의해 이루어질 수 있으며, 특히 상기 연산 장치(200)에 이미지를 전송하기 전에는 위치정보 연산 서비스를 이용하기 위해 연산 장치(200)에 로그인 하는 과정을 더 거칠 수 있다.After step S110, the user terminal 100 transmits the obtained image of the identification object to the arithmetic unit 200, more specifically through the communication unit of the arithmetic unit. (S120) At this time, it is understood that data is transmitted from one side (user terminal 100) to the other side (computing device 200) through a wireless network such as a mobile communication network or WiFi, It should be understood that this can also be done through a network. Step S120 may also be performed by an application installed in the user terminal 100. In particular, before transmitting the image to the computing device 200, the process of logging into the computing device 200 to use the location information computing service It can be rough.

한편, S120단계에 의해 식별대상의 이미지를 수신한 연산 장치(200), 더 구체적으로 연산 장치의 연산부는 상기 식별대상이 어느 위치에 존재하는 무엇인지를 특정하기 위해 레퍼런스 정보를 탐색한다. (S130) On the other hand, in step S120, the arithmetic unit of the arithmetic unit 200 that has received the image of the identification target, more specifically, the arithmetic unit of the arithmetic unit searches for the reference information to specify the position of the identification target. (S130)

레퍼런스 정보란, 식별대상을 특정하기 위해 비교대상이 되는 기준 정보들을 의미하는 것으로, 상기 레퍼런스 정보는 각각 모델링 데이터 및 텍스쳐 데이터를 포함할 수 있다. 모델링 데이터란 대상물의 외곽 형상을 이해하기 위한 일련의 데이터를 의미하는 것으로, 상기 모델링 데이터는 대량의 3차원 좌표들로 이루어질 수 있다. 상기 모델링 데이터를 통해서는 대상물이 육면체의 형상인지 또는 구형의 형상인지, 대상물의 외측면에 오목, 볼록한 부분이 존재하는지 등 해당 대상물의 외형을 알 수 있다. 텍스쳐 데이터란 대상물의 외측에 존재하는 무늬, 패턴 등의 형상을 이해하기 위한 일련의 데이터를 의미하는 것으로, 상기 텍스쳐 데이터는 2차원 공간 평면 상에 점, 선 또는 색깔을 표현하기 위한 값들로 이루어질 수 있다. 쉬운 예로, 임의 건물에 대한 레퍼런스 정보는 직육면체의 외형을 이해하기 위한 모델링 데이터, 그리고 건물의 각 면에 존재하는 간판 또는 창문 무늬, 창문 패턴 등을 이해하기 위한 텍스쳐 데이터를 포함할 수 있다. 또한 이 때, 상기 모델링 데이터와 텍스쳐 데이터 사이에는 매핑 규칙이 존재하며, 데이터베이스(300) 내 상기 레퍼런스 정보 내에는 이러한 매핑 규칙도 함께 포함될 수 있다.The reference information refers to reference information to be compared in order to identify an object to be identified. The reference information may include modeling data and texture data, respectively. The modeling data refers to a series of data for understanding the contour of the object, and the modeling data may be composed of a large number of three-dimensional coordinates. Through the modeling data, it is possible to know the shape of the object such as whether the object is a hexahedral shape or a spherical shape, and whether concave or convex portions exist on the outer surface of the object. The texture data refers to a series of data for understanding shapes of patterns, patterns, and the like existing outside the object. The texture data may include values for representing points, lines, or colors on a two-dimensional space plane have. As an easy example, reference information for an arbitrary building may include modeling data for understanding the appearance of a rectangular parallelepiped, and texture data for understanding signboards, window patterns, window patterns, and the like present on each side of the building. At this time, there is a mapping rule between the modeling data and the texture data, and the mapping rule in the reference information in the database 300 may be included together.

S130 단계는 데이터베이스(300)를 참조하여 이루어지는데, 이 때 데이터베이스(300)에는 앞서 설명한 것과 같은 레퍼런스 정보들, 복수의 대상물들에 대한 레퍼런스 정보들이 저장되어 있음을 전제로 한다. 본 발명은 바람직하게는 데이터베이스(300)로서 브이월드 서비스를 위해 구축해 둔 데이터베이스(300)를 이용할 수 있음을 이해한다.In step S130, reference is made to the database 300. In this case, it is assumed that reference information such as the one described above and reference information on a plurality of objects are stored in the database 300. [ It is understood that the present invention preferably utilizes the database 300 constructed for the VWorld service as the database 300.

이하에서는 S130 단계에 대해 도 3을 참조하여 보다 상세히 살펴보기로 한다. S130 단계는 연산 장치(200)가 식별대상의 이미지를 데이터베이스(300) 내 복수의 레퍼런스 정보들과 대비하여 어느 특정 레퍼런스 정보를 획득하는 과정이다. 더 구체적으로, 본 단계는 연산 장치(200)가 상기 식별대상의 이미지와 복수 레퍼런스 정보의 텍스쳐 데이터를 대비시켜 그 유사도를 산출하고, 산출된 유사도 값이 기 설정된 값 이상인 경우 해당 레퍼런스 정보를 특정 및 획득한다. Hereinafter, step S130 will be described in more detail with reference to FIG. In step S130, the computing device 200 compares the image of the identification object with a plurality of reference information in the database 300 to obtain certain reference information. More specifically, in this step, the computing device 200 compares the image of the identification object with the texture data of a plurality of reference information, calculates the similarity, and if the calculated similarity value is greater than or equal to a predetermined value, .

도 3은 식별대상 이미지와 텍스쳐 데이터를 비교하여 레퍼런스 정보를 특정하는 과정을 간략히 나타낸 것이다. FIG. 3 is a schematic view illustrating a process of comparing reference data by comparing an image to be identified with texture data.

예를 들어 식별대상이 건물이라 가정할 때, 상기 촬영된 식별대상의 이미지는 건물의 3개 면을 포함한 이미지일 수 있는데, 이 때 연산 장치(200)는 상기 건물의 외벽에 형성되는 무늬, 패턴 등의 모양과 데이터베이스(300) 내 저장되어 있는 텍스쳐 데이터들을 대비하여 유사도를 산출한다. 이 때 건물 외벽에 형성되는 모양에는 복수 개 창문들이 이루는 모양 또는 패턴, 건물 외벽에 설치된 간판의 모양 또는 패턴, 또는 건물 자체의 고유 형상 등이 포함될 수 있다. 한편, 상기 식별대상의 이미지와 대비대상이 되는 텍스쳐 데이터들은 도 3의 오른쪽에 도시된 것과 같이 건물의 면들이 평면상에 전개가 된 상태인 것으로 이해될 수 있다. 다만, 도 3에 도시된 텍스쳐 데이터의 일 형태는 본 발명의 이해를 돕기 위한 것이며, 이와 달리 텍스트로만 이루어질 수도 있거나 또는 텍스트 및 이미지가 결합된 형태로도 이루어질 수 있음을 이해해야 할 것이다. For example, when it is assumed that the object to be identified is a building, the image of the object to be identified may be an image including three sides of the building. At this time, And the texture data stored in the database 300 to calculate the similarity. At this time, the shape formed on the outer wall of the building may include a shape or pattern formed by a plurality of windows, a shape or a pattern of a signboard installed on the outer wall of the building, or a unique shape of the building itself. On the other hand, the texture data to be compared with the image of the identification object can be understood as a state in which the faces of the building are developed on the plane as shown on the right side of FIG. It should be understood, however, that one form of the texture data shown in FIG. 3 is intended to facilitate understanding of the present invention and may alternatively be text only or text and image combined.

식별대상 이미지와 텍스쳐 데이터 간 유사도 산출은 다양한 방법론에 의해 이루어질 수 있는데, 예를 들어 상기 유사도는 특징점 기반의 이미지 정합 기술을 통해 이미지 간 특징점의 수를 비교하거나, 또는 상관성 기반의 이미지 간 유사도 비교 기술을 통해 이루어질 수 있다. For example, the degree of similarity may be determined by comparing the number of feature points between images through a feature-based image matching technique, or by comparing the similarity between images based on the correlation, Lt; / RTI >

한편, 본 단계에서 상기 연산 장치(200)는, 유사도 산출 결과 그 값이 기 정해진 값보다 낮은 경우, 즉 식별대상 이미지와 데이터베이스(300) 내 저장된 텍스쳐 데이터의 비교가 어려워 유사도가 현저히 낮게 산출된 경우 상기 사용자 단말기(100)로 추가의 식별대상 이미지를 요구할 수 있으며, 상기 사용자는 사용자 단말기(100)를 조작하여 새로운 식별대상 이미지를 촬영한 후 이를 재차 연산 장치(200)로 전송할 수 있다. 이 때 상기 연산 장치(200)는 상기 사용자 단말기(100)로 동일한 식별대상을 다른 각도에서 촬영한 이미지를 요구할 수 있으며, 복수의 식별대상 이미지가 확보된 경우 연산 장치(200)는 획득한 복수의 식별대상 이미지를 대상으로 S130 단계를 수행하여 유사도가 높은 레퍼런스 정보를 특정해 낼 수 있다.Meanwhile, in this step, when the calculated value of the degree of similarity is lower than a predetermined value, that is, when it is difficult to compare the image to be identified and the texture data stored in the database 300 and the degree of similarity is calculated to be significantly low The user terminal 100 may request an additional image to be identified and the user may operate the user terminal 100 to capture a new image to be identified and then transmit the image to the computing device 200 again. At this time, the computing device 200 may request the user terminal 100 to capture an image of the same object to be identified at different angles. When a plurality of images to be identified are acquired, the computing device 200 acquires a plurality of acquired objects The reference information having a high degree of similarity can be specified by performing the step S130 on the identification target image.

이상과 같이 S130 단계는 식별대상의 이미지와 데이터베이스(300) 내 텍스쳐 데이터들을 비교함으로써 특정 레퍼런스 정보를 획득하는 과정이며, 본 과정이 완료된 경우 연산 장치(200)는 획득한 레퍼런스 정보로부터 상기 식별대상, 즉 건물의 정확한 위치정보를 인식할 수 있게 된다.As described above, in step S130, the specific reference information is obtained by comparing the image of the identification object with the texture data in the database 300. When the process is completed, the calculation device 200 extracts, from the acquired reference information, That is, the accurate location information of the building can be recognized.

S130 단계 이후, 연산 장치(200), 더 구체적으로는 연산 장치 내 연산부는 상기 식별대상의 이미지와 특정된 레퍼런스 정보, 더 정확하게는 텍스쳐 데이터 사이 복수의 정합점을 설정한다. (S140 단계)After step S130, the arithmetic unit 200, and more particularly, the in-arithmetic operation unit, sets a plurality of matching points between the image of the identification object and the specified reference information, more precisely, the texture data. (Step S140)

정합점이란, 사용자 단말기(100)가 현재 존재하고 있는 지점의 정확한 위치값을 연산하기 위해 상기 레퍼런스 정보의 텍스쳐 데이터 및 모델링 데이터와 상기 식별대상 이미지를 가상적으로 정합시키기 위한 기준점들로, 기본적인 위치값 연산을 위해 바람직하게는 최소 4쌍의 정합점의 설정이 필요하다. The matching point is defined as reference points for virtually matching the texture data and the modeling data of the reference information with the identification target image in order to calculate an accurate position value of the point where the user terminal 100 currently exists, It is preferable to set at least four matching points for the calculation.

이하에서는 S140 단계를 도 4를 참조하여 자세히 살펴보기로 한다. 도 4에 따르면 S140 단계는 다시 두 개의 세부단계로 나뉠 수 있는데, 첫 번째 세부 단계는 먼저 식별대상의 이미지와 텍스쳐 데이터 간 정합점을 설정하는 단계, 그리고 두 번째 세부 단계는 상기 텍스쳐 데이터 내 매칭되는 정합점을 모델링 데이터로부터 추출하는 단계이다. Hereinafter, step S140 will be described in detail with reference to FIG. Referring to FIG. 4, step S140 may be divided into two sub-steps. The first sub-step includes first setting a matching point between the image of the identification object and the texture data, and the second sub- And extracting the matching point from the modeling data.

식별대상의 이미지와 텍스쳐 데이터 간 정합점들은 모두 2차원 평면 상에 존재하는 것으로 가정되며, 따라서 식별대상의 이미지 내에서는 (x,y)로, 텍스쳐 데이터 내에서는 (u,v)와 같이 표시되며, 하나의 정합점은 상기 (x,y) 및 (u,v)가 대응된 채 각각 식별대상의 이미지 또는 텍스쳐 데이터 내에서 존재할 수 있다. It is assumed that all the matching points between the image of the identification object and the texture data exist on the two-dimensional plane, and thus (x, y) in the image of the identification object and (u, v) in the texture data , And one matching point may exist in the image or texture data of the identification object corresponding to (x, y) and (u, v), respectively.

두 번째 세부 단계는 텍스쳐 데이터 내 정합점으로부터 모델링 데이터 내 매칭되는 정합점을 추출하는 과정으로, 이는 앞서 (u,v)와 같은 2차원 정합점을 이미 정해진 텍스쳐 데이터-모델링 데이터 간 매핑 규칙에 적용시켜 3차원의 좌표를 구하는 방식으로 이루어질 수 있다. 가령, 상기 텍스쳐 데이터 내 (u,v)의 정합점은 모델링 데이터 내 (X, Y, Z)로 존재할 수 있다. The second step is to extract the matching points that match in the modeling data from the matching points in the texture data. This is because the two-dimensional matching points like (u, v) are applied to the predetermined mapping rules between the texture data and the modeling data Dimensional coordinates to obtain the three-dimensional coordinates. For example, the matching points of (u, v) in the texture data may exist in the modeling data (X, Y, Z).

이상과 같이 S140 단계에서는 식별대상의 이미지와 레퍼런스 정보 (텍스쳐 데이터 및 모델링 데이터) 간 상호 대응되는 정합점이 설정된다.As described above, in step S140, matching points that correspond to each other between the image of the identification object and the reference information (texture data and modeling data) are set.

한편, 본 단계에서 추출되는 정합점은 식별대상의 모서리와 대응되는 점이 우선적으로 정해질 수 있는데, 구체적으로는 텍스쳐 데이터 상 창문 모서리, 건물 모서리, 간판 모서리 등의 점이 정합점으로 정해질 수 있다. 또한, 복수의 정합점이 설정되는 경우 정합점들은 가능한 한 동일 평면상에 위치하는 점들로 구성되는 것이 바람직하며, 나아가 가능한 한 정합점들 사이의 간격이 좁을수록 식별대상의 이미지와 텍스쳐 데이터를 기준으로 한 연산 결과의 정확도가 높아질 수 있음을 이해한다. 이와 같이 정합점을 동일 평면상에서 추출해 내거나 좁은 간격범위 내에서 추출하는 경우 평면성을 더 확실히 보장할 수 있기 때문에 연산 결과의 정확도를 높일 수 있다.On the other hand, the matching point extracted in this step can be defined in advance as a point corresponding to the corner of the identification target. Specifically, points such as a corner of a window, a corner of a building, and a corner of a signboard on the texture data can be defined as a matching point. In addition, when a plurality of matching points are set, it is preferable that the matching points consist of points located as coplanar as possible, and furthermore, as the interval between the matching points becomes as narrow as possible, It is understood that the accuracy of an operation result can be increased. When the matching points are extracted on the same plane or extracted within a narrow interval, the accuracy of the calculation result can be improved because the flatness can be more assured.

S140 단계 이후, 연산 장치(200), 더 구체적으로 연산 장치 내 연산부는 앞서 설정한 정합점들을 기초로 사용자 단말기(100)의 정확한 위치정보 값 및 자세정보를 연산한다. (S150 단계)After step S140, the arithmetic operation unit 200, more specifically, the arithmetic operation unit in the arithmetic unit, calculates the accurate position information value and attitude information of the user terminal 100 based on the previously set matching points. (Step S150)

S150 단계는 다음과 같은 수식에 의해 연산된다.Step S150 is calculated by the following equation.

[식 1][Formula 1]

s·m'=A·[R|t] ·M's · m '= A · [R | t] · M'

상기 식 1에서 s는 스케일 팩터, m'은 상기 식별대상 이미지의 정합점 좌표값 행렬, A는 상기 사용자 단말기(100) 내 이미지 센서의 공유 파라미터 행렬, R은 회전 값들의 행렬, t는 이동값들의 행렬, M'은 모델링 데이터 내에서의 식별대상 정합점 좌표값 행렬을 의미한다.(1) where s is a scale factor, m 'is a matching point coordinate value matrix of the image to be identified, A is a shared parameter matrix of the image sensor in the user terminal 100, R is a matrix of rotation values, And M 'denote the matrix of identification point coordinates of matching points in the modeling data.

상기 식 1은 더 구체화 하여 행렬식으로 다시 쓰면 다음과 같다.The above Equation 1 can be further specified and rewritten as a determinant.

[식 2][Formula 2]

Figure 112016113684914-pat00001
Figure 112016113684914-pat00001

식 2에서 s는 스케일 팩터를 나타내고, 상기 u, v는 식별대상 이미지 내에서의 좌표를 나타냄은 앞서 설명한 것과 같다. In Equation 2, s denotes a scale factor, and u and v denote coordinates in the image to be identified as described above.

한편, fx, fy는 이미지 센서, 즉 사용자 단말기(100) 내 구비된 촬영용 렌즈와 같은 이미지 센서의 고유 특성을 나타내는 값으로, 바람직하게는 상기 fx, fy는 각 렌즈의 초점거리(focal length)를 나타낸다.On the other hand, fx and fy are values indicating intrinsic characteristics of an image sensor such as a photographing lens provided in the image sensor, that is, the user terminal 100. Preferably, fx and fy are focal lengths of the respective lenses .

cx, cy는 사용자 단말기(100) 내에서 이미지 센서의 중심 좌표를 나타내는 값으로, 예를 들어 사용자 단말기(100)가 스마트폰이고 당해 스마트폰 내에 특정 이미지 센서가 장착되어 있다면, cx, cy는 상기 이미지 센서의 스마트폰 내에서의 좌표를 나타낸다. 참고로 cx, cy의 기준 좌표계는 이미지 센서의 투영 중심을 원점으로 한다. 또한 일반적으로 상기 cx, cy는 픽셀 단위의 영상좌표계로 변환되어 사용될 수 있다.For example, if the user terminal 100 is a smartphone and a specific image sensor is installed in the smartphone, cx and cy are values indicating the center coordinates of the image sensor in the user terminal 100, Indicates the coordinates of the image sensor in the smartphone. For reference, the reference coordinate system of cx and cy is the origin of the projection center of the image sensor. In general, cx and cy may be converted into an image coordinate system of a pixel unit.

다음으로 r11 내지 r33은 회전 값들을 나타내는 것으로, 예를 들어 사용자 단말기(100)가 어느 방향으로 얼마만큼 회전이 이루어져 있는지를 나타내는 값이다. 이러한 r 값들은 모두 사용자 단말기(100)의 자세, 즉 사용자 단말기(100)가 어떤 기울기 또는 어떤 방향에서 식별대상을 촬영하였는지에 대한 정보를 알 수 있는 자세정보에 해당되는 값들이다.Next, r11 to r33 represent rotation values, for example, values indicating how much the user terminal 100 rotates in which direction. These r values are values corresponding to the attitude information of the attitude of the user terminal 100, that is, the information about the inclination of the user terminal 100 or the direction in which the identification target is photographed.

t1 내지 t3는 임의의 점(바람직하게는 지구 중심)을 기준으로 할 때 사용자 단말기(100), 더 정확하게는 사용자 단말기(100) 내 이미지 센서가 위치하는 거리를 나타낸 것이다. t1은 x방향, t2는 y방향, t3는 z방향의 거리를 나타낸다.t1 to t3 represent distances at which the image sensor in the user terminal 100, or more precisely, the user terminal 100, is located with respect to any point (preferably the center of the earth). t1 denotes the distance in the x direction, t2 denotes the distance in the y direction, and t3 denotes the distance in the z direction.

한편, X 내지 Z는 실세계에서 식별대상이 위치하는 점을 나타내는 좌표이다.On the other hand, X to Z are coordinates indicating a point where an identification target is located in the real world.

위 식 2를 참조할 때, s값, cx, cy값은 고유의 값으로서 이미 알려진 것들이며, u, v, X, Y, Z 값은 모두 연산 장치(200)가 앞선 단계에서 얻은 값들로서 위 수식의 입력값에 해당한다, 최종적인 연산에 의해 얻게 되는 값들은 r11 내지 r33 및 t1 내지 t3이 되며, 이러한 파라미터들은 궁극적으로 사용자 단말기(100), 즉 사용자 단말기(100) 내 이미지 센서가 어느 자세로, 어느 위치에서 식별대상을 촬영하였는지를 특정한다. The values of s, cx and cy are already known as unique values, and the values of u, v, X, Y, and Z are all values obtained in the previous step by the computing device 200 The values obtained by the final computation are r11 to r33 and t1 to t3, and these parameters ultimately determine the position of the image sensor in the user terminal 100, i.e., the user terminal 100, , It is specified at which position the identification target is photographed.

한편, 사용자 단말기(100)의 위치 및 자세를 특정할 수 있는 값들이 모두 연산에 의해 획득된 후, 연산 장치(200)는 상기 값들을 상기 사용자 단말기(100)로 전달함으로써 정확한 위치정보, 그리고 더 나아가 사용자 단말기(100)의 자세정보까지도 제공(S160 단계)하게 된다. After all the values that can specify the position and attitude of the user terminal 100 are obtained by calculation, the computing device 200 transmits the values to the user terminal 100 to obtain accurate position information, In addition, attitude information of the user terminal 100 is also provided (step S160).

또한, 연산 장치(200)로부터 위치정보 및 자세정보를 수신한 사용자 단말기(100)는 설치된 응용 애플리케이션을 구동시켜 위 값들을 활용한 다양한 서비스를 제공할 수 있다. In addition, the user terminal 100 receiving the location information and attitude information from the computing device 200 can drive the installed application and provide various services utilizing the above values.

이상 도 2 내지 도 4를 참조하여 본 발명에 따른 위치정보 연산 방법 및 이를 수행하는 장치 또는 시스템에 대해 살펴보았다.2 to 4, a location information calculation method according to the present invention and an apparatus or system for performing the location information calculation method have been described.

도 5는 본 발명에 따른 위치정보 연산 방법의 또 다른 실시예를 순서에 따라 나타낸 것이다. 도 5는 앞서 도 2를 참조하여 설명한 연산 방법과 대부분의 과정이 동일하나, S120 단계 및 S130 단계에서 일부 차이점이 있다. FIG. 5 shows another embodiment of the position information calculation method according to the present invention in order. 5 is substantially the same as the calculation method described above with reference to FIG. 2, but there are some differences in steps S120 and S130.

도 5에 따른 위치정보 연산 방법에 따르면, 사용자 단말기(100)는 식별대상 이미지를 획득(S110 단계)한 이후 연산 장치(200)로 획득한 식별대상 이미지뿐 아니라 해당 사용자 단말기(100)의 현재 위치정보도 함께 전송한다. (S125) 이 때 사용자 단말기(100)가 전송하는 위치정보는 상기 사용자 단말기(100) 내 별도로 구비된 위치정보 획득 수단에 의해 얻어진 것으로, 예를 들어 GPS 수신기에 의해 획득된 좌표, 기지국 신호를 기준으로 삼각측량법에 의해 연산된 특정 좌표일 수 있다. 5, the user terminal 100 acquires not only an image to be identified acquired by the computing device 200 but also a current location of the user terminal 100 after acquiring the image to be identified (step S110) Information is also transmitted. (S125). The location information transmitted by the user terminal 100 at this time is obtained by location information acquisition means separately provided in the user terminal 100. For example, coordinates acquired by the GPS receiver, And may be a specific coordinate calculated by triangulation method.

S125 단계에서 연산 장치(200)로 전송된 좌표는 상기 연산 장치(200)가 레퍼런스 정보를 탐색함에 있어 그 탐색 범위를 제한하는 데에 활용된다. 만약 위와 같은 위치정보를 참조할 수 없는 경우 연산 장치(200)로서는 데이터베이스(300) 내 저장되어 있는 모든 레퍼런스 정보들과 상기 식별대상 이미지를 대비하여 탐색을 하게 될 것이나, 참조할 수 있는 위치정보가 존재하는 경우 연산 장치(200)로서는 해당 위치정보를 기준으로 불과 반경 수 미터 또는 수십 미터 내의 레퍼런스 정보들만을 탐색(S135)하면 되므로 연산 장치(200)의 부담을 크게 줄일 수 있다. The coordinate transmitted to the computing device 200 in step S125 is used to limit the search range when the computing device 200 searches for the reference information. If the position information can not be referred to, the arithmetic operation unit 200 will search for all the reference information stored in the database 300 in comparison with the identification target image, The arithmetic unit 200 can search only the reference information within the radius of a few meters or several tens of meters based on the corresponding position information (S135), thereby greatly reducing the burden on the arithmetic unit 200. [

도 6은 본 발명의 또 다른 실시예에 따른 위치정보 연산 방법을 나타낸 것이다. 도 6의 위치정보 연산 방법 역시 도 2와 대부분의 과정이 동일하나, S130 단계에서 일부 차이점이 있다.6 illustrates a method of calculating positional information according to another embodiment of the present invention. The position information calculation method of FIG. 6 is also the same as that of FIG. 2 in most of the processes, but there are some differences at step S130.

도 6의 위치정보 연산 방법은 S130 단계에서의 탐색, 즉 식별대상 이미지와 텍스쳐 데이터들과의 비교 및 유사도 산출 과정이 이루어졌음에도 어느 레퍼런스 정보가 상기 식별대상에 대응되는 것인지 특정이 되지 않은 경우를 상정한 것이다. 이러한 문제가 발생할 수 있는 예로서는 가령 식별대상 이미지와 텍스쳐 데이터와의 유사도 산출 결과 동일한 값의 유사도 값이 복수 개 산출된 경우, 또는 산출된 유사도 값들이 기 정해진 범위 내에 존재하여 연산 장치(200)로서는 어느 레퍼런스 정보가 상기 식별대상에 대응되는 것인지 분별하기 어려운 경우를 들 수 있다. The positional information calculation method of FIG. 6 may include a case in which it is determined that the reference information corresponds to the identification target even though the comparison in the identification target image and the texture data and the similarity degree calculation process are performed in step S130 It is assumed. For example, when a plurality of similarity values having the same value are calculated as a result of calculating the similarity degree between the identification object image and the texture data, or when the calculated similarity values exist within a predetermined range, It is difficult to discriminate whether the reference information corresponds to the identification object or not.

이러한 경우에 있어, 도 6에 따른 위치정보 연산 방법은 연산 장치(200)로 하여금 S130 단계 이후 사용자에게 복수의 레퍼런스 정보, 즉 복수의 후보 식별대상들이 포함된 리스트를 제공(S136 단계)하게 함으로써 사용자가 직접 식별대상을 선택(S137 단계)하도록 유도할 수 있다. In this case, the location information calculation method according to FIG. 6 allows the calculation device 200 to provide a list including a plurality of reference information, that is, a plurality of candidate identification objects to the user after step S130 (step S136) The user can directly select the identification target (step S137).

한편, 사용자 선택을 수신한 연산 장치(200)는 레퍼런스 정보를 특정(S138 단계)하게 되며, 이렇게 특정된 레퍼런스 정보를 기반으로는 앞서 살핀 도 2에서와 같은 방식으로 정합점 설정, 위치정보/자세정보 연산이 이루어진다.On the other hand, the computing device 200 receiving the user selection specifies the reference information (step S138). Based on the specified reference information, the computing device 200 receives the user selection, Information operation is performed.

이상 도 2 내지 도 6을 참조하여 사용자 단말기를 이용해 획득한 이미지를 기반으로 위치정보/자세정보를 연산하는 방법에 대해 살펴보았다.With reference to FIGS. 2 to 6, a method of calculating position information / attitude information based on an image acquired using a user terminal has been described.

이하에서는 본 발명에 따라 사용자 단말기를 이용해 획득한 이미지를 기반으로 데이터베이스에 저장되어 있는 레퍼런스 정보를 갱신(update)하는 방법에 대해 살펴보기로 한다.Hereinafter, a method of updating reference information stored in a database based on an image acquired using a user terminal according to the present invention will be described.

본 발명과 같이 데이터베이스 내 저장된 레퍼런스 정보를 기반으로 서비스를 제공함에 있어서는 레퍼런스 정보를 지속적으로 갱신하여야 하는 어려움이 있다. 대표적인 식별대상이라 할 수 있는 건물의 경우 건물 외벽의 리모델링, 간판 변경 등의 사유로 외관이 바뀔 수 있는데, 이 경우 사용자가 식별대상을 촬영하여 연산 장치로 전송하더라도 이미지 간 텍스쳐 데이터 대비가 불가능하여 위치정보/자세정보 연산이 불가능하다.In the present invention, when providing a service based on the reference information stored in the database, there is a difficulty in continuously updating the reference information. In the case of a building which is a representative identification object, the appearance may be changed due to remodeling of the exterior wall of the building, change of signs, etc. In this case, even if the user shoots the identification target and transmits it to the calculation device, Information / attitude information calculation is impossible.

도 7을 참조하여 본 발명에 따른 연산 장치를 이용하여 사용자가 촬영한 식별대상 이미지를 기반으로 레퍼런스 정보를 갱신하는 방법에 대해 살펴보기로 한다.Referring to FIG. 7, a method for updating reference information based on an identification target image taken by a user using a computing device according to the present invention will be described.

레퍼런스 정보를 갱신하는 과정은 앞서 도 2에서 설명한 위치정보 연산 과정 중에 포함되어 이루어질 수 있다. 이는 가령, 사용자가 촬영한 건물이 일부 수리가 되어 외관변경이 다소 있는 경우 해당 촬영 이미지를 기반으로 데이터베이스 내 저장된 레퍼런스 정보, 더 정확하게는 텍스쳐 데이터를 갱신하는 것으로 이해될 수 있다. 그러나 이는 하나의 실시예에 불과한 것이며, 가령, 레퍼런스 정보 갱신 과정은 위치정보 연산 과정에 포함되어 있지 않고 독립적으로도 수행될 수 있다. The process of updating the reference information may be included in the position information calculation process described above with reference to FIG. This can be understood, for example, to update the reference information stored in the database, more precisely the texture data, based on the photographed image if the building photographed by the user is partially repaired and there is a slight change in appearance. However, this is an example only. For example, the reference information updating process may be performed independently of the position information calculation process.

도 7에 따른 위치정보 연산 방법, 특히 레퍼런스 정보 갱신 과정을 포함한 방법에 대해 살펴보면, 해당 실시예는 식별대상 이미지 획득(S710), 식별대상 이미지 전송(S720), 레퍼런스 정보 탐색 및 획득(S730) 단계를 포함한다. 위 S710 단계 내지 S730 단계는 앞서 도 2에서 살펴본 S110 내지 S130 단계들과 실질적으로 동일한 과정을 거치므로 각 단계들에 대한 설명은 생략하기로 한다.Referring to FIG. 7, there will be described a method including a reference information update process, an identification target image acquisition step S710, an identification target image transmission step S720, a reference information search and acquisition step S730, . Since steps S710 to S730 are substantially the same as steps S110 to S130 shown in FIG. 2, the description of each step will be omitted.

레퍼런스 정보가 획득된 이후, 연산 장치(200)는 정합점을 설정한다. (S740) 정합점이란 앞서 도 2에 관한 설명에서도 언급하였듯 식별대상 이미지와 S130 단계에서 얻은 레퍼런스 정보, 즉 텍스쳐 데이터를 가상적으로 정합시키기 위한 기준점들을 의미한다. 본 단계에서 설정되는 정합점은 최소 4개 이상임이 바람직하며, 나아가 상기 정합점들은 식별대상 중에서도 동일한 평면에 존재함이 바람직하다. 예를 들어, 연산 장치(200)는 획득한 레퍼런스 정보 중 텍스쳐 데이터 내에서 1개의 면, 가령 건물의 우측면에서 4개의 점을 정합점으로 설정할 수 있으며, 또한 사용자가 촬영한 식별대상 이미지 상에서도 상기 4개의 점과 대응되는 정합점을 찾아 설정할 수 있다. 상기 4개의 정합점은 가능한 한 좁은 간격을 유지한 채 분포됨이 바람직하다. After the reference information is obtained, the computing device 200 sets the matching point. (S740) The matching point refers to the reference points for virtually matching the reference image obtained in step S130, that is, the texture data, as described above with reference to FIG. It is preferable that at least four matching points are set in this step, and moreover, the matching points preferably exist in the same plane among the identification targets. For example, the computing device 200 can set one face in the texture data of the acquired reference information, for example, four points on the right side of the building as a matching point, and also, on the identification target image taken by the user, It is possible to find and set matching points corresponding to four points. It is preferable that the four matching points are distributed while keeping a narrow space as possible.

도 8을 참조할 때, 왼편의 이미지와 오른편의 레퍼런스 정보 상 식별대상에 표시된 붉은색/초록색 점들은 모두 각각 대응되는 정합점들의 예시이다. Referring to FIG. 8, the left-hand image and the red / green points displayed on the right-hand side of the reference information image are examples of corresponding matching points, respectively.

정합점 설정 이후, 연산 장치(200)는 상기 사용자 단말기의 위치정보 및 자세정보를 연산한다. (S750) 위치정보 및 자세정보의 연산은 앞서 도 2의 S150 단계에 대한 설명과 실질적으로 동일한 방식으로 이루어진다. 레퍼런스 정보 갱신 과정에서 본 단계가 필요한 이유는, 레퍼런스 정보 내 텍스쳐 데이터를 갱신하기 위해서는 종래의 것을 대체하기 위한 새로운 이미지 데이터가 필요한데, 이 때 사용자가 촬영한 이미지로부터 얻을 수 있는 이미지 데이터는 2차원 정보만을 포함하고 있으므로, 사용자 단말기가 촬영한 자세정보, 위치정보를 토대로 레퍼런스 정보 내 식별대상을 최대한 사용자가 촬영한 모습과 동일한 형태로 파악함으로써 상기 촬영 이미지 내의 2차원 정보를 그대로 레퍼런스 정보 내 텍스쳐 데이터와 교체 가능하도록 하게 하기 위함이다. 이는 후술하는 단계에 의해 더 잘 드러난다.After setting the matching point, the computing device 200 calculates the position information and attitude information of the user terminal. (S750) The calculation of the positional information and the attitude information is performed in substantially the same manner as the description of step S150 in FIG. The reason why this step is required in the reference information updating process is that new image data for replacing the conventional one is required for updating the texture data in the reference information. At this time, the image data, which can be obtained from the image taken by the user, Dimensional information in the captured image as it is by recognizing the identification target in the reference information as much as possible by the user based on the posture information and the position information taken by the user terminal so that the two- So that they can be replaced. This is more evident by the steps described below.

다음으로 연산 장치(200)는 데이터베이스 내 저장된 식별대상의 모서리점 좌표, 즉 모델링 데이터의 모서리점 좌표를 상기 사용자가 촬영한 이미지 내 식별대상에 매칭시킨다. (S760) 모서리점이란 식별대상, 예를 들어 건물의 모서리를 가리키는 점들로, 면과 면이 맞닿는 변이 3개 이상 교차하는 하나의 점을 일컫는다. 본 단계는 특히 3차원의 좌표정보를 가지는 레퍼런스 정보 내의 모서리점과 2차원 평면정보인 이미지 상의 모서리점을 매칭시킨다는 점에서 특이점이 있는데, 이 때 연산 장치(200)는 3차원 투영 변환식을 이용하여 위 두 차원 간 모서리점을 매칭시킨다. 3차원 투영 변환식은 소위 핀홀 카메라 모델을 전제로 하는데, 핀홀 카메라 모델이란 모든 빛이 한 점을 직선으로 통과하여 이미지 평면에 투영된다는 사실을 기반으로 하며, 3차원 공간과 2차원 평면 간 기하학적 관계를 단순화 시키는 역할을 한다. 3차원 투영 변환식은 다양한 자료들을 통해 공지된 것이므로 본 상세한 설명에서는 자세한 설명을 생략하기로 한다.Next, the computing device 200 matches the corner point coordinates of the identification object stored in the database, i.e., the corner point coordinates of the modeling data, with the identification object in the image captured by the user. (S760) An edge point is an object to be identified, for example, a point that points to a corner of a building, and refers to a point that intersects three or more sides where a face and a face meet. In this step, in particular, there is a singular point in that an edge point in the reference information having three-dimensional coordinate information is matched with an edge point on the image, which is the two-dimensional plane information, at this time, the arithmetic unit 200 uses a three- Match the corner points between the two dimensions above. The three-dimensional projection transformation is based on the so-called pinhole camera model. The pinhole camera model is based on the fact that all light passes through a straight line and is projected onto the image plane, and the geometric relationship between the three- It simplifies. Since the three-dimensional projection transformation formula is known through various data, a detailed description thereof will be omitted in this detailed description.

도 8을 다시 참조할 때, 왼편의 이미지와 오른편의 레퍼런스 정보 내 식별대상에는 모서리점(① 내지 ⑥)들이 표시되어 있으며, 각 모서리점들은 앞서 설명한 것과 같이 핀홀 카메라 모델에 근거하여 매칭된다. Referring to FIG. 8 again, the corner points (1 to 6) are displayed on the left side image and the right side side of the identification information in the reference information, and the corner points are matched based on the pinhole camera model as described above.

다음으로 연산 장치(200)는 앞서 매칭된 레퍼런스 정보 내 식별대상의 모서리점들과 촬영된 이미지 내 모서리점들을 참조하여 텍스쳐 데이터를 갱신한다. (S770) 즉, 연산 장치(200)는 앞서 찾은 모서리점들을 기준으로 이미지 내 각 면을 레퍼런스 정보 내 텍스쳐 데이터로 옮김으로써 결과적으로 식별대상에 대한 레퍼런스 정보 갱신을 수행한다. Next, the arithmetic operation unit 200 updates the texture data with reference to the corner points of the object to be identified and the corner points in the photographed image in the previously matched reference information. In operation S770, the computing device 200 performs the reference information update on the identification target by transferring each surface in the image to the texture data in the reference information based on the previously found corner points.

도 8에 의하면 촬영된 이미지에는 건물의 총 2개면이 촬영이 되었는데, 이렇듯 각 면들의 이미지는 연산 장치(200)에 의해 변형되어 식별대상의 레퍼런스 정보, 더 정확하게는 텍스쳐 데이터를 대체하는 데에 이용될 수 있다. 한편, 이상 도 7을 기반으로 설명한 레퍼런스 정보 갱신 과정 중 정합점을 설정하는 단계 (S740), 위치정보/자세정보를 연산하는 단계 (S750)는 도 2에서의 S140단계 및 S150단계와 실질적으로 동일한 단계일 수 있다. 즉, 레퍼런스 정보를 갱신하는 과정에서 필요한 정합점 및 위치정보/자세정보는 도 2에서 설명한 단계와 동일한 단계를 거쳐 획득될 수 있으며, 따라서 레퍼런스 갱신은 사용자 단말기로 레퍼런스 정보를 제공함과 동시에 연산 장치(200) 내부에서 이루어질 수 있다. 이와 같이 구현하는 경우 연산 장치(200)로서는 사용자에게 위치정보/자세정보 서비스를 제공할 수 있음과 동시에 데이터베이스 내 레퍼런스 정보들을 항상 최신의 상태로 갱신할 수 있는 효과를 꾀할 수 있다. 8, a total of two planes of the building are photographed. The images of the planes are transformed by the computing device 200 to be used for replacing the reference information of the identification target, more precisely, the texture data . In step S740, a step S740 of calculating the position information / attitude information in step S750 of the reference information updating process described with reference to FIG. 7 is substantially the same as steps S140 and S150 in FIG. Step. In other words, the matching point and the position information / attitude information necessary in the process of updating the reference information can be obtained through the same steps as those described in FIG. 2, so that the reference updating provides the reference information to the user terminal, 200). In such a case, the computing device 200 can provide the user with the location information / attitude information service and at the same time update the reference information in the database to the latest state.

본 발명의 바람직한 실시예 및 응용예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예 및 응용예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 구별되어 이해되어서는 안 될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. It will be understood by those skilled in the art that various changes and modifications may be made without departing from the spirit and scope of the present invention.

100 사용자 단말기
200 연산 장치
300 데이터베이스
100 user terminal
200 computing device
300 database

Claims (10)

연산부 및 메모리를 포함하는 연산 장치가 위치정보를 연산하는 방법에 있어서,
사용자 단말기로부터 식별대상 이미지를 수신하는 단계;
상기 식별대상 이미지와 대응되는 레퍼런스 정보를 획득하는 단계;
상기 식별대상의 이미지와 상기 레퍼런스 정보가 포함하는 모델링 데이터 간 복수의 정합점을 설정하는 단계; 및
상기 복수의 정합점 및 기 정의된 수식을 이용하여 상기 사용자 단말기의 위치정보 및 자세정보를 연산하는 단계;
를 포함하며,
상기 기 정의된 수식은,
s·m'=A·[R|t] ·M'
(단, s는 스케일 팩터, m'은 상기 식별대상 이미지의 정합점 좌표값 행렬, A는 상기 사용자 단말기 내 이미지 센서의 공유 파라미터 행렬, R은 회전 값들의 행렬, t는 이동값들의 행렬, M'은 식별대상의 정합점 좌표값 행렬임)
인,
위치정보 연산 방법.
A method for calculating position information by an arithmetic unit including an arithmetic unit and a memory,
Receiving an identification target image from a user terminal;
Obtaining reference information corresponding to the identification target image;
Setting a plurality of matching points between the image of the identification object and the modeling data included in the reference information; And
Calculating position information and attitude information of the user terminal using the plurality of matching points and a predefined formula;
/ RTI >
The predefined formula is:
s · m '= A · [R | t] · M'
(Where s is a scale factor, m 'is a matching point coordinate value matrix of the image to be identified, A is a shared parameter matrix of the image sensor in the user terminal, R is a matrix of rotation values, t is a matrix of movement values, M 'Is the matched point coordinate value matrix of the identification target)
sign,
Location information calculation method.
제1항에 있어서,
상기 식별대상 이미지와 대응되는 레퍼런스 정보를 획득하는 단계는,
데이터베이스 내 저장된 복수 레퍼런스 정보들의 텍스쳐 데이터들과 상기 식별대상 이미지를 비교하고, 비교한 결과 유사도가 기 설정된 값보다 크거나 같은 경우 해당 레퍼런스 정보를 획득하는,
위치정보 연산 방법.
The method according to claim 1,
Wherein the step of acquiring the reference information corresponding to the identification-
Comparing the texture data of the plurality of reference information stored in the database with the identification target image, and acquiring the reference information when the comparison result is greater than or equal to a predetermined value,
Location information calculation method.
제2항에 있어서,
유사도가 기 설정된 값보다 크거나 같은 레퍼런스 정보가 복수 개인 경우, 상기 사용자 단말기로 상기 복수 개의 레퍼런스 정보를 전송하고, 상기 사용자 단말기로부터 수신한 선택입력에 따라 하나의 레퍼런스 정보를 특정하는,
위치정보 연산 방법.
3. The method of claim 2,
And transmitting the plurality of reference information to the user terminal and specifying one reference information in accordance with a selection input received from the user terminal when the reference information having a similarity value equal to or greater than a preset value is plural,
Location information calculation method.
제1항에 있어서,
상기 사용자 단말기로부터 식별대상 이미지를 수신하는 단계는, 상기 사용자 단말기로부터 현재위치정보를 수신하는 단계를 더 포함하고,
상기 식별대상 이미지와 대응되는 레퍼런스 정보를 획득하는 단계는, 수신한 상기 현재위치정보에 기초하여 데이터베이스 내 저장된 복수 레퍼런스 정보들 중 제한된 범위의 레퍼런스 정보들 내에서 획득하는,
위치정보 연산 방법.
The method according to claim 1,
Wherein the step of receiving an identification target image from the user terminal further comprises receiving current position information from the user terminal,
Wherein the obtaining of the reference information corresponding to the identification object image is performed based on the received current position information in a limited range of the plurality of reference information stored in the database,
Location information calculation method.
삭제delete 제1항에 있어서,
상기 식별대상 이미지는 건물의 외벽면을 포함하고,
상기 식별대상 이미지 내의 복수의 정합점은 상기 건물의 외벽면에 존재하는 임의의 점들 중 추출된 것인,
위치정보 연산 방법.
The method according to claim 1,
Wherein the identification target image includes an exterior wall surface of the building,
Wherein a plurality of matching points in the identification target image are extracted from arbitrary points existing on an outer wall surface of the building,
Location information calculation method.
제6항에 있어서,
상기 식별대상 이미지는 건물의 제1외벽면 및 제2외벽면을 포함하고,
상기 식별대상 이미지 내의 복수의 정합점은 상기 제1외벽면에 존재하는 임의의 점들 중 적어도 하나 및 상기 제2외벽면에 존재하는 임의의 점들 중 적어도 하나를 포함하는,
위치정보 연산 방법.
The method according to claim 6,
Wherein the identification object image comprises a first exterior wall surface and a second exterior wall surface of the building,
Wherein a plurality of matching points in the image to be identified include at least one of any of the points present on the first outer wall surface and any of the points existing on the second outer wall surface.
Location information calculation method.
연산부 및 메모리를 포함하는 연산 장치가 위치정보를 연산하는 방법에 있어서,
사용자 단말기로부터 식별대상 이미지를 수신하는 단계;
상기 식별대상 이미지와 대응되는 레퍼런스 정보를 획득하는 단계;
상기 식별대상의 이미지와 상기 레퍼런스 정보가 포함하는 모델링 데이터 간 복수의 정합점을 설정하는 단계;
상기 복수의 정합점 및 기 정의된 수식을 이용하여 상기 사용자 단말기의 위치정보 및 자세정보를 연산하는 단계;
상기 모델링 데이터와 상기 식별대상의 이미지 간 복수의 모서리점을 매칭시키는 단계; 및
상기 매칭된 복수의 모서리점을 기준으로, 상기 식별대상의 이미지를 참조하여 상기 레퍼런스 정보가 포함하는 텍스쳐 데이터를 갱신하는 단계;
를 포함하는,
위치정보 연산 방법.
A method for calculating position information by an arithmetic unit including an arithmetic unit and a memory,
Receiving an identification target image from a user terminal;
Obtaining reference information corresponding to the identification target image;
Setting a plurality of matching points between the image of the identification object and the modeling data included in the reference information;
Calculating position information and attitude information of the user terminal using the plurality of matching points and a predefined formula;
Matching a plurality of corner points between the modeling data and the image of the identification object; And
Updating the texture data included in the reference information with reference to the image of the identification object on the basis of the matched corner points;
/ RTI >
Location information calculation method.
사용자 단말기로부터 식별대상의 이미지를 수신하는 통신부;
상기 식별대상의 이미지와 대응되는 레퍼런스 정보를 획득하고, 상기 식별대상의 이미지와 상기 레퍼런스 정보가 포함하는 모델링 데이터 간 복수의 정합점을 설정하며, 상기 복수의 정합점 및 기 정의된 수식을 이용하여 상기 사용자 단말기의 위치값을 연산하는 연산부; 및
메모리;
를 포함하고,
상기 기 정의된 수식은,
s·m'=A·[R|t] ·M'
(단, s는 스케일 팩터, m'은 상기 식별대상 이미지의 정합점 좌표값 행렬, A는 상기 사용자 단말기 내 이미지 센서의 공유 파라미터 행렬, R은 회전 값들의 행렬, t는 이동값들의 행렬, M'은 식별대상의 정합점 좌표값 행렬임)
인,
위치정보 연산 장치.
A communication unit for receiving an image of an identification object from a user terminal;
A reference point corresponding to the image of the object to be identified is acquired, a plurality of matching points are set between the image of the object to be identified and the modeling data included in the reference information, and using the plurality of matching points and the pre- An operation unit for calculating a position value of the user terminal; And
Memory;
Lt; / RTI >
The predefined formula is:
s · m '= A · [R | t] · M'
(Where s is a scale factor, m 'is a matching point coordinate value matrix of the image to be identified, A is a shared parameter matrix of the image sensor in the user terminal, R is a matrix of rotation values, t is a matrix of movement values, M 'Is the matched point coordinate value matrix of the identification target)
sign,
Position information calculation device.
제9항에 있어서,
상기 연산부는,
상기 식별대상 이미지와 대응되는 레퍼런스 정보를 획득함에 있어, 데이터베이스 내 저장된 복수 레퍼런스 정보들의 텍스쳐 데이터들과 상기 식별대상 이미지를 비교하고, 비교한 결과 유사도가 기 설정된 값보다 크거나 같은 경우 해당 레퍼런스 정보를 획득하는,
위치정보 연산 장치.
10. The method of claim 9,
The operation unit,
Comparing the texture data of the plurality of reference information stored in the database with the identification target image in obtaining the reference information corresponding to the identification target image, and when the comparison result is greater than or equal to a predetermined value, To acquire,
Position information calculation device.
KR1020160155226A 2016-11-21 2016-11-21 Apparatus and method for location-information KR101745626B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160155226A KR101745626B1 (en) 2016-11-21 2016-11-21 Apparatus and method for location-information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160155226A KR101745626B1 (en) 2016-11-21 2016-11-21 Apparatus and method for location-information

Publications (1)

Publication Number Publication Date
KR101745626B1 true KR101745626B1 (en) 2017-06-09

Family

ID=59219997

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160155226A KR101745626B1 (en) 2016-11-21 2016-11-21 Apparatus and method for location-information

Country Status (1)

Country Link
KR (1) KR101745626B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008185417A (en) 2007-01-29 2008-08-14 Sony Corp Information processing device, information processing method, and computer program
KR101259957B1 (en) * 2012-11-16 2013-05-02 (주)엔써즈 System and method for providing supplementary information using image matching
JP2016091065A (en) * 2014-10-29 2016-05-23 富士通株式会社 Position/attitude estimation apparatus, position/attitude estimation method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008185417A (en) 2007-01-29 2008-08-14 Sony Corp Information processing device, information processing method, and computer program
KR101259957B1 (en) * 2012-11-16 2013-05-02 (주)엔써즈 System and method for providing supplementary information using image matching
JP2016091065A (en) * 2014-10-29 2016-05-23 富士通株式会社 Position/attitude estimation apparatus, position/attitude estimation method, and program

Similar Documents

Publication Publication Date Title
US11762887B2 (en) Information processing device, map update method, program, and information processing system
CN110568447B (en) Visual positioning method, device and computer readable medium
CN110738143B (en) Positioning method and device, equipment and storage medium
CN111199564B (en) Indoor positioning method and device of intelligent mobile terminal and electronic equipment
CN105143907B (en) Alignment system and method
US10580206B2 (en) Method and apparatus for constructing three-dimensional map
CN110705574B (en) Positioning method and device, equipment and storage medium
EP3398164B1 (en) System for generating 3d images for image recognition based positioning
CN106228538B (en) Binocular vision indoor orientation method based on logo
JP7273927B2 (en) Image-based positioning method and system
US9098905B2 (en) System and method for determining position of a device
US20160253814A1 (en) Photogrammetric methods and devices related thereto
CN104936283A (en) Indoor positioning method, server and system
EP3274964B1 (en) Automatic connection of images using visual features
CN113048980B (en) Pose optimization method and device, electronic equipment and storage medium
CN105844701A (en) Sequential-image three-dimensional modeling method
KR20150095365A (en) Distance measuring method using vision sensor database
TWI722738B (en) Augmented reality device and positioning method
JP2023503750A (en) ROBOT POSITIONING METHOD AND DEVICE, DEVICE, STORAGE MEDIUM
KR101745626B1 (en) Apparatus and method for location-information
WO2020007323A1 (en) Supermarket shopping cart positioning method, supermarket shopping cart positioning system, and supermarket shopping cart
WO2006043319A1 (en) Terminal and server
JP7140710B2 (en) Information terminal device and program
KR20220062709A (en) System for detecting disaster situation by clustering of spatial information based an image of a mobile device and method therefor
TWM598411U (en) Augmented reality device

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant