KR102296168B1 - Positioning method and an electronic device - Google Patents

Positioning method and an electronic device Download PDF

Info

Publication number
KR102296168B1
KR102296168B1 KR1020190168720A KR20190168720A KR102296168B1 KR 102296168 B1 KR102296168 B1 KR 102296168B1 KR 1020190168720 A KR1020190168720 A KR 1020190168720A KR 20190168720 A KR20190168720 A KR 20190168720A KR 102296168 B1 KR102296168 B1 KR 102296168B1
Authority
KR
South Korea
Prior art keywords
building
user
location
buildings
scanning
Prior art date
Application number
KR1020190168720A
Other languages
Korean (ko)
Other versions
KR20210077269A (en
Inventor
장영수
서준수
Original Assignee
주식회사 와이즈인포텍
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 와이즈인포텍 filed Critical 주식회사 와이즈인포텍
Priority to KR1020190168720A priority Critical patent/KR102296168B1/en
Publication of KR20210077269A publication Critical patent/KR20210077269A/en
Application granted granted Critical
Publication of KR102296168B1 publication Critical patent/KR102296168B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3446Details of route searching algorithms, e.g. Dijkstra, A*, arc-flags, using precalculated routes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Navigation (AREA)

Abstract

위치 결정 방법 및 전자 장치가 제공된다. 상기 위치 결정 방법은, 전자 장치에 의해 수행되는 위치 결정 방법에 있어서, GPS 정보를 수신하여 사용자의 위치 범위를 연산하는 단계; 상기 사용자의 주변에 위치하는 건물들을 스캐닝하여, 상기 스캐닝된 건물들 중 제1 건물, 제2 건물 및 제3 건물을 인식하는 단계; 상기 제1 건물, 상기 제2 건물과 상기 사용자가 이루는 제1 각도를 연산하고, 상기 제2 건물, 상기 제3 건물과 상기 사용자가 이루는 제2 각도를 연산하는 단계; 및 상기 제1 각도와 상기 제2 각도를 이용하여, 상기 사용자의 위치를 확정하는 단계를 포함한다.A positioning method and electronic device are provided. The method for determining a location may include: calculating a location range of a user by receiving GPS information; recognizing a first building, a second building, and a third building among the scanned buildings by scanning buildings located in the vicinity of the user; calculating a first angle between the first building, the second building, and the user, and calculating a second angle between the second building, the third building, and the user; and determining the location of the user by using the first angle and the second angle.

Description

위치 결정 방법 및 전자 장치{Positioning method and an electronic device}Positioning method and an electronic device

본 발명은 위치 결정 방법 및 전자 장치에 관한 것이다.The present invention relates to a positioning method and an electronic device.

내비게이션 시스템(navigation system)은 GPS(Global Positioning System) 수신기를 이용하여 사용자의 현재 위치를 파악하고, 사용자가 입력한 목적지로 경로를 안내하는 시스템이다.A navigation system is a system that uses a global positioning system (GPS) receiver to determine a user's current location and guides a route to a destination input by the user.

GPS 수신기는, GPS정보를 수신하여 사용자의 위치를 파악한다. 그런데, GPS 위성과 GPS 수신기 간의 측정된 거리 오차, 측위시 이용되는 위성들의 배치상황에 따른 오차 등에 의해서 GPS 측위오차가 발생할 수 있다. 이러한 GPS 측위오차(특히, 수평오차)는 약 10m 에서 약 100m 까지 발생할 수 있는 것으로 알려져 있다. The GPS receiver receives GPS information to determine the user's location. However, a GPS positioning error may occur due to an error in a measured distance between a GPS satellite and a GPS receiver, an error according to an arrangement situation of satellites used for positioning, and the like. It is known that this GPS positioning error (especially, horizontal error) can occur from about 10m to about 100m.

대한민국 공개특허공보 10-2018-0117866(공개일자 2018.10.30)Republic of Korea Patent Publication No. 10-2018-0117866 (published on October 30, 2018)

특히, 사용자가 목적지로 걸어가기 위해 내비게이션 시스템을 사용하면, 사용자는 이러한 GPS 측위오차를 상당히 크게 느낄 수 밖에 없다. 예를 들어, 명동과 같이 건물이 밀집되어 있고 인도가 복잡한 지역에서, 외국인 관광객이 내비게이션 시스템을 이용해서 목적지를 찾아가기는 매우 어렵다. 특히, 내비게이션 시스템이 사용자(즉, 외국인 관광객)의 현재 위치를 정확하게 파악하지 못하기 때문이다.In particular, when a user uses a navigation system to walk to a destination, the user inevitably feels this GPS positioning error significantly. For example, it is very difficult for foreign tourists to find their destination using a navigation system in an area where buildings are dense and India is crowded like Myeong-dong. In particular, this is because the navigation system cannot accurately determine the current location of the user (ie, foreign tourist).

본 발명이 해결하고자 하는 과제는, 사용자 주변의 건물을 인식하여 사용자의 위치를 정확하게 파악할 수 있는 위치 결정 방법을 제공하는 것이다. SUMMARY OF THE INVENTION An object of the present invention is to provide a location determination method capable of accurately identifying a user's location by recognizing a building around the user.

본 발명이 해결하고자 하는 다른 과제는, 이러한 위치 결정 방법이 수행되는 전자 장치를 제공하는 것이다.Another object to be solved by the present invention is to provide an electronic device in which such a positioning method is performed.

본 발명이 해결하고자 하는 또 다른 과제는, 이러한 위치 결정 방법을 구현하기 위한 컴퓨터 프로그램의 인스트럭션들이 저장되는 판독 가능 저장 매체를 제공하는 것이다. Another object to be solved by the present invention is to provide a readable storage medium in which instructions of a computer program for implementing such a positioning method are stored.

본 발명의 과제들은 이상에서 언급한 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

상기 과제를 달성하기 위한 본 발명의 위치 결정 방법의 일 면(aspect)은, 전자 장치에 의해 수행되는 위치 결정 방법에 있어서, GPS 정보를 수신하여 사용자의 위치 범위를 연산하는 단계; 상기 사용자의 주변에 위치하는 건물들을 스캐닝하여, 상기 스캐닝된 건물들 중 제1 건물, 제2 건물 및 제3 건물을 인식하는 단계; 상기 제1 건물, 상기 제2 건물과 상기 사용자가 이루는 제1 각도를 연산하고, 상기 제2 건물, 상기 제3 건물과 상기 사용자가 이루는 제2 각도를 연산하는 단계; 및 상기 제1 각도와 상기 제2 각도를 이용하여, 상기 사용자의 위치를 확정하는 단계를 포함한다.An aspect of the method for determining a location of the present invention for achieving the above object is a method for determining a location performed by an electronic device, the method comprising: receiving GPS information and calculating a location range of a user; recognizing a first building, a second building, and a third building among the scanned buildings by scanning buildings located in the vicinity of the user; calculating a first angle between the first building, the second building, and the user, and calculating a second angle between the second building, the third building, and the user; and determining the location of the user by using the first angle and the second angle.

여기서, 상기 인식하는 단계는, 상기 스캐닝된 건물들과 기등록된 레퍼런스 건물 오브젝트들을 비교하여, 상기 스캐닝된 건물들 중에서 상기 기등록된 레퍼런스 건물 오브젝트들과 매칭되는 건물들을 제1 건물, 제2 건물 및 제3 건물로 정할 수 있다.Here, the recognizing step compares the scanned buildings with the pre-registered reference building objects, and compares the scanned buildings with the pre-registered reference building objects from among the scanned buildings to a first building and a second building. and a third building.

여기서, 상기 인식하는 단계 이전에, 상기 레퍼런스 건물 오브젝트들을 등록하는 단계를 더 포함한다. 상기 레퍼런스 건물 오브젝트들을 등록하는 단계는, 레퍼런스 건물을 둘러싸는, 다수의 면을 갖는 다면체를 가정하고, 상기 레퍼런스 건물을 나타내는 다수의 이미지를 생성하되, 각 이미지는 상기 레퍼런스 건물을 다수의 방향에서 바라본 것이고, 상기 생성된 다수의 이미지를 상기 다면체의 다수의 면에 각각 대응시켜, 상기 레퍼런스 건물에 대응되는 다면체 형상의 레퍼런스 건물 오브젝트를 완성하는 것을 포함할 수 있다. Here, before the step of recognizing, the step of registering the reference building objects is further included. The step of registering the reference building objects, assuming a polyhedron having a plurality of faces surrounding the reference building, and generating a plurality of images representing the reference building, each image is the reference building viewed from a plurality of directions It may include completing the polyhedral-shaped reference building object corresponding to the reference building by matching the generated plurality of images to the plurality of surfaces of the polyhedron, respectively.

또한, 상기 다수의 이미지를 생성하는 것은, 어플리케이션 또는 웹을 통해서, 사용자가 레퍼런스 건물을 다수의 방향에서 촬영하여 다수의 사진을 업로드하는 것을 포함할 수 있다. In addition, generating the plurality of images may include, through an application or the web, a user uploading a plurality of photos by photographing a reference building from a plurality of directions.

또한, 상기 제1 각도와 상기 제2 각도를 이용하여, 상기 사용자의 위치를 확정하는 단계는, 상기 제1 건물의 위치, 상기 제2 건물의 위치와 제1 각도를 이용하여 상기 사용자의 제1 후보 원(candidate circle)을 연산하고, 상기 제2 건물의 위치, 상기 제3 건물의 위치와 제2 각도를 이용하여 상기 사용자의 제2 후보 원을 연산하고, 상기 제1 후보 원과 상기 제2 후보 원이 만나는 위치를, 상기 사용자의 위치로 확정할 수 있다. In addition, the step of determining the location of the user by using the first angle and the second angle includes the first angle of the user using the location of the first building, the location of the second building, and the first angle. calculating a candidate circle, calculating a second candidate circle of the user using the location of the second building, the location of the third building, and a second angle, and calculating the first candidate circle and the second A location where the candidate circles meet may be determined as the location of the user.

또는, 상기 사용자의 주변에 위치하는 건물들을 스캐닝하는 것은, 상기 사용자가 상기 전자 장치에 설치된 카메라를 상기 건물들을 바라보도록 하여 스캐닝하되, 스캐닝하는 동안, 상기 전자 장치에 설치된 디스플레이에는, 상기 인식 동작에 필요한 스캐닝 영역과, 스캐닝 진행 정도를 나타내는 스캐닝 바(scanning bar)가 표시될 수 있다.Alternatively, in the scanning of buildings located in the vicinity of the user, the user scans the buildings installed in the electronic device while looking at the buildings, and during scanning, a display installed in the electronic device is displayed on the recognition operation. A required scanning area and a scanning bar indicating a scanning progress level may be displayed.

또는, 상기 사용자의 주변에 위치하는 건물들을 스캐닝하여, 상기 스캐닝된 건물들 중 제1 건물, 제2 건물 및 제3 건물을 인식하는 단계는, 상기 사용자의 주변에 위치하는 건물들을 제1 스캐닝하고, 상기 제1 스캐닝된 건물들 중 인식되는 건물이 3개가 되지 않은 경우, 상기 사용자의 주변에 위치하는 건물들을 제2 스캐닝하는 것을 포함할 수 있다.Alternatively, the step of recognizing a first building, a second building, and a third building among the scanned buildings by scanning buildings located in the vicinity of the user may include first scanning buildings located in the vicinity of the user and , when the number of recognized buildings among the first scanned buildings is not three, second scanning of buildings located in the vicinity of the user may be included.

여기서, 상기 사용자의 주변에 위치하는 건물들을 제1 스캐닝하는 동안, 상기 전자 장치에 설치된 디스플레이에는 제1 길이의 스캐닝 바가 표시되고, 상기 사용자의 주변에 위치하는 건물들을 제2 스캐닝하는 동안, 상기 디스플레이에는 상기 제1 길이보다 긴 제2 길이의 스캐닝 바가 표시될 수 있다. Here, during the first scanning of buildings located in the vicinity of the user, a scanning bar of a first length is displayed on the display installed in the electronic device, and during the second scanning of buildings located in the vicinity of the user, the display A scanning bar having a second length longer than the first length may be displayed.

상기 제1 스캐닝된 건물들 중 인식되는 건물을 증강현실을 이용하여 상기 전자 장치에 설치된 디스플레이에 지시하는 것을 더 포함하고, 상기 제2 스캐닝은 상기 표시된 건물을 기준으로 추가적으로 스캐닝할 수 있다. The method may further include instructing a recognized building among the first scanned buildings on a display installed in the electronic device using augmented reality, wherein the second scanning may additionally perform scanning based on the displayed building.

상기 사용자의 목적지를 입력받는 단계를 더 포함하고, 상기 사용자가 목적지를 향해 이동하는 동안, 상기 전자 장치에 설치된 디스플레이에는, 상기 사용자가 위치하는 도로의 형상과 무관하게, 상기 목적지가 상기 사용자로부터 어떤 방향에 위치하는지를 나타내는 방향지시기가 표시될 수 있다. Further comprising the step of receiving the user's destination, while the user is moving toward the destination, the display installed on the electronic device, irrespective of the shape of the road on which the user is located, the destination is determined from the user. A direction indicator indicating whether it is located in the direction may be displayed.

상기 다른 과제를 달성하기 위한 본 발명의 위치 결정 방법의 일 면은, GPS 수신기; 위치 센서; 카메라; 통신 모듈; 메모리; 및 상기 GPS 수신기, 상기 위치 센서, 상기 카메라, 상기 통신 모듈 및 상기 메모리를 제어하는 프로세서를 포함하되, 상기 메모리는 상기 프로세서가 상기 GPS 수신기를 이용하여 GPS 정보를 수신하여 사용자의 위치 범위를 연산하고, 상기 카메라를 이용하여 사용자의 주변에 위치하는 건물들을 스캐닝하고, 상기 스캐닝된 건물들 중 제1 건물, 제2 건물 및 제3 건물을 인식하고, 상기 제1 건물, 상기 제2 건물과 상기 사용자가 이루는 제1 각도를 연산하고, 상기 제2 건물, 상기 제3 건물과 상기 사용자가 이루는 제2 각도를 연산하고, 상기 제1 각도와 상기 제2 각도를 이용하여, 상기 사용자의 위치를 확정하도록 하는 인스트럭션들을 포함한다. One aspect of the method for determining a position of the present invention for achieving the above other object is a GPS receiver; position sensor; camera; communication module; Memory; and a processor for controlling the GPS receiver, the location sensor, the camera, the communication module, and the memory, wherein the processor receives GPS information using the GPS receiver to calculate a user's location range and , scanning buildings located in the vicinity of the user using the camera, recognizing a first building, a second building, and a third building among the scanned buildings, and the first building, the second building, and the user calculate a first angle formed by , calculate a second angle formed by the second building, the third building, and the user, and use the first angle and the second angle to determine the location of the user contains instructions to

상기 메모리는 상기 프로세서가 상기 스캐닝된 건물들과 기등록된 레퍼런스 건물 오브젝트들을 비교하여, 상기 스캐닝된 건물들 중에서 상기 기등록된 레퍼런스 건물 오브젝트들과 매칭되는 건물들을 제1 건물, 제2 건물 및 제3 건물로 정하도록 하는 인스트럭션들을 포함한다. In the memory, the processor compares the scanned buildings with the pre-registered reference building objects, and compares the scanned buildings with the pre-registered reference building objects among the first building, the second building, and the second building. 3 Includes instructions to determine the building.

상기 기등록된 레퍼런스 건물 오브젝트들은, 상기 메모리에 저장되어 있거나, 상기 통신 모듈을 통해서 접속할 수 있는 데이터 베이스 서버에 저장될 수 있다. The pre-registered reference building objects may be stored in the memory or may be stored in a database server accessible through the communication module.

상기 메모리는 상기 프로세서가 상기 레퍼런스 건물 오브젝트들을 등록하도록 하는 인스트럭션들을 더 포함하되, 상기 레퍼런스 건물 오브젝트들을 등록하는 것은, 레퍼런스 건물을 둘러싸는, 다수의 면을 갖는 다면체를 가정하고, 상기 레퍼런스 건물을 나타내는 다수의 이미지를 생성하되, 각 이미지는 상기 레퍼런스 건물을 다수의 방향에서 바라본 것이고, 상기 생성된 다수의 이미지를 상기 다면체의 다수의 면에 각각 대응시켜, 상기 레퍼런스 건물에 대응되는 다면체 형상의 레퍼런스 건물 오브젝트를 완성하는 것을 포함한다. The memory further includes instructions for causing the processor to register the reference building objects, wherein registering the reference building objects assumes a polyhedron having multiple faces, surrounding the reference building, representing the reference building. A plurality of images are generated, but each image is a view of the reference building from a plurality of directions, and a polyhedral-shaped reference building corresponding to the reference building by matching the generated plurality of images to a plurality of faces of the polyhedron, respectively This includes completing the object.

상기 제1 각도와 상기 제2 각도를 이용하여, 상기 사용자의 위치를 확정하는 것은, 상기 제1 건물의 위치, 상기 제2 건물의 위치와 제1 각도를 이용하여 제1 후보 원(candidate circle)을 연산하고, 상기 제2 건물의 위치, 상기 제3 건물의 위치와 제2 각도를 이용하여 제2 후보 원을 연산하고, 상기 제1 후보 원과 상기 제2 후보 원이 만나는 위치를, 상기 사용자의 위치로 확정하는 것을 포함할 수 있다. Determining the location of the user using the first angle and the second angle includes forming a first candidate circle using the location of the first building, the location of the second building, and the first angle. , calculates a second candidate circle using the location of the second building, the location of the third building, and a second angle, and determines a location where the first candidate circle and the second candidate circle meet, the user It may include determining the location of

기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다. The details of other embodiments are included in the detailed description and drawings.

도 1은 본 발명의 몇몇 실시예에 따른 위치 결정 방법을 구현하기 위한 네트워크 환경을 설명하기 위한 블록도이다.
도 2는 본 발명의 몇몇 실시예에 따른 전자 장치를 설명하기 위한 블록도이다.
도 3은 본 발명의 제1 실시예에 따른 위치 결정 방법을 설명하기 위한 순서도이다.
도 4는 도 3의 S20 단계를 설명하기 위한 도면이다.
도 5는 도 3의 S30 단계를 설명하기 위한 도면이다.
도 6은 레퍼런스 건물 오브젝트를 등록하는 방법을 설명하기 위한 도면이다.
도 7은 레퍼런스 건물 오브젝트를 설명하기 위한 예시적 도면이다.
도 8은 사용자에 의한 레퍼런스 건물 오브젝트 등록을 설명하기 위한 도면이다.
도 9는 도 3의 S40 단계를 설명하기 위한 도면이다.
도 10은 도 3의 S50 단계를 설명하기 위한 도면이다.
도 11은 본 발명의 제2 실시예에 따른 위치 결정 방법을 설명하기 위한 도면이다.
도 12 및 도 13은 본 발명의 제3 실시예에 따른 위치 결정 방법을 설명하기 위한 도면들이다.
도 14 및 도 15은 본 발명의 제4 실시예에 따른 위치 결정 방법을 설명하기 위한 도면들이다.
도 16은 본 발명의 제5 실시예에 따른 위치 결정 방법을 설명하기 위한 도면이다.
1 is a block diagram illustrating a network environment for implementing a location determination method according to some embodiments of the present invention.
2 is a block diagram illustrating an electronic device according to some embodiments of the present invention.
3 is a flowchart illustrating a positioning method according to the first embodiment of the present invention.
FIG. 4 is a view for explaining step S20 of FIG. 3 .
FIG. 5 is a diagram for explaining step S30 of FIG. 3 .
6 is a diagram for explaining a method of registering a reference building object.
7 is an exemplary diagram for describing a reference building object.
8 is a view for explaining registration of a reference building object by a user.
FIG. 9 is a view for explaining step S40 of FIG. 3 .
FIG. 10 is a diagram for explaining step S50 of FIG. 3 .
11 is a view for explaining a positioning method according to a second embodiment of the present invention.
12 and 13 are diagrams for explaining a positioning method according to a third embodiment of the present invention.
14 and 15 are diagrams for explaining a positioning method according to a fourth embodiment of the present invention.
16 is a view for explaining a positioning method according to a fifth embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. Advantages and features of the present invention, and a method for achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments published below, but may be implemented in various different forms, only these embodiments make the publication of the present invention complete, and common knowledge in the technical field to which the present invention pertains It is provided to fully inform the possessor of the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout.

비록 제1, 제2 등이 다양한 소자, 구성요소 및/또는 섹션들을 서술하기 위해서 사용되나, 이들 소자, 구성요소 및/또는 섹션들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 소자, 구성요소 또는 섹션들을 다른 소자, 구성요소 또는 섹션들과 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 소자, 제1 구성요소 또는 제1 섹션은 본 발명의 기술적 사상 내에서 제2 소자, 제2 구성요소 또는 제2 섹션일 수도 있음은 물론이다.It should be understood that although first, second, etc. are used to describe various elements, components, and/or sections, these elements, components, and/or sections are not limited by these terms. These terms are only used to distinguish one element, component, or sections from another. Accordingly, it goes without saying that the first element, the first element, or the first section mentioned below may be the second element, the second element, or the second section within the spirit of the present invention.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for the purpose of describing the embodiments and is not intended to limit the present invention. As used herein, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, "comprises" and/or "comprising" refers to the presence of one or more other components, steps, operations and/or elements mentioned. or addition is not excluded.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used herein may be used with the meaning commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless clearly defined in particular.

이하, 첨부한 도면들을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어 도면 부호에 상관없이 동일하거나 대응하는 구성 요소는 동일한 참조번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. A description will be omitted.

본 명세서에서, "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, 하드웨어적 또는 소프트웨어적으로 "~에 적합한," "~하는 능력을 가지는," "~하도록 변경된," "~하도록 만들어진," "~를 할 수 있는," 또는 "~하도록 설계된"과 상호 호환적으로(interchangeably) 사용될 수 있다. 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(예: CPU 또는 application processor)를 의미할 수 있다.As used herein, "configured to (or configured to)" according to the context, for example, hardware or software "suitable for," "having the ability to," "modified to ," "made to," "capable of," or "designed to" may be used interchangeably. In some circumstances, the expression “a device configured to” may mean that the device is “capable of” with other devices or parts. For example, the phrase “a processor configured (or configured to perform) A, B, and C” refers to a dedicated processor (eg, an embedded processor) for performing the operations, or by executing one or more software programs stored in a memory device. , may refer to a general-purpose processor (eg, a CPU or an application processor) capable of performing corresponding operations.

본 발명의 몇몇 실시예에 따른 위치 결정 방법은, 전자 장치(즉, 위치 결정 장치)에 의해 수행될 수 있다. 예를 들어, 전자 장치는, 예를 들면, 스마트폰, 태블릿 PC, 이동 전화기, 영상 전화기, 전자책 리더기, 데스크탑 PC, 랩탑 PC, 넷북 컴퓨터, 워크스테이션, 서버, PDA, PMP(portable multimedia player), MP3 플레이어, 의료기기, 카메라, 또는 웨어러블 장치 중 적어도 하나를 포함할 수 있다. 웨어러블 장치는 액세서리형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD)), 직물 또는 의류 일체형(예: 전자 의복), 신체 부착형(예: 스킨 패드 또는 문신), 또는 생체 이식형 회로 중 적어도 하나를 포함할 수 있다. The positioning method according to some embodiments of the present disclosure may be performed by an electronic device (ie, a positioning device). For example, the electronic device is, for example, a smartphone, a tablet PC, a mobile phone, a video phone, an e-book reader, a desktop PC, a laptop PC, a netbook computer, a workstation, a server, a PDA, a portable multimedia player (PMP) , an MP3 player, a medical device, a camera, and at least one of a wearable device. A wearable device may be an accessory (e.g., watch, ring, bracelet, anklet, necklace, glasses, contact lens, or head-mounted-device (HMD)); It may include at least one of body-attached (eg, skin pad or tattoo), or bioimplantable circuitry.

어떤 실시예들에서, 전자 장치는, 예를 들면, 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스, 홈 오토매이션 컨트롤 패널, 보안 컨트롤 패널, 미디어 박스(예: 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(예: XboxTM, PlayStationTM), 전자 사전, 전자 키, 캠코더, 또는 전자 액자 중 적어도 하나를 포함할 수 있다.In some embodiments, the electronic device is, for example, a television, digital video disk (DVD) player, audio, refrigerator, air conditioner, vacuum cleaner, oven, microwave oven, washing machine, air purifier, set top box, home automation control. panel, security control panel, media box (eg Samsung HomeSync TM , Apple TV TM , or Google TV TM ), game console (eg Xbox TM , PlayStation TM ), electronic dictionary, electronic key, camcorder, or electronic picture frame. may contain one.

다른 실시예에서, 전자 장치는, 각종 의료기기(예: 각종 휴대용 의료측정기기(혈당 측정기, 심박 측정기, 혈압 측정기, 또는 체온 측정기 등), MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 또는 초음파기 등), 네비게이션 장치, 위성 항법 시스템(GNSS(global navigation satellite system)), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트 장치, 선박용 전자 장비(예: 선박용 항법 장치, 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛(head unit), 산업용 또는 가정용 로봇, 드론(drone), 금융 기관의 ATM, 상점의 POS(point of sales), 또는 사물 인터넷 장치 (예: 전구, 각종 센서, 스프링클러 장치, 화재 경보기, 온도조절기, 가로등, 토스터, 운동기구, 온수탱크, 히터, 보일러 등) 중 적어도 하나를 포함할 수 있다. 어떤 실시예에 따르면, 전자 장치는 가구, 건물/구조물 또는 자동차의 일부, 전자 보드(electronic board), 전자 사인 수신 장치(electronic signature receiving device), 프로젝터, 또는 각종 계측 기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 다양한 실시예에서, 전자 장치는 플렉서블하거나, 또는 전술한 다양한 장치들 중 둘 이상의 조합일 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다. In another embodiment, the electronic device may include various medical devices (eg, various portable medical measuring devices (eg, a blood glucose monitor, a heart rate monitor, a blood pressure monitor, or a body temperature monitor), magnetic resonance angiography (MRA), magnetic resonance imaging (MRI), CT (computed tomography), imager, or ultrasound machine, etc.), navigation device, global navigation satellite system (GNSS), event data recorder (EDR), flight data recorder (FDR), automotive infotainment device, marine electronic equipment (e.g. navigation devices for ships, gyro compasses, etc.), avionics, security devices, head units for vehicles, industrial or household robots, drones, ATMs in financial institutions, point of sale (POS) in stores of sales) or IoT devices (eg, light bulbs, various sensors, sprinkler devices, fire alarms, thermostats, street lights, toasters, exercise equipment, hot water tanks, heaters, boilers, etc.). According to some embodiments, the electronic device is a piece of furniture, a building/structure or automobile, an electronic board, an electronic signature receiving device, a projector, or various measuring devices (eg, water, electricity, gas, or a radio wave measuring device, etc.). In various embodiments, the electronic device may be flexible or a combination of two or more of the various devices described above. The electronic device according to the embodiment of the present document is not limited to the above-described devices.

본 문서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다. In this document, the term user may refer to a person who uses an electronic device or a device (eg, an artificial intelligence electronic device) using the electronic device.

도 1은 본 발명의 몇몇 실시예에 따른 위치 결정 방법을 구현하기 위한 네트워크 환경을 설명하기 위한 블록도이다. 1 is a block diagram illustrating a network environment for implementing a location determination method according to some embodiments of the present invention.

도 1을 참조하면, 네트워크(250)를 통해서 사용자들의 전자 장치(컴퓨팅 장치)(100), 관리 서버(210, 220), 외부 서버(230) 등에 연결된다.Referring to FIG. 1 , it is connected to users' electronic devices (computing devices) 100 , management servers 210 and 220 , and external servers 230 through a network 250 .

예를 들어, 네트워크(250)는 유선 및 무선 방식을 모두 포함한다. 특히, 무선 통신은, 예를 들면, LTE, LTE-A(LTE Advance), CDMA(code division multiple access), WCDMA(wideband CDMA), UMTS(universal mobile telecommunications system), WiBro(Wireless Broadband), 또는 GSM(Global System for Mobile Communications) 등 중 적어도 하나를 사용하는 셀룰러 통신을 포함할 수 있다. 또는, 무선 통신은, WiFi(wireless fidelity), LiFi(light fidelity), 블루투스, 블루투스 저전력(BLE), 지그비(Zigbee), NFC(near field communication), 자력 시큐어 트랜스미션(Magnetic Secure Transmission), 라디오 프리퀀시(RF), 또는 보디 에어리어 네트워크(BAN) 중 적어도 하나를 포함할 수 있다. 유선 통신은, 예를 들면, USB(universal serial bus), HDMI(high definition multimedia interface), RS-232(recommended standard232), 전력선 통신, 또는 POTS(plain old telephone service), 컴퓨터 네트워크(예: LAN 또는 WAN) 등 중 적어도 하나를 포함할 수 있다.For example, network 250 includes both wired and wireless schemes. In particular, wireless communication is, for example, LTE, LTE Advance (LTE-A), code division multiple access (CDMA), wideband CDMA (WCDMA), universal mobile telecommunications system (UMTS), Wireless Broadband (WiBro), or GSM. It may include cellular communication using at least one of (Global System for Mobile Communications). Or, wireless communication, WiFi (wireless fidelity), LiFi (light fidelity), Bluetooth, Bluetooth low energy (BLE), Zigbee (Zigbee), NFC (near field communication), magnetic secure transmission (Magnetic Secure Transmission), radio frequency ( RF) or a body area network (BAN). Wired communication is, for example, universal serial bus (USB), high definition multimedia interface (HDMI), recommended standard232 (RS-232), power line communication, or plain old telephone service (POTS), computer network (eg, LAN or WAN) and the like.

관리 서버(210, 220)는 본 발명의 몇몇 실시예에 따른 위치 결정 방법이 구현된 어플리케이션(모바일용 및/또는 웹 용)을 관리하는 서버로서, 예를 들어, 웹 서버, 데이터베이스 서버, 파일 서버, 메일 서버 등 다양할 수 있다. 어플리케이션은 휴대기기(예를 들어, 스마트폰)에서 운영될 수도 있고, PC환경에서 운영되는 것일 수도 있다.The management servers 210 and 220 are servers that manage applications (for mobile and/or web) in which the location determination method according to some embodiments of the present invention is implemented, for example, a web server, a database server, a file server. , mail server, etc. The application may be operated in a mobile device (eg, a smartphone) or may be operated in a PC environment.

외부 서버(230)는 외부 관리자가 관리하는 서버로서, 건물 및 도로에 대한 정보를 제공할 수 있는 서버일 수 있다. 외부 서버(230)는 예를 들어, 국가공간정보포털, 구글맵스(스트리트뷰), 다음지도(로드뷰), 네이버지도(거리뷰) 등을 운영하는 서버일 수 있으나, 이에 한정되지 않는다. 외부 서버(230)는 레퍼런스 건물들의 3차원(3D) 정보를 제공할 수 있는 서버라면, 어떤 것이든 가능하다.The external server 230 is a server managed by an external manager, and may be a server capable of providing information on buildings and roads. The external server 230 may be, for example, a server operating a national spatial information portal, Google Maps (street view), Daum Map (road view), Naver Map (street view), etc., but is not limited thereto. The external server 230 may be any server that can provide three-dimensional (3D) information of reference buildings.

도 2는 본 발명의 몇몇 실시예에 따른 전자 장치를 설명하기 위한 블록도이다. 2 is a block diagram illustrating an electronic device according to some embodiments of the present invention.

도 2를 참조하면, 본 발명의 몇몇 실시예에 따른 전자 장치(100)는 GPS 수신기(110), 위치 센서(120), 통신 모듈(130), 카메라(140), 메모리(150), 프로세서(160), 디스플레이(170), 버스(180) 등을 포함한다. Referring to FIG. 2 , the electronic device 100 according to some embodiments of the present disclosure includes a GPS receiver 110 , a location sensor 120 , a communication module 130 , a camera 140 , a memory 150 , and a processor ( 160 ), a display 170 , a bus 180 , and the like.

버스(180)에 의해서, GPS 수신기(110), 위치 센서(120), 통신 모듈(130), 카메라(140), 메모리(150), 프로세서(160), 디스플레이(170) 등의 다양한 구성요소가 서로 연결 및 통신(즉, 제어 메시지 전달 및 데이터 전달)할 수 있다. By the bus 180, various components such as the GPS receiver 110, the location sensor 120, the communication module 130, the camera 140, the memory 150, the processor 160, the display 170, etc. They can connect and communicate with each other (ie, pass control messages and pass data).

GPS 수신기(110)는 적어도 하나의 GPS 위성으로부터 GPS 정보를 수신한다. GPS 수신기(110)는 예를 들어, 안테나로 수신된 GPS 신호를 중간 주파수 신호로 변환하여 아날로그/디지털 변환하는 RF프런트엔드부와, 중간 주파수 신호로부터 역 확산을 수행하는 디지털 신호처리기 및 전체적인 수신기 동작을 제어하고 항법을 수행하는 마이크로 프로세서를 포함할 수 있다. The GPS receiver 110 receives GPS information from at least one GPS satellite. The GPS receiver 110 includes, for example, an RF front-end unit that converts a GPS signal received through an antenna into an intermediate frequency signal and analog/digital conversion, a digital signal processor that performs despreading from the intermediate frequency signal, and the overall receiver operation It may include a microprocessor for controlling and performing navigation.

위치 센서(120)는 예를 들어, 자이로 센서(gyro sensor), 가속도 센서(acceleration sensor), 지자기 센서(magnetic sensor), 고도 센서(barometer) 중 적어도 하나를 포함할 수 있다. 이 중에서 자이로 센서는 전자 장치(100)의 회전각 변화를 측정할 수 있다. The position sensor 120 may include, for example, at least one of a gyro sensor, an acceleration sensor, a magnetic sensor, and a barometer. Among them, the gyro sensor may measure a change in the rotation angle of the electronic device 100 .

통신 모듈(130)은 도 1에서 설명한 다양한 유선/무선 네트워크(250)를 통해서 다른 전자 장치(100), 관리 서버(210, 220), 외부 서버(230) 등에 통신하기 위한 모듈이다. The communication module 130 is a module for communicating with another electronic device 100 , the management servers 210 , 220 , and the external server 230 through the various wired/wireless networks 250 described with reference to FIG. 1 .

카메라(140)는 전자 장치(100)의 전방 및/또는 후방을 촬영하는 모듈이다. 사용자는 촬영된 영상(정지영상 또는 동영상)을 디스플레이(170)을 통해서 확인할 수 있다.The camera 140 is a module for photographing the front and/or rear of the electronic device 100 . The user may check the captured image (still image or moving image) through the display 170 .

프로세서(160)는, 중앙처리장치, 어플리케이션 프로세서, 또는 커뮤니케이션 프로세서(communication processor(CP)) 중 하나 또는 그 이상을 포함할 수 있다. 프로세서(160)는, 예를 들면, 전자 장치(100)의 적어도 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다.The processor 160 may include one or more of a central processing unit, an application processor, and a communication processor (CP). The processor 160 may, for example, execute an operation or data processing related to control and/or communication of at least one other component of the electronic device 100 .

디스플레이(170)는, 예를 들면, 액정 디스플레이(LCD), 발광 다이오드(LED) 디스플레이, 유기 발광 다이오드(OLED) 디스플레이, 또는 마이크로 전자기계 시스템 (MEMS) 디스플레이, 또는 전자종이(electronic paper) 디스플레이를 포함할 수 있다. 디스플레이(170)는, 예를 들면, 사용자에게 각종 콘텐츠(예: 텍스트, 이미지, 비디오, 아이콘, 및/또는 심볼 등)을 표시할 수 있다. 디스플레이(170)는, 터치 스크린을 포함할 수 있으며, 예를 들면, 전자 펜 또는 사용자의 신체의 일부를 이용한 터치, 제스처, 근접, 또는 호버링 입력을 수신할 수 있다. Display 170 may include, for example, a liquid crystal display (LCD), a light emitting diode (LED) display, an organic light emitting diode (OLED) display, or a microelectromechanical system (MEMS) display, or an electronic paper display. may include The display 170 may, for example, display various content (eg, text, images, videos, icons, and/or symbols, etc.) to the user. The display 170 may include a touch screen, and may receive, for example, a touch, gesture, proximity, or hovering input using an electronic pen or a part of the user's body.

메모리(150)는 휘발성 메모리(예를 들어, DRAM, SRAM, 또는 SDRAM) 및/또는 비휘발성 메모리(예를 들어, OTPROM(one time programmable ROM), PROM, EPROM, EEPROM, mask ROM, flash ROM, 플래시 메모리, PRAM, RRAM, MRAM, 하드 드라이브, 또는 솔리드 스테이트 드라이브(SSD))를 포함할 수 있다. 메모리(150)는 내장 메모리 및/또는 외장 메모리를 포함할 수 잇다. 메모리(150)는, 예를 들면, 전자 장치(100)의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장할 수 있다. 또한, 메모리(150)는 소프트웨어 및/또는 프로그램을 저장할 수 있다. 프로그램은, 예를 들면, 커널, 미들웨어, 어플리케이션 프로그래밍 인터페이스(API), 및/또는 어플리케이션 프로그램(또는 "어플리케이션") 등을 포함할 수 있다. 커널, 미들웨어, 또는 API의 적어도 일부는, 운영 시스템으로 지칭될 수 있다. Memory 150 may include volatile memory (eg, DRAM, SRAM, or SDRAM) and/or non-volatile memory (eg, one time programmable ROM (OTPROM), PROM, EPROM, EEPROM, mask ROM, flash ROM, flash memory, PRAM, RRAM, MRAM, hard drive, or solid state drive (SSD)). The memory 150 may include an internal memory and/or an external memory. The memory 150 may store, for example, commands or data related to at least one other component of the electronic device 100 . In addition, the memory 150 may store software and/or programs. A program may include, for example, a kernel, middleware, an application programming interface (API), and/or an application program (or "application"), and the like. At least a portion of the kernel, middleware, or API may be referred to as an operating system.

메모리(150)는 도 3 내지 도 16를 이용하여 후술할 위치 결정 방법을 수행하기 위한 인스트럭션들(instructions)을 저장하고 있다.The memory 150 stores instructions for performing a positioning method, which will be described later with reference to FIGS. 3 to 16 .

예를 들어, 메모리(150)는 프로세서(160)가 GPS 수신기(110)를 이용하여 GPS 정보를 수신하여 사용자의 위치 범위를 연산하고, 카메라(140)를 이용하여 사용자의 주변에 위치하는 건물들을 스캐닝하고, 스캐닝된 건물들 중 제1 건물, 제2 건물 및 제3 건물을 인식하고, 제1 건물, 제2 건물과 사용자가 이루는 제1 각도를 연산하고, 제2 건물, 제3 건물과 사용자가 이루는 제2 각도를 연산하고, 제1 각도와 제2 각도를 이용하여, 사용자의 위치를 확정하도록 하는 인스트럭션들을 포함한다. For example, in the memory 150 , the processor 160 receives GPS information using the GPS receiver 110 to calculate the user's location range, and uses the camera 140 to view buildings located in the vicinity of the user. Scanning, recognizing a first building, a second building, and a third building among the scanned buildings, calculating a first angle between the first building, the second building, and the user, and the second building, the third building and the user and calculates a second angle formed by , and uses the first angle and the second angle to determine the user's location.

또한, 메모리(150)는 프로세서(160)가 스캐닝된 건물들과 기등록된 레퍼런스 건물 오브젝트들을 비교하여, 스캐닝된 건물들 중에서 기등록된 레퍼런스 건물 오브젝트들과 매칭되는 건물들을 제1 건물, 제2 건물 및 제3 건물로 정하도록 하는 인스트럭션들을 포함한다.In addition, the memory 150 compares the scanned buildings with the pre-registered reference building objects by the processor 160, and compares the scanned buildings with the pre-registered reference building objects among the first and second buildings. Includes instructions to set the building and the third building.

기등록된 레퍼런스 건물 오브젝트들은, 메모리(150)에 저장되어 있거나, 통신 모듈(130)을 통해서 접속할 수 있는 서버(210, 220)의 데이터베이스에 저장될 수 있다. The pre-registered reference building objects may be stored in the memory 150 or in the database of the servers 210 and 220 accessible through the communication module 130 .

메모리(150)는 프로세서(160)가 레퍼런스 건물 오브젝트들을 등록하도록 하는 인스트럭션들을 더 포함한다. 레퍼런스 건물 오브젝트들을 등록하는 것은, 레퍼런스 건물을 둘러싸는, 다수의 면을 갖는 다면체를 가정하고, 레퍼런스 건물을 나타내는 다수의 이미지를 생성하되, 각 이미지는 레퍼런스 건물을 다수의 방향에서 바라본 것이고, 생성된 다수의 이미지를 다면체의 다수의 면에 각각 대응시켜, 레퍼런스 건물에 대응되는 다면체 형상의 레퍼런스 건물 오브젝트를 완성하는 것을 포함할 수 있다. The memory 150 further includes instructions for causing the processor 160 to register reference building objects. Registering reference building objects, assuming a polyhedron having multiple faces, surrounding the reference building, generates multiple images representing the reference building, each image is a view of the reference building from multiple directions, and the generated Completing a polyhedral-shaped reference building object corresponding to the reference building by respectively matching a plurality of images to a plurality of surfaces of the polyhedron.

도 3은 본 발명의 제1 실시예에 따른 위치 결정 방법을 설명하기 위한 순서도이다. 도 4, 도 5, 도 9, 도 10각각은 도 3의 S20, S30, S40, S50 단계를 설명하기 위한 도면이다. 도 6은 레퍼런스 건물 오브젝트를 등록하는 방법을 설명하기 위한 도면이다. 도 7은 레퍼런스 건물 오브젝트를 설명하기 위한 예시적 도면이다. 도 8은 사용자에 의한 레퍼런스 건물 오브젝트 등록을 설명하기 위한 도면이다.3 is a flowchart illustrating a positioning method according to the first embodiment of the present invention. 4, 5, 9, and 10 are diagrams for explaining steps S20, S30, S40, and S50 of FIG. 3, respectively. 6 is a diagram for explaining a method of registering a reference building object. 7 is an exemplary diagram for describing a reference building object. 8 is a view for explaining registration of a reference building object by a user.

도 3의 위치 결정 방법은, 사용자가 전자 장치의 특정한 어플리케이션(application)을 실행시킨 후, 실행된 어플리케이션 상에서 구현되거나, 실행된 어플리케이션과 함께 구현되는 동작일 수 있다. 또는, 도 3의 위치 결정 방법은, 설치형 어플리케이션이 아니라, 웹 주소로 접속하여 사용하는 서비스 동작일 수 있다.The method of determining the location of FIG. 3 may be an operation implemented on or together with the executed application after the user executes a specific application of the electronic device. Alternatively, the location determination method of FIG. 3 may be a service operation used by accessing a web address, not an installation type application.

도 3을 참조하면, 우선 GPS 수신기를 이용하여 GPS 정보를 수신하여 사용자의 위치 범위를 연산한다(S10).Referring to FIG. 3 , first, GPS information is received using a GPS receiver and a user's location range is calculated ( S10 ).

전술한 것과 같이, GPS 정보를 수신하더라도 GPS 측위오차가 있기 때문에, 사용자의 대략적인 위치를 연산할 수 있으나, 사용자의 정확한 위치를 연산하기 어렵다. 따라서, GPS 정보를 수신하여 사용자가 위치할 것으로 예상되는 범위(즉, 위치 범위)를 연산한다. As described above, even when GPS information is received, since there is a GPS positioning error, the approximate location of the user can be calculated, but it is difficult to calculate the exact location of the user. Accordingly, a range (ie, a location range) in which the user is expected to be located by receiving GPS information is calculated.

이어서, 카메라를 이용하여 사용자의 주변에 위치하는 건물들을 스캐닝한다(S20).Next, buildings located around the user are scanned using the camera (S20).

도 4에 도시된 것과 같이, 사용자의 주변에는 다수의 건물들(예를 들어, SC1~SC6)이 위치할 수 있다. 사용자는 카메라(도 2의 140 참조)를 이용하여 시작점(Q1)에서 종료점(Q2)까지 스캔할 수 있다. 예를 들어, 사용자는 전자 장치(100)에 설치된 카메라(140)가 다수의 건물들(SC1~SC6)을 바라보도록 하여 스캔할 수 있다(도면부호 SR1 참고). 4 , a plurality of buildings (eg, SC1 to SC6) may be located in the vicinity of the user. The user may scan from the start point Q1 to the end point Q2 using the camera (see 140 of FIG. 2 ). For example, the user may scan with the camera 140 installed in the electronic device 100 looking at the plurality of buildings SC1 to SC6 (refer to reference numeral SR1).

이어서, 스캐닝된 건물들 중 제1 건물, 제2 건물 및 제3 건물을 인식한다(S30). Subsequently, the first building, the second building, and the third building among the scanned buildings are recognized ( S30 ).

구체적으로, 스캐닝된 건물들(SC1~SC6)을 기등록된 레퍼런스 건물 오브젝트들을 비교한다. Specifically, the scanned buildings SC1 to SC6 are compared with reference building objects registered in advance.

기등록된 레퍼런스 건물 오브젝트들은 예를 들어, 관리 서버(210, 220) 중 데이터 베이스 서버에 저장될 수 있다. Pre-registered reference building objects may be stored in, for example, a database server among the management servers 210 and 220 .

또는, 기등록된 레퍼런스 건물 오브젝트들은 전자 장치(100)의 메모리(150) 내에 저장될 수 있다. 즉, 사용자는 방문할 목적지 주변의 레퍼런스 건물 오브젝트들을 미리 다운로드받아서, 목적지 주변의 레퍼런스 건물 오브젝트들을 메모리(150) 내에 저장해 둘 수 있다. 이와 같이 미리 저장해 두면, 빠른 속도로 스캐닝된 건물들(SC1~SC6)을 레퍼런스 건물 오브젝트들과 비교할 수 있다. Alternatively, the previously registered reference building objects may be stored in the memory 150 of the electronic device 100 . That is, the user may pre-download reference building objects around the destination to be visited, and store the reference building objects around the destination in the memory 150 . If stored in advance in this way, buildings (SC1 to SC6) scanned at high speed can be compared with reference building objects.

도 5에 도시된 것과 같이, 스캐닝된 건물(예를 들어, SC1)을 관리 서버(210) 또는 메모리(150)에 기저장된 레퍼런스 건물 오브젝트들(C1~C9)과 비교한다. 스캐닝된 건물(SC1)과 레퍼런스 건물 오브젝트들(C1~C9) 전부 비교할 수도 있으나, 비교 속도를 높이기 위해 GPS 정보에 의해 결정된 위치 범위(RG1) 내에 배치된 레퍼런스 건물 오브젝트들(예를 들어, C1, C2, C3, C9)를 비교할 수 있다. As shown in FIG. 5 , the scanned building (eg, SC1 ) is compared with reference building objects ( C1 to C9 ) stored in the management server 210 or the memory 150 . All of the scanned building SC1 and reference building objects C1 to C9 may be compared, but in order to speed up the comparison, reference building objects (eg, C1, C2, C3, C9) can be compared.

관리 서버(210) 또는 메모리(150)에는, 레퍼런스 건물 오브젝트들(C1~C9)의 외관 사진 정보뿐만 아니라, 위치 정보, 주변 건물 정보 등이 같이 저장될 수도 있다. 따라서, 레퍼런스 건물 오브젝트들(C1~C9)의 위치 정보를 기초로, 기결정된 위치 범위(RG1) 내에 위치하는 레퍼런스 건물 오브젝트들(C1, C2, C3, C9)을 먼저 선별할 수 있다. 선별된 레퍼런스 건물 오브젝트들(C1, C2, C3, C9)의 외관 사진 정보와 스캐닝된 건물(SC1)의 외관을 서로 비교한다. 여기서 스캐닝된 건물(SC1)과 매칭되는 레퍼런스 건물 오브젝트(예를 들어, C1)이 있다면, 매칭되는 레퍼런스 건물 오브젝트(C1)을 제1 건물로 인식할 수 있다.In the management server 210 or the memory 150 , location information and surrounding building information as well as exterior photo information of the reference building objects C1 to C9 may be stored together. Accordingly, based on the location information of the reference building objects C1 to C9, the reference building objects C1, C2, C3, and C9 located within the predetermined location range RG1 may be first selected. Exterior photo information of the selected reference building objects C1, C2, C3, and C9 is compared with the scanned exterior of the building SC1. Here, if there is a reference building object (eg, C1) that matches the scanned building SC1, the matching reference building object C1 may be recognized as the first building.

만약, 스캐닝된 건물(SC1)이, 위치 범위(RG1) 내에 위치하는 레퍼런스 건물 오브젝트들(C1, C2, C3, C9)과 매칭되지 않으면, 위치 범위(RG1)를 확대(또는 변경)하여 다른 위치 범위(RG2)를 고려한다. 왜냐하면 GPS 측위오차로 인해서, GPS 정보에 의해서 결정된 위치 범위(RG1)는 다소 부정확할 수 있기 때문이다. 이어서, 다른 위치 범위(RG2)에 위치하는 레퍼런스 건물 오브젝트들(예를 들어, C4, C5, C6)의 외관 사진 정보와 스캐닝된 건물(SC1)의 외관을 서로 비교한다. 여기서 스캐닝된 건물(SC1)과 매칭되는 레퍼런스 건물 오브젝트(예를 들어, C6)이 있다면, 매칭되는 레퍼런스 건물 오브젝트(C6)을 제1 건물로 인식할 수 있다. If the scanned building SC1 does not match the reference building objects C1, C2, C3, C9 located within the location range RG1, expand (or change) the location range RG1 to another location Consider the range (RG2). This is because, due to the GPS positioning error, the position range RG1 determined by the GPS information may be somewhat inaccurate. Next, the exterior photograph information of reference building objects (eg, C4 , C5 , and C6 ) located in different location ranges RG2 and the exterior of the scanned building SC1 are compared with each other. Here, if there is a reference building object (eg, C6) matching the scanned building SC1, the matching reference building object C6 may be recognized as the first building.

만약, 스캐닝된 건물(SC1)이, 위치 범위(RG2) 내에 위치하는 레퍼런스 건물 오브젝트들(C4, C5, C6)과 매칭되지 않으면, 스캐닝된 건물(SC1)은 위치 범위(RG1, RG2) 내에 매칭되는 레퍼런스 건물 오브젝트들이 없는 것으로 결정할 수 있다. If the scanned building SC1 does not match the reference building objects C4, C5, and C6 located within the location range RG2, the scanned building SC1 matches within the location range RG1, RG2. It can be determined that there are no reference building objects to be used.

위치 범위(RG1, RG2)를 몇번까지 확대(또는 변경)할지는, 설계에 따라 달라질 수 있다.How many times to expand (or change) the location ranges RG1 and RG2 may vary depending on the design.

위와 같은 방법으로, 스캐닝된 건물(예를 들어, SC1~SC9) 중에서 레퍼런스 건물 오브젝트들(C1~C9)와 매칭되는 건물들을 각각 제1 건물(P1), 제2 건물(P2), 제3 건물(P3)을 결정할 수 있다.In the above method, the first building P1, the second building P2, and the third building, respectively, matching the reference building objects C1 to C9 among the scanned buildings (eg, SC1 to SC9) are selected. (P3) can be determined.

한편, 위치 범위(RG1, RG2) 내에 3개 이상의 건물(예를 들어, C1, C2, C3, C6)이 매칭된다면, 매칭 정합성이 높은 건물(예를 들어, C1, C2, C6)을 제1 건물(P1), 제2 건물(P2), 제3 건물(P3)을 결정할 수 있다. On the other hand, if three or more buildings (eg, C1, C2, C3, C6) are matched within the location range (RG1, RG2), a building with high matching consistency (eg, C1, C2, C6) is selected as the first A building P1 , a second building P2 , and a third building P3 may be determined.

한편, 인식하는 단계 이전에, 레퍼런스 건물 오브젝트들이 등록되어 있어야 한다. 레퍼런스 건물 오브젝트로 등록하려면, 건물 외관 이미지, 건물 위치, 주변 건물 등이 등록하여야 한다. 이하에서, 레퍼런스 건물 오브젝트를 등록하는 예시적인 방법을 설명한다. On the other hand, before the recognition step, reference building objects must be registered. To register as a reference building object, the building exterior image, building location, and surrounding buildings must be registered. Hereinafter, an exemplary method of registering a reference building object will be described.

한편, 레퍼런스 건물 오브젝트로 등록되는 레퍼런스 건물은, 지역의 랜드마크(landmark)일 수도 있으나, 이에 한정되지 않는다. 예를 들어, 광화문 지역인 경우 세종문화회관, 세종대왕동상, 미국대사관, 콜롬비아대사관 등일 수 있다. 특정 지역에 잘 알려진 건물이나, 독특한 형상의 건물일 수 있다. 또한, 레퍼런스 건물은, 건물/호텔/빌딩/아파트 등 다양한 형태로 불릴 수 있다. 레퍼런스 건물은, 특정 지역을 상징하는 건물이면 되고, 사람이 내부에서 머무를 수 있는 공간이 있을 필요가 없다. Meanwhile, a reference building registered as a reference building object may be a local landmark, but is not limited thereto. For example, in the case of the Gwanghwamun area, it may be the Sejong Center for the Performing Arts, the statue of King Sejong the Great, the US Embassy, the Colombia Embassy, and the like. It may be a well-known building in a specific area or a building with a unique shape. In addition, the reference building may be referred to in various forms, such as a building/hotel/building/apartment. The reference building may be a building that symbolizes a specific area, and does not need to have a space for people to stay inside.

우선, 외부 서버(230)(예를 들어, 국가공간정보포털, 구글맵스(스트리트뷰), 다음지도(로드뷰), 네이버지도(거리뷰))에서 제공하는 레퍼런스 건물들의 3차원 정보를 이용하여 생성할 수 있다. First, using 3D information of reference buildings provided by the external server 230 (eg, national spatial information portal, Google Maps (street view), Daum Map (road view), Naver Map (street view)) can create

구체적으로 예를 들면, 도 6에 도시된 것과 같이, 레퍼런스 건물(300)을 둘러싸는, 다수의 면을 갖는 다면체(310)를 가정한다. 레퍼런스 건물(300)을 나타내는 다수의 이미지(예를 들어, P1, P2, P3, P4, P5)를 생성하되, 각 이미지는 레퍼런스 건물(300)을 다수의 방향(예를 들어, +x, -x, +y, -y, +z, -z 중 적어도 하나)에서 바라본 것일 수 있다. 여기서 생성된 이미지는 외부 서버(230)에서 제공되는 레퍼런스 건물들의 3차원 정보로부터 생성된 것일 수 있다. 예를 들어, 구글맵스(스트리트뷰)에서 제공되는 레퍼런스 건물들을 다수의 방향에서 추출한(또는 캡쳐한) 사진일 수 있다. 도 7에 도시된 것과 같이, 생성된 다수의 이미지(예를 들어, P1, P2, P3, P4, P5)를 다면체의 다수의 면에 각각 대응시켜, 레퍼런스 건물(300)에 대응되는 다면체 형상의 레퍼런스 건물 오브젝트(310a)를 완성할 수 있다.Specifically, for example, as shown in FIG. 6 , it is assumed that a polyhedron 310 having a plurality of faces surrounds the reference building 300 . Generate a plurality of images (eg, P1, P2, P3, P4, P5) representing the reference building 300, each image representing the reference building 300 in multiple directions (eg, +x, - at least one of x, +y, -y, +z, and -z). The image generated here may be generated from 3D information of reference buildings provided by the external server 230 . For example, it may be a photo extracted (or captured) of reference buildings provided in Google Maps (Street View) from multiple directions. As shown in FIG. 7 , a plurality of generated images (eg, P1, P2, P3, P4, P5) correspond to a plurality of faces of a polyhedron, respectively, to form a polyhedron corresponding to the reference building 300 . The reference building object 310a may be completed.

또는, 사용자가 직접, 레퍼런스 건물(300)을 나타내는 다수의 이미지(예를 들어, P1, P2, P3, P4)를 생성하여, 어플리케이션 또는 웹을 통해서, 업로드할 수 있다. 예를 들어, 사용자는 레퍼런스 건물(300)의 정면, 후면, 좌측면, 우측면의 사진을 촬영하여, 직접 업로드할 수 있다. 예를 들어, 업로드에 사용되는 UI(User Interface)는 도 8에 도시된 것과 같을 수 있다. UI는 건물명을 입력하는 영역(171), 위치(또는 주소)를 입력하는 영역(172)을 포함할 수 있다. 건물명 또는 위치를 정확하게 알 수 없는 경우에는, 버튼(172a)을 클릭하여 외부 서버(230)의 지도(예를 들어, 구글맵스)에 들어가서 건물명 또는 위치를 확인할 수 있다. 다수의 이미지(P1, P2, P3, P4)를 입력하는 영역(173)에 레퍼런스 건물(300)의 정면, 후면, 좌측면, 우측면의 사진을 올리고, 업로드 버튼(174)을 클릭하여 업로드할 수 있다.Alternatively, the user may directly create a plurality of images (eg, P1, P2, P3, P4) representing the reference building 300 and upload it through an application or the web. For example, the user may take pictures of the front, rear, left, and right sides of the reference building 300 and directly upload them. For example, a user interface (UI) used for upload may be as shown in FIG. 8 . The UI may include an area 171 for inputting a building name and an area 172 for inputting a location (or address). If the building name or location cannot be accurately known, the building name or location can be checked by clicking the button 172a to enter a map (eg, Google Maps) of the external server 230 . You can upload photos of the front, rear, left, and right sides of the reference building 300 in the area 173 for inputting a number of images (P1, P2, P3, P4), and click the upload button 174 to upload have.

다시 도 3을 참조하면, 제1 건물, 제2 건물과 사용자가 이루는 제1 각도를 연산하고, 제2 건물, 제3 건물과 사용자가 이루는 제2 각도를 연산한다(S40). Referring back to FIG. 3 , a first angle formed between the first building and the second building and the user is calculated, and a second angle formed between the second building and the third building and the user is calculated ( S40 ).

구체적으로, 스캐닝된 건물들(SC1~SC6) 중에서 일부 건물들(SC1, SC2, SC3)이 각각 레퍼런스 건물 오브젝트들(C1, C2, C3)에 매칭되었고, 매칭완료된 건물들(SC1, SC2, SC3) 각각은 제1 건물(P1), 제2 건물(P2), 제3 건물(P3)로 인식되었다고 가정한다. Specifically, some buildings SC1, SC2, and SC3 among the scanned buildings SC1 to SC6 were matched to the reference building objects C1, C2, and C3, respectively, and matching completed buildings SC1, SC2, SC3 ), it is assumed that each of the first building P1, the second building P2, and the third building P3 is recognized.

도 9에 도시된 것과 같이, 제1 건물(P1), 제2 건물(P2)과 사용자(U1)가 이루는 제1 각도(A1)와, 제2 건물(P2), 제3 건물(P3)과 사용자(U1)가 이루는 제2 각도(A2)를 연산한다. As shown in FIG. 9 , the first angle A1 formed by the first building P1 , the second building P2 and the user U1 , the second building P2 , and the third building P3 A second angle A2 formed by the user U1 is calculated.

도 4를 이용하여 설명한 것과 같이, 사용자는 전자 장치(100)에 설치된 카메라(140)가 다수의 건물들(SC1~SC6)을 바라보도록 하여 스캔한다. 스캔을 할 때, 전자 장치(100) 내에 설치된 위치 센서(120)(즉, 자이로 센서)는 전자 장치(100)의 회전각 변화를 측정한다. 측정된 회전각 변화를 기초로 하여, 제1 각도(A1)와 제2 각도(A2)를 연산할 수 있다. 예를 들어, 사용자가 시작점(Q1)에서 종료점(Q2)까지 스캔하였고, 시작점(Q1), 종료점(Q2) 및 사용자가 이루는 각도가 120° 라고 가정한다. 그리고, 스캐닝된 전체 이미지 중에서 1/6 지점에서(예를 들어, 왼쪽에서 오른쪽으로 스캔하였을 때, 왼쪽에서 1/6 지점에서) 제1 건물(P1)이 인식되고, 1/2 지점에서 제2 건물(P2)이 인식되고, 5/6 지점에서 제3 건물(P3)이 인식되었다고 가정한다. 이러한 경우, 제1 건물(P1)은 20°(=120°×1/6) 지점에 위치하고, 제2 건물(P2)은 60°(=120°×1/2) 지점에 위치하고, 제3 건물(P3)은 100°(=120°×5/6) 지점에 위치하는 것으로 볼 수 있다. 따라서, 제1 각도(A1)는 40°(=60°-20°) 이고, 제2 각도(A2)는 40°(=100°-60°) 일 수 있다. As described with reference to FIG. 4 , the user scans with the camera 140 installed in the electronic device 100 looking at the plurality of buildings SC1 to SC6 . When scanning, the position sensor 120 (ie, the gyro sensor) installed in the electronic device 100 measures a change in the rotation angle of the electronic device 100 . Based on the measured rotation angle change, the first angle A1 and the second angle A2 may be calculated. For example, it is assumed that the user scans from the starting point Q1 to the ending point Q2, and the angle formed by the starting point Q1, the ending point Q2, and the user is 120°. Then, the first building P1 is recognized at 1/6 of the entire scanned image (eg, at 1/6 from the left when scanning from left to right), and the second building P1 is recognized at 1/2 It is assumed that the building P2 is recognized and the third building P3 is recognized at the 5/6 point. In this case, the first building P1 is located at 20° (=120°×1/6), the second building P2 is located at 60° (=120°×1/2), and the third building (P3) can be viewed as being located at 100° (=120°×5/6). Accordingly, the first angle A1 may be 40° (=60°-20°), and the second angle A2 may be 40° (=100°-60°).

다시 도 3을 참조하면, 제1 각도(A1)와 제2 각도(A2)를 이용하여, 사용자의 위치를 확정한다(S50).Referring back to FIG. 3 , the user's location is determined using the first angle A1 and the second angle A2 ( S50 ).

구체적으로, 도 10을 참조하면, 제1 건물(P1)의 위치, 제2 건물(P2)의 위치와 제1 각도(A1)를 이용하여 제1 후보 원(candidate circle)(B1)을 연산한다. 제2 건물(P2)의 위치, 제3 건물(P3)의 위치와 제2 각도(A2)를 이용하여 제2 후보 원(B2)을 연산한다. 제1 후보 원(B1)과 제2 후보 원(B2)이 만나는 위치를, 사용자(U1)의 위치로 확정한다. Specifically, referring to FIG. 10 , a first candidate circle B1 is calculated using the position of the first building P1, the position of the second building P2, and the first angle A1. . The second candidate circle B2 is calculated using the position of the second building P2, the position of the third building P3, and the second angle A2. A location where the first candidate circle B1 and the second candidate circle B2 meet is determined as the location of the user U1.

제1 건물(P1)의 위치, 제2 건물(P2)의 위치와 제1 각도(A1)를 알면, 이러한 정보들로부터 제1 후보 원(B1)을 연산할 수 있으나, 사용자(U1)의 위치를 확정할 수는 없다. 왜냐하면, 하나의 원에서 하나의 호에 대한 원주각의 크기는 일정하기 때문이다. 즉, 도 10에서 사용자(U1)가 제1 후보 원(B1) 위의 어디에 있다고 하더라도, P1, U1, P2 가 이루는 제1 각도(A1)는 일정하기 때문이다. 여기서, 제2 건물(P2)의 위치, 제3 건물(P3)의 위치와 제2 각도(A2)로부터 제2 후보 원(B2)을 찾아내면, 제1 후보 원(B1)과 제2 후보 원(B2)이 만나는 위치는 2군데이다. 2군데 중 하나는 제2 건물(P2)이 되고, 다른 하나는 사용자(U1)의 위치가 된다. 결과적으로, 하나의 원에서 하나의 호에 대한 원주각의 크기는 항상 일정하더라도, 2개의 후보 원(B1, B2)을 모두 만족하는 사용자(U1)의 위치를 결정할 수 있다.If the location of the first building P1, the location of the second building P2, and the first angle A1 are known, the first candidate circle B1 can be calculated from these information, but the location of the user U1 cannot be determined This is because the size of the circumferential angle with respect to one arc in one circle is constant. That is, even if the user U1 is located anywhere on the first candidate circle B1 in FIG. 10 , the first angle A1 formed by P1 , U1 , and P2 is constant. Here, when the second candidate circle B2 is found from the position of the second building P2, the position of the third building P3, and the second angle A2, the first candidate circle B1 and the second candidate circle There are two places where (B2) meets. One of the two places is the second building P2, and the other is the location of the user U1. As a result, even though the size of the circumferential angle with respect to one arc in one circle is always constant, the location of the user U1 satisfying both of the two candidate circles B1 and B2 may be determined.

도 11은 본 발명의 제2 실시예에 따른 위치 결정 방법을 설명하기 위한 도면이다. 설명의 편의상 도 3 내지 도 10을 이용하여 설명한 것과 다른 점을 위주로 설명한다. 11 is a view for explaining a positioning method according to a second embodiment of the present invention. For convenience of description, the points different from those described with reference to FIGS. 3 to 10 will be mainly described.

도 11을 참조하면, 제1 건물, 제2 건물, 제3 건물을 인식하기 위해서, 사용자가 주변에 위치하는 건물들을 스캐닝할 때, 사용자는 어느 정도 영역을 스캐닝할지 알기 어렵다.Referring to FIG. 11 , when the user scans surrounding buildings in order to recognize the first building, the second building, and the third building, it is difficult for the user to know how much area to scan.

따라서, 스캐닝하는 동안, 전자 장치(100)에 설치된 디스플레이(170)에는, 인식 동작에 필요한 스캐닝 영역과, 스캐닝 진행 정도(C1)를 나타내는 스캐닝 바(scanning bar) (SB1)가 표시된다. 사용자는 스캐닝 진행 정도(C1)가 스캐닝 바(SB1)를 모두 채울 때까지 스캐닝 동작을 수행할 수 있다. Accordingly, during scanning, a scanning area necessary for a recognition operation and a scanning bar SB1 indicating a scanning progress degree C1 are displayed on the display 170 installed in the electronic device 100 . The user may perform the scanning operation until the scanning progress degree C1 completely fills the scanning bar SB1.

도 12 및 도 13은 본 발명의 제3 실시예에 따른 위치 결정 방법을 설명하기 위한 도면들이다.12 and 13 are diagrams for explaining a positioning method according to a third embodiment of the present invention.

도 12를 참조하면, 사용자의 주변에 위치하는 건물들을 제1 스캐닝하고, 제1 스캐닝된 건물들 중 인식되는 건물이 3개가 되지 않은 경우가 발생할 수 있다. 이러한 경우, 사용자는 주변에 위치하는 건물들을 다시 제2 스캐닝할 수 있다. Referring to FIG. 12 , when buildings located in the vicinity of the user are first scanned, there may be a case where there are not three recognized buildings among the first scanned buildings. In this case, the user may perform a second scan of buildings located in the vicinity again.

제2 스캐닝 바(SB2)는 제1 스캐닝 바(도 11의 SB1 참조)와 다를 수 있다. 예를 들어, 제1 스캐닝 바(SB1)의 제1 길이보다 제2 스캐닝 바(SB2)의 제2 길이가 더 길 수 있다. 사용자는 스캐닝 진행 정보(C2)가 제2 스캐닝 바(SB2)를 모두 채울 때까지 스캐닝 동작을 수행하기 때문에, 사용자는 제2 스캐닝을 할 때 더 많은 영역을 스캐닝하게 된다.The second scanning bar SB2 may be different from the first scanning bar (refer to SB1 of FIG. 11 ). For example, the second length of the second scanning bar SB2 may be longer than the first length of the first scanning bar SB1 . Since the user performs a scanning operation until the scanning progress information C2 completely fills the second scanning bar SB2, the user scans a larger area during the second scanning.

도 13에 도시된 것과 같이, 제1 스캐닝(SR1)을 수행할 때에는, 시작점(Q1)에서 종료점(Q2)까지 스캔할 수 있다. 반면, 제2 스캐닝(SR2)를 수행할 때에는, 시작점(Q1)에서 종료점(Q21)까지 스캔할 수 있다. As illustrated in FIG. 13 , when performing the first scanning SR1 , a scan may be performed from a starting point Q1 to an ending point Q2 . On the other hand, when the second scanning SR2 is performed, it is possible to scan from the start point Q1 to the end point Q21.

제2 스캐닝(SR2)은 제1 스캐닝(SR1)보다 더 많은 영역을 스캐닝하기 때문에, 새로운 레퍼런스 건물 오브젝트들이 고려될 수 있고, 이에 따라 제3 건물(P3)이 인식될 수 있다.Since the second scanning SR2 scans a larger area than the first scanning SR1 , new reference building objects may be considered, and accordingly, the third building P3 may be recognized.

도 14 및 도 15은 본 발명의 제4 실시예에 따른 위치 결정 방법을 설명하기 위한 도면들이다.14 and 15 are diagrams for explaining a positioning method according to a fourth embodiment of the present invention.

도 14를 참조하면, 사용자의 주변에 위치하는 건물들을 제1 스캐닝하고, 제1 스캐닝된 건물들 중 인식되는 건물이 3개가 되지 않은 경우가 발생할 수 있다. 이러한 경우, 사용자는 주변에 위치하는 건물들을 다시 제2 스캐닝할 수 있다.Referring to FIG. 14 , when buildings located in the vicinity of the user are first scanned, there may be a case in which the number of recognized buildings among the first scanned buildings is not three. In this case, the user may perform a second scan of buildings located in the vicinity again.

제2 스캐닝을 하기 전에, 제1 스캐닝된 건물들 중 인식되는 건물(예를 들어, P2)을 증강현실을 이용하여 전자 장치(100)에 설치된 디스플레이(170)에 지시(표시)하는 것을 더 포함한다. 지시하는 방법은 예를 들어, 도 14에 도시된 것과 같이, 디스플레이(170) 내에서, 인식된 건물(P2)을 도트(dot) 등으로 표시하거나, 말풍선 등과 같은 지시표(179)로 표시할 수 있다. 표시 방법은 이에 한정되지 않는다. Before performing the second scanning, the method further includes instructing (displaying) a building (eg, P2 ) recognized among the first scanned buildings on the display 170 installed in the electronic device 100 using augmented reality. do. The instructing method is, for example, as shown in FIG. 14 , in the display 170, the recognized building P2 is displayed with dots or the like, or displayed with an indicator 179 such as a speech bubble. can The display method is not limited thereto.

한편, 도 15에 도시된 것과 같이, 제2 스캐닝(SR3)은 표시된 건물(예를 들어, P2)을 기준으로 추가적으로 진행될 수 있다. 제1 스캐닝(SR1)은 시작점(Q1)에서 종료점(Q2)까지 스캔하는 반면, 제2 스캐닝(SR3)은 시작점(Q11)에서 종료점(Q22)까지 스캔할 수 있다. 이와 같이 제2 스캐닝(SR3)은 제1 스캐닝(SR1)과 다른 영역을 스캐닝하기 때문에, 새로운 레퍼런스 건물 오브젝트들이 고려될 수 있고, 이에 따라 제3 건물(P3)이 인식될 수 있다.Meanwhile, as shown in FIG. 15 , the second scanning SR3 may be additionally performed based on the displayed building (eg, P2 ). The first scanning SR1 may scan from the starting point Q1 to the ending point Q2 , while the second scanning SR3 may scan from the starting point Q11 to the ending point Q22 . As described above, since the second scanning SR3 scans an area different from the first scanning SR1 , new reference building objects may be considered, and accordingly, the third building P3 may be recognized.

도 16은 본 발명의 제5 실시예에 따른 위치 결정 방법을 설명하기 위한 도면이다.16 is a view for explaining a positioning method according to a fifth embodiment of the present invention.

도 16을 참조하면, 전술한 것과 같은 방식들로 사용자의 현재 위치를 정확하게 결정한 후, 이를 이용하여 내비게이션 동작을 추가적으로 수행할 수 있다. 즉, 사용자의 목적지(176a)를 입력받고, 사용자의 현재 위치에서 목적지(176a)까지의 길을 안내한다. Referring to FIG. 16 , after the user's current location is accurately determined in the same manner as described above, a navigation operation may be additionally performed using this method. That is, the user's destination 176a is input, and a route from the user's current location to the destination 176a is guided.

여기서, 사용자가 목적지를 향해 이동하는 동안, 전자 장치(100)에 설치된 디스플레이(170)에는, 사용자가 위치하는 도로의 형상과 무관하게, 목적지(176a)가 사용자의 위치로부터 어떤 방향에 위치하는지를 나타내는 방향지시기(176)가 표시될 수 있다. 즉, 사용자가 위치하는 도로는 12시 방향으로 연장되어 있고 목적지(176a)는 2시 방향이라면, 방향지시기(176)는 2시 방향을 향할 수 있다. Here, while the user moves toward the destination, the display 170 installed in the electronic device 100 indicates in which direction the destination 176a is located from the user's location, regardless of the shape of the road on which the user is located. A direction indicator 176 may be displayed. That is, if the road on which the user is located extends in the 12 o'clock direction and the destination 176a is in the 2 o'clock direction, the direction indicator 176 may face the 2 o'clock direction.

이와 같은 방향지시기(176)를 표시하는 이유는 다음과 같다. 사용자가 걸어서 목적지를 향해 이동할 때, 사용자는 도로의 위치와 무관하게 목적지가 어떤 방향에 있는지만 알고 있다면 더 빠르게 자율성을 가지고 움직일 수 있기 때문이다. 사용자가 관광객이라면, 목적지를 향해 걸어가는 도로와 주위 풍경을 즐기면서, 사용자는 선호하는 도로를 따라서 목적지로 움직일 수 있을 것이다. The reason for displaying such a direction indicator 176 is as follows. This is because when a user moves toward a destination on foot, the user can move faster with autonomy if he knows only which direction the destination is, regardless of the location of the road. If the user is a tourist, the user will be able to move to the destination along the preferred road while enjoying the road and the surrounding scenery to the destination.

또한, 사용자가 목적지를 향해 이동하는 동안, 목적지까지 남은 거리(177)가 같이 표시될 수 있다.In addition, while the user moves toward the destination, the remaining distance 177 to the destination may be displayed as well.

또한, 사용자가 지도버튼(178)을 누르면, 지도 상에서 사용자의 위치 및/또는 목적지를 같이 표시할 수 있다. Also, when the user presses the map button 178, the user's location and/or destination may be displayed on the map.

이상과 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.Although embodiments of the present invention have been described with reference to the above and the accompanying drawings, those of ordinary skill in the art to which the present invention pertains can practice the present invention in other specific forms without changing its technical spirit or essential features. You will understand that there is Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.

100: 전자 장치 110: GPS 수신기
120: 위치 센서 130: 통신 모듈
140: 카메라 150: 메모리
160: 프로세서 170: 디스플레이
180: 버스 210, 220: 관리 서버
220: 외부 서버
SC1~SC6: 스캐닝된 건물들
C1~C9: 레퍼런스 건물 오브젝트들
RG1, RG2: 위치 범위
100: electronic device 110: GPS receiver
120: position sensor 130: communication module
140: camera 150: memory
160: processor 170: display
180: bus 210, 220: management server
220: external server
SC1-SC6: Scanned Buildings
C1~C9: Reference building objects
RG1, RG2: position range

Claims (15)

전자 장치에 의해 수행되는 위치 결정 방법에 있어서,
GPS 정보를 수신하여 사용자의 위치 범위를 연산하는 단계;
상기 사용자의 주변에 위치하는 건물들을 스캐닝하여, 상기 스캐닝된 건물들 중 제1 건물, 제2 건물 및 제3 건물을 인식하는 단계;
상기 제1 건물, 상기 제2 건물과 상기 사용자가 이루는 제1 각도를 연산하고, 상기 제2 건물, 상기 제3 건물과 상기 사용자가 이루는 제2 각도를 연산하는 단계; 및
상기 제1 각도와 상기 제2 각도를 이용하여, 상기 사용자의 위치를 확정하는 단계를 포함하되,
상기 인식하는 단계는, 상기 스캐닝된 건물들과 기등록된 레퍼런스 건물 오브젝트들을 비교하여, 상기 스캐닝된 건물들 중에서 상기 기등록된 레퍼런스 건물 오브젝트들과 매칭되는 건물들을 제1 건물, 제2 건물 및 제3 건물로 정하고,
상기 인식하는 단계 이전에, 상기 레퍼런스 건물 오브젝트들을 등록하는 단계를 더 포함하고, 상기 레퍼런스 건물 오브젝트들을 등록하는 단계는,
레퍼런스 건물을 둘러싸는, 다수의 면을 갖는 다면체를 가정하고,
상기 레퍼런스 건물을 나타내는 다수의 이미지를 생성하되, 각 이미지는 상기 레퍼런스 건물을 다수의 방향에서 바라본 것이고,
상기 생성된 다수의 이미지를 상기 다면체의 다수의 면에 각각 대응시켜, 상기 레퍼런스 건물에 대응되는 다면체 형상의 레퍼런스 건물 오브젝트를 완성하는 것을 포함하는, 위치 결정 방법.
A positioning method performed by an electronic device, comprising:
calculating a user's location range by receiving GPS information;
recognizing a first building, a second building, and a third building among the scanned buildings by scanning buildings located in the vicinity of the user;
calculating a first angle between the first building, the second building, and the user, and calculating a second angle between the second building, the third building, and the user; and
Using the first angle and the second angle, including the step of determining the location of the user,
The recognizing may include comparing the scanned buildings with pre-registered reference building objects, and comparing the scanned buildings with the pre-registered reference building objects among the first building, the second building, and the second building. 3 as a building,
Prior to the recognizing step, further comprising the step of registering the reference building objects, the step of registering the reference building objects,
Assuming a polyhedron with multiple faces, enclosing the reference building,
Generate a plurality of images representing the reference building, each image is a view of the reference building from a plurality of directions,
Completing a polyhedral-shaped reference building object corresponding to the reference building by matching the plurality of generated images to a plurality of surfaces of the polyhedron, respectively.
삭제delete 삭제delete 제 1항에 있어서,
상기 다수의 이미지를 생성하는 것은,
어플리케이션 또는 웹을 통해서, 사용자가 레퍼런스 건물을 다수의 방향에서 촬영하여 다수의 사진을 업로드하는 것을 포함하는, 위치 결정 방법.
The method of claim 1,
To create the plurality of images,
A method for determining a location, comprising, through an application or a web, a user uploading a plurality of photos by photographing a reference building from a plurality of directions.
제 1항에 있어서,
상기 제1 각도와 상기 제2 각도를 이용하여, 상기 사용자의 위치를 확정하는 단계는,
상기 제1 건물의 위치, 상기 제2 건물의 위치와 제1 각도를 이용하여 제1 후보 원(candidate circle)을 연산하고,
상기 제2 건물의 위치, 상기 제3 건물의 위치와 제2 각도를 이용하여 제2 후보 원을 연산하고,
상기 제1 후보 원과 상기 제2 후보 원이 만나는 위치를, 상기 사용자의 위치로 확정하는 것을 포함하는, 위치 결정 방법.
The method of claim 1,
Using the first angle and the second angle, determining the location of the user includes:
calculating a first candidate circle using the location of the first building, the location of the second building, and a first angle;
calculating a second candidate circle using the location of the second building, the location of the third building, and a second angle;
and determining a location where the first candidate circle and the second candidate circle meet as the user's location.
제 1항에 있어서,
상기 사용자의 주변에 위치하는 건물들을 스캐닝하는 것은,
상기 사용자가 상기 전자 장치에 설치된 카메라를 상기 건물들을 바라보도록 하여 스캐닝하되,
스캐닝하는 동안, 상기 전자 장치에 설치된 디스플레이에는, 상기 제1 건물, 제2 건물 및 제3 건물을 인식하는 동작에 필요한 스캐닝 영역과, 스캐닝 진행 정도를 나타내는 스캐닝 바(scanning bar)가 표시되는, 위치 결정 방법.
The method of claim 1,
Scanning the buildings located in the vicinity of the user,
The user scans the camera installed in the electronic device to look at the buildings,
During scanning, a scanning area necessary for recognizing the first building, the second building, and the third building and a scanning bar indicating the degree of scanning are displayed on the display installed in the electronic device during scanning. How to decide.
제 1항에 있어서,
상기 사용자의 주변에 위치하는 건물들을 스캐닝하여, 상기 스캐닝된 건물들 중 제1 건물, 제2 건물 및 제3 건물을 인식하는 단계는,
상기 사용자의 주변에 위치하는 건물들을 제1 스캐닝하고, 상기 제1 스캐닝된 건물들 중 인식되는 건물이 3개가 되지 않은 경우, 상기 사용자의 주변에 위치하는 건물들을 제2 스캐닝하는 것을 포함하는, 위치 결정 방법.
The method of claim 1,
Recognizing a first building, a second building, and a third building among the scanned buildings by scanning buildings located in the vicinity of the user,
A location comprising the first scanning of buildings located in the vicinity of the user, and second scanning of buildings located in the vicinity of the user when the number of recognized buildings among the first scanned buildings is not three. How to decide.
제 7항에 있어서,
상기 사용자의 주변에 위치하는 건물들을 제1 스캐닝하는 동안, 상기 전자 장치에 설치된 디스플레이에는 제1 길이의 스캐닝 바가 표시되고,
상기 사용자의 주변에 위치하는 건물들을 제2 스캐닝하는 동안, 상기 디스플레이에는 상기 제1 길이보다 긴 제2 길이의 스캐닝 바가 표시되는, 위치 결정 방법.
8. The method of claim 7,
During the first scanning of buildings located in the vicinity of the user, a scanning bar of a first length is displayed on the display installed in the electronic device,
During the second scanning of buildings located in the vicinity of the user, a scanning bar having a second length longer than the first length is displayed on the display.
제 7항에 있어서,
상기 제1 스캐닝된 건물들 중 인식되는 건물을 증강현실을 이용하여 상기 전자 장치에 설치된 디스플레이에 표시하는 것을 더 포함하고,
상기 제2 스캐닝은, 상기 제1 스캐닝에 의해 인식되어 상기 디스플레이에 표시된 건물을 기준으로 추가적으로 스캐닝하는, 위치 결정 방법.
8. The method of claim 7,
Displaying a recognized building among the first scanned buildings on a display installed in the electronic device using augmented reality,
Wherein the second scanning is further scanned based on the building recognized by the first scanning and displayed on the display.
제 1항에 있어서,
상기 사용자의 목적지를 입력받는 단계를 더 포함하고,
상기 사용자가 목적지를 향해 이동하는 동안, 상기 전자 장치에 설치된 디스플레이에는, 상기 사용자가 위치하는 도로의 형상과 무관하게, 상기 목적지가 상기 사용자로부터 어떤 방향에 위치하는지를 나타내는 방향지시기가 표시되는, 위치 결정 방법.
The method of claim 1,
Further comprising the step of receiving the user's destination,
While the user moves toward the destination, a direction indicator indicating which direction the destination is located from the user is displayed on the display installed in the electronic device, regardless of the shape of the road on which the user is located. Way.
GPS 수신기;
위치 센서;
카메라;
통신 모듈;
메모리; 및
상기 GPS 수신기, 상기 위치 센서, 상기 카메라, 상기 통신 모듈 및 상기 메모리를 제어하는 프로세서를 포함하되,
상기 메모리는 상기 프로세서가
상기 GPS 수신기를 이용하여 GPS 정보를 수신하여 사용자의 위치 범위를 연산하고,
상기 카메라를 이용하여 사용자의 주변에 위치하는 건물들을 스캐닝하고,
상기 스캐닝된 건물들 중 제1 건물, 제2 건물 및 제3 건물을 인식하고,
상기 제1 건물, 상기 제2 건물과 상기 사용자가 이루는 제1 각도를 연산하고, 상기 제2 건물, 상기 제3 건물과 상기 사용자가 이루는 제2 각도를 연산하고,
상기 제1 각도와 상기 제2 각도를 이용하여, 상기 사용자의 위치를 확정하도록 하는
인스트럭션들을 포함하고,
상기 인식하는 것은, 상기 프로세서가 상기 스캐닝된 건물들과 기등록된 레퍼런스 건물 오브젝트들을 비교하여, 상기 스캐닝된 건물들 중에서 상기 기등록된 레퍼런스 건물 오브젝트들과 매칭되는 건물들을 제1 건물, 제2 건물 및 제3 건물로 정하도록 하고,
상기 메모리는 상기 프로세서가 상기 레퍼런스 건물 오브젝트들을 등록하도록 하는 인스트럭션들을 더 포함하되, 상기 레퍼런스 건물 오브젝트들을 등록하는 것은,
레퍼런스 건물을 둘러싸는, 다수의 면을 갖는 다면체를 가정하고,
상기 레퍼런스 건물을 나타내는 다수의 이미지를 생성하되, 각 이미지는 상기 레퍼런스 건물을 다수의 방향에서 바라본 것이고,
상기 생성된 다수의 이미지를 상기 다면체의 다수의 면에 각각 대응시켜, 상기 레퍼런스 건물에 대응되는 다면체 형상의 레퍼런스 건물 오브젝트를 완성하는 것을 포함하는, 전자 장치.
GPS receiver;
position sensor;
camera;
communication module;
Memory; and
A processor for controlling the GPS receiver, the location sensor, the camera, the communication module, and the memory,
The memory is the processor
Receive GPS information using the GPS receiver and calculate the user's location range,
Scanning the buildings located around the user using the camera,
Recognizing a first building, a second building, and a third building among the scanned buildings,
calculating a first angle formed by the first building, the second building, and the user, calculating a second angle formed by the second building, the third building, and the user;
using the first angle and the second angle to determine the location of the user
including instructions,
The recognizing is that the processor compares the scanned buildings with the pre-registered reference building objects, and selects buildings matching the pre-registered reference building objects among the scanned buildings a first building and a second building. and a third building,
The memory further includes instructions for causing the processor to register the reference building objects, wherein registering the reference building objects comprises:
Assuming a polyhedron with multiple faces, enclosing the reference building,
Generate a plurality of images representing the reference building, each image is a view of the reference building from a plurality of directions,
Completing a polyhedral reference building object corresponding to the reference building by respectively matching the plurality of generated images to the plurality of surfaces of the polyhedron.
삭제delete 제 11항에 있어서,
상기 기등록된 레퍼런스 건물 오브젝트들은,
상기 메모리에 저장되어 있거나,
상기 통신 모듈을 통해서 접속할 수 있는 서버의 데이터베이스에 저장되어 있는, 전자 장치.
12. The method of claim 11,
The pre-registered reference building objects are,
stored in the memory, or
An electronic device stored in a database of a server accessible through the communication module.
삭제delete 제 11항에 있어서, 상기 제1 각도와 상기 제2 각도를 이용하여, 상기 사용자의 위치를 확정하는 것은,
상기 제1 건물의 위치, 상기 제2 건물의 위치와 제1 각도를 이용하여 제1 후보 원(candidate circle)을 연산하고,
상기 제2 건물의 위치, 상기 제3 건물의 위치와 제2 각도를 이용하여 제2 후보 원을 연산하고,
상기 제1 후보 원과 상기 제2 후보 원이 만나는 위치를, 상기 사용자의 위치로 확정하는 것을 포함하는, 전자 장치.
The method of claim 11, wherein determining the location of the user by using the first angle and the second angle comprises:
calculating a first candidate circle using the location of the first building, the location of the second building, and a first angle;
calculating a second candidate circle using the location of the second building, the location of the third building, and a second angle;
and determining a location where the first candidate circle and the second candidate circle meet as the user's location.
KR1020190168720A 2019-12-17 2019-12-17 Positioning method and an electronic device KR102296168B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190168720A KR102296168B1 (en) 2019-12-17 2019-12-17 Positioning method and an electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190168720A KR102296168B1 (en) 2019-12-17 2019-12-17 Positioning method and an electronic device

Publications (2)

Publication Number Publication Date
KR20210077269A KR20210077269A (en) 2021-06-25
KR102296168B1 true KR102296168B1 (en) 2021-08-31

Family

ID=76629149

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190168720A KR102296168B1 (en) 2019-12-17 2019-12-17 Positioning method and an electronic device

Country Status (1)

Country Link
KR (1) KR102296168B1 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101636725B1 (en) * 2014-08-07 2016-07-06 엘지전자 주식회사 Mobile terminal and method for controlling the same
KR101878685B1 (en) * 2016-02-12 2018-07-16 서울과학기술대학교 산학협력단 System and method for positioning vehicle using local dynamic map
KR102524266B1 (en) * 2016-08-29 2023-04-24 엘지전자 주식회사 Mobile terminal and operating method thereof
KR101994521B1 (en) 2017-04-20 2019-09-30 김현우 Navigation system by using augmented reality

Also Published As

Publication number Publication date
KR20210077269A (en) 2021-06-25

Similar Documents

Publication Publication Date Title
EP3466070B1 (en) Method and device for obtaining image, and recording medium thereof
US10281981B2 (en) AR output method and electronic device for supporting the same
KR102362117B1 (en) Electroninc device for providing map information
KR102606601B1 (en) Surface aware lens
KR102643741B1 (en) Redundant tracking system
EP3128793B1 (en) Method of providing route information and electronic device for processing same
US10043314B2 (en) Display control method and information processing apparatus
CN107665485B (en) Electronic device and computer-readable recording medium for displaying graphic objects
KR102299774B1 (en) Method for configuring screen, electronic apparatus and storage medium
US10365820B2 (en) Electronic device and touch gesture control method thereof
CN108462818B (en) Electronic device and method for displaying 360-degree image in the same
US9697805B2 (en) Method and apparatus for electronic device unlocking
KR20180042551A (en) Electronic apparatus and controlling method thereof
KR102504308B1 (en) Method and terminal for controlling brightness of screen and computer-readable recording medium
KR102337209B1 (en) Method for notifying environmental context information, electronic apparatus and storage medium
US10585935B2 (en) Electronic device and method for producing video content by using the same
KR20170052984A (en) Electronic apparatus for determining position of user and method for controlling thereof
KR20180082273A (en) Computer readable recording medium and electronic apparatus for performing video call
KR20180093558A (en) Method and electronic device for providing an interface to acquire an image of a subject
US20180143681A1 (en) Electronic device for displaying image and method for controlling the same
KR20170100281A (en) Electronic device for determining position and method for operating thereof
KR102296168B1 (en) Positioning method and an electronic device
KR20180083144A (en) Method for detecting marker and an electronic device thereof
KR20170092004A (en) Electronic apparatus and method for processing data thereof
KR102620195B1 (en) Method for displaying contents and electronic device supporting the same

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant