KR20060130425A - Method for displaying building information - Google Patents

Method for displaying building information Download PDF

Info

Publication number
KR20060130425A
KR20060130425A KR1020050051099A KR20050051099A KR20060130425A KR 20060130425 A KR20060130425 A KR 20060130425A KR 1020050051099 A KR1020050051099 A KR 1020050051099A KR 20050051099 A KR20050051099 A KR 20050051099A KR 20060130425 A KR20060130425 A KR 20060130425A
Authority
KR
South Korea
Prior art keywords
building
image
information
camera
buildings
Prior art date
Application number
KR1020050051099A
Other languages
Korean (ko)
Other versions
KR100734678B1 (en
Inventor
정문호
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020050051099A priority Critical patent/KR100734678B1/en
Priority to RU2006120530/11A priority patent/RU2324236C2/en
Priority to US11/423,799 priority patent/US7728869B2/en
Priority to EP14183956.3A priority patent/EP2840358B1/en
Priority to EP06012305.6A priority patent/EP1734341B1/en
Publication of KR20060130425A publication Critical patent/KR20060130425A/en
Application granted granted Critical
Publication of KR100734678B1 publication Critical patent/KR100734678B1/en
Priority to US12/194,476 priority patent/US7826967B2/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09626Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages where the origin of the information is within the own vehicle, e.g. a local storage device, digital map
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors

Abstract

A method for displaying building information is provided to enhance user's convenience by supplying information on buildings, which are displayed on a screen, to the user. A command input unit(116) is integrated with a camera(104) and receives commands from a user. A GPS(Global Positioning System) receiver(100) receives a position information signal from a GPS satellite. A map data storage(108) stores map data. A sensor(110) detects the horizontal and vertical angles of the camera by using a terrestrial magnetism sensor and a slant meter. An image processor(106) processes images, which are captured and stored in the camera. The controller periodically captures building images, searches a building with the same position information from the map data storage, and matches the captured image to the searched building. Then, a display driver(112) controls a display device(114), so that both the captured image and related information on the building are displayed at the same time.

Description

건물정보 표시방법{Method for displaying building information} {Method for displaying building information}

도 1은 본 발명이 적용 가능한 네비게이션 시스템의 구성을 보인 도면, 1 is a view showing the configuration of a navigation system to which the present invention is applicable;

도 2는 본 발명의 바람직한 실시예에 따른 건물정보 표시 방법을 나타낸 흐름도, 2 is a flow chart showing a building information display method according to an embodiment of the present invention;

도 3은 도 2에 도시된 텍스트 정보 표시 단계를 구체적으로 도시한 흐름도,3 is a flowchart specifically showing a text information displaying step shown in FIG. 2;

도 4은 본 발명의 바람직한 실시예에 따라 건물정보가 표시된 모습을 보인 도면이다. 4 is a view showing a building information is displayed in accordance with a preferred embodiment of the present invention.

* 도면의 주요부분에 대한 부호의 설명 * Explanation of symbols for main parts of the drawings

100 : GPS 수신기 102 : 제어부100: GPS receiver 102: control unit

104 : 카메라 106 ; 이미지 프로세서104: camera 106; Image processor

108 : 지도데이터 저장부 110 : 센서부108: map data storage unit 110: sensor unit

본 발명은 카메라로 촬영한 영상과 함께 그 영상 내에 존재하는 각 건물들에 대한 정보를 표시해 주는 건물정보 표시 방법에 관한 것이다. The present invention relates to a building information display method for displaying information on each building existing in the image together with the image taken by the camera.

GPS(Global Positioning System)는 미국의 국방성에서 개발한 범세계 측위 시스템으로서, 복수 개의 GPS 위성은 기울임각(inclination angle)이 55°인 6개의 원형 궤도면(circular orbit)에 각각 4개씩 배치되어, 약 12시간의 주기를 가지고 이동하면서 각기 자신의 위치정보신호를 송신하고, GPS 수신기는 복수의 GPS 위성들 중에서 최소한 4개 이상의 GPS 위성으로부터 위치정보신호를 수신하여 GPS 위성과 자신 사이의 거리 및 GPS 위성의 위치벡터를 검출하며 이를 통해 자신의 위치벡터를 산출한다. GPS (Global Positioning System) is a global positioning system developed by the US Department of Defense, and a plurality of GPS satellites are arranged on each of six circular orbits each having an inclination angle of 55 °. Each of them transmits its own location information signal with a period of about 12 hours, and the GPS receiver receives the location information signal from at least 4 GPS satellites among the plurality of GPS satellites, and the distance between the GPS satellites and itself. Detect the position vector of satellite and calculate its own position vector.

GPS 수신기를 구비한 네비게이션 시스템은 GPS 수신기로부터 산출된 자신의 위치벡터를 지도 데이터 상에 매핑시켜 표시하고, 부가 서비스로 지도 상의 현재 위치로부터 사용자의 목적지까지 최단 경로를 알려주는 길안내 서비스를 제공하고 있다. 그래서 사용자들은 이와 같은 네비게이션 시스템을 휴대함으로써 자신의 목적지까지 보다 용이하게 찾아갈 수 있게 되었다. The navigation system having a GPS receiver maps its position vector calculated from the GPS receiver onto map data, displays it, and provides an additional service as a supplementary service to provide a shortest route from the current position on the map to the user's destination. have. Thus, users can easily navigate to their destinations by carrying such a navigation system.

하지만 사용자는 네비게이션 시스템을 통해 길안내 서비스를 제공받으며 목적지를 찾아갈 때에, 네비게이션 시스템에서 표시해 준 지도 데이터 상에 건물들이 실제 보이는 건물들 중 어느 건물에 해당하는지 알기 위해서 일일이 지도 데이터와 실제 건물영상을 매칭시켜 보아야 한다. However, the user is provided with a navigation service through the navigation system, and when searching for a destination, the map data and the actual image of the building are displayed in order to find out which of the buildings are actually visible on the map data displayed by the navigation system. Should match.

다시 말해서, 지도 데이터 상에 표시된 'A' 건물이 실제 어느 건물을 표시한 것인지를 확인하기 위해서 'A' 건물이 위치하고 있는 지점 근처의 건물들을 일일이 살펴서 확인해야 하며 특히, 사용자의 현재 위치에서 조금 떨어져 보이는 건물에 대해서는 그 건물이 위치한 곳에 직접 가서 건물에 대한 정보를 획득한 후, 지도 데이터에 표시된 건물정보와 매칭시켜 보아야지만 지도 데이터 상에 표시된 건물들 중 어느 건물과 매칭되는지를 찾아낼 수가 있다. In other words, in order to check which building actually represents the building 'A' displayed on the map data, it is necessary to check the buildings near the point where the building 'A' is located, in particular, away from the user's current location. For the visible building, go directly to the place where the building is located, obtain information about the building, and match it with the building information displayed on the map data, but it is possible to find out which building among the buildings displayed on the map data matches.

그러므로 본 발명의 목적은 현재 사용자 위치에서 보이는 건물들이 지도 데이터 상에 표시된 어느 건물에 해당되는지를 한눈에 살펴볼 수 있도록 건물정보를 표시해 주는 건물정보 표시 방법을 제공하는데 있다. Therefore, an object of the present invention is to provide a building information display method that displays the building information so that you can see at a glance which buildings displayed on the map data corresponding to the buildings visible from the current user location.

상기와 같은 목적을 달성하기 위하여, 본 발명에 따른 건물정보 표시 방법은 카메라에 촬영되는 영상을 캡처하고, 그 캡처된 영상 내에 존재하는 각 건물들에 대한 위치정보를 산출하는 단계; 기 저장된 지도 데이터를 로딩하는 단계; 상기 로딩된 지도 데이터에 존재하는 건물들의 위치정보를 산출하는 단계; 상기 산출한 영상과 지도 데이터 내의 각 건물들의 위치정보를 비교하여, 상기 지도 데이터로부터 상기 영상 내의 각 건물들과 위치정보가 매칭되는 건물들의 텍스트 정보를 검출하는 단계; 및 상기 검출한 건물들의 텍스트 정보를 상기 영상 내 해당 건물들과 매핑시켜 표시패널에 표시하는 단계;를 포함하여 이루어진다.In order to achieve the above object, the building information display method according to the present invention comprises the steps of capturing an image taken by the camera, and calculating the location information for each building existing in the captured image; Loading previously stored map data; Calculating location information of buildings existing in the loaded map data; Comparing the calculated image with location information of each building in map data, and detecting text information of the buildings where the location information matches each building in the image from the map data; And mapping text information of the detected buildings to corresponding buildings in the image and displaying the text information on the display panel.

여기서, 상기 영상 캡처는 상기 카메라에 촬영되는 영상을 일정 시간 간격마다 캡처하는 것을 특징으로 한다.Here, the image capture is characterized in that for capturing an image captured by the camera at predetermined time intervals.

바람직하게, 본 발명에서는 상기 카메라 영상을 캡처시 GPS 수신신호 및 지자기 센서신호로 상기 카메라의 촬영위치 및 방위각을 검출하는 것을 특징으로 한다.Preferably, the present invention is characterized by detecting the shooting position and the azimuth angle of the camera by the GPS signal and the geomagnetic sensor signal when capturing the camera image.

그리고, 상기 영상 내 각 건물들의 위치정보 산출은 경사계 센서신호로 상기 카메라의 경사각을 검출하는 단계; 상기 캡처된 영상에 대한 이미지 프로세싱을 통 해 영상 내의 각 건물들을 분리시키는 단계; 상기 분리시킨 각 건물에 중심점 포인트를 설정하고, 상기 검출한 촬영위치 및 방위각을 기준으로 상기 각 건물들의 위치정보를 산출하는 단계; 및 상기 산출한 각 건물들의 위치정보를 상기 카메라의 배율정보 및 경사각을 통해 보정하는 단계;로 이루어질 수 있다.The calculation of the location information of each building in the image may include detecting an inclination angle of the camera with an inclinometer sensor signal; Separating each building in the image through image processing on the captured image; Setting a center point in each of the separated buildings, and calculating position information of each building based on the detected shooting position and azimuth angle; And correcting the calculated position information of each building through the magnification information and the inclination angle of the camera.

여기서, 상기 각 건물에 중심점 포인트 설정은 상기 각 건물의 하단에 중심점 포인트를 설정하는 것을 특징으로 한다. Here, the center point setting for each of the buildings is characterized in that for setting the center point at the bottom of each building.

또한, 본 발명에 따른 상기 지도 데이터 내의 건물에 대한 위치정보 산출은 상기 검출한 촬영위치 및 방위각을 기준으로 상기 지도 데이터의 설정범위 이내에 존재하는 각 건물에 중심점 포인트를 설정하고 건물의 위치정보를 산출할 수 있다.In addition, the calculation of the location information of the building in the map data according to the present invention sets a center point point in each building existing within the set range of the map data based on the detected shooting position and azimuth angle and calculates the location information of the building. can do.

바람직하게, 본 발명에서 상기 각 건물들의 위치정보는 상기 검출한 촬영위치 및 방위각을 기준으로 한 각 건물들의 방향각 및 거리값인 것을 특징으로 한다.Preferably, in the present invention, the location information of each building is characterized in that the direction angle and the distance value of each building based on the detected shooting position and azimuth.

한편, 상기 검출된 건물들의 텍스트 정보 표시는 상기 캡처된 영상 내 각 건물들의 텍스트 포인트 위치를 설정하는 단계; 및 상기 검출된 건물의 텍스트 정보를 해당 건물의 텍스트 포인트 위치에 매핑시켜 표시하는 단계;로 이루어질 수 있다. On the other hand, the display of the text information of the detected building step of setting the location of the text point of each building in the captured image; And mapping the detected text information of the building to a text point location of the corresponding building.

여기서, 상기 설정된 각 건물들의 텍스트 포인트 위치는 상기 각 건물들의 텍스트 정보가 서로 중복되어 표시되지 않도록 각 건물에 설정된 어느 한 지점인 것을 특징으로 한다.Here, the text point position of each set building is characterized in that any one point set in each building so that the text information of each building is not displayed overlapping each other.

그리고, 상기 건물의 텍스트 포인트 위치를 결정하는 단계 이후에, 상기 영상 내 각 건물들의 색상을 결정하는 단계;를 더 포함하고, 상기 영상 내 각 건물 및 그 건물의 텍스트 정보를 그 건물에 결정된 색상으로 표시하는 것을 특징으로 한다.And after determining the location of the text point of the building, determining the color of each building in the image. The method further includes converting text information of each building and the building in the image into a color determined for the building. It is characterized by displaying.

본 발명에서는 상기 각 건물에 결정된 색상으로 건물 표시시, 각 건물의 윤곽선이 그 건물에 결정된 색상으로 표시되도록 하며, 상기 각 건물들의 색상 결정시, 주변에 위치한 건물들 간에 서로 다른 색상이 결정되도록 하는 것을 특징으로 한다.According to the present invention, when the buildings are displayed in the color determined for each building, the contour of each building is displayed in the determined color in the building, and when the color of each building is determined, different colors are determined between the buildings located nearby. It is characterized by.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 구체적으로 설명하기로 한다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명이 적용 가능한 네비게이션 시스템의 구성을 보인 도면으로, 도 1에 도시된 바와 같이 본 발명에 따른 네비게이션 시스템은 카메라(104)와 일체를 이루며, 사용자의 동작명령을 입력받는 명령 입력부(116)와, GPS 위성이 송신하는 위치정보신호를 수신하는 GPS 수신기(100)와, 지도 데이터를 저장하고 있는 지도 데이터 저장부(108)와, 지자기 센서 및 경사계를 통해 카메라(104)의 방위각 및 경사각을 검출하는 센서부(110)와, 카메라(104)에 캡처된 영상을 처리하는 이미지 프로세서(106)와, 카메라(104)에 촬영되는 영상을 일정 시간 간격으로 캡처하고 그 캡처된 영상 내의 각 건물들에 대한 정보를 지도 데이터에서 검출하여 캡처된 건물영상과 함께 표시되도록 처리하는 제어부(102)와, 제어부(102)의 제어에 따라 캡처된 영상 및 그 영상 내의 각 건물에 대한 정보를 표시부(114)에 표시하는 표시 구동부(112)로 구성될 수 있다. 1 is a view showing a configuration of a navigation system to which the present invention is applicable. As shown in FIG. 1, a navigation system according to the present invention is integrated with a camera 104 and includes a command input unit for receiving an operation command of a user. 116, the GPS receiver 100 for receiving the location information signal transmitted by the GPS satellites, the map data storage unit 108 storing the map data, the azimuth angle of the camera 104 through the geomagnetic sensor and the inclinometer, A sensor unit 110 for detecting an inclination angle, an image processor 106 for processing an image captured by the camera 104, and an image captured by the camera 104 at a predetermined time interval, and capturing each angle within the captured image. The controller 102 detects information about the buildings from the map data and displays them together with the captured building image, and the image captured under the control of the controller 102 and each building in the image. The display driver 112 may display information on the display unit 114.

이러한 구성을 가지는 네비게이션 시스템은 명령 입력부(116)에 사용자의 건 물정보 표시명령이 입력될 때에 GPS 수신기(100)의 수신기능 및 카메라(104)의 동작을 온 시킨다. 그래서 GPS 수신기(100)는 명령 입력부(116)를 통해 사용자의 건물정보 표시명령이 입력되면 지구 상공에 위치한 복수의 GPS 위성으로부터 위치 데이터들을 수신받아 제어부(102)로 입력시킨다. The navigation system having such a configuration turns on the reception function of the GPS receiver 100 and the operation of the camera 104 when a user's building information display command is input to the command input unit 116. Thus, when the user inputs a building information display command through the command input unit 116, the GPS receiver 100 receives location data from a plurality of GPS satellites located over the earth and inputs the received location data to the controller 102.

제어부(102)는 사용자의 명령에 따라 카메라(104)의 동작을 제어하면서 사용자가 카메라(104)에 안내받고자 하는 건물의 영상을 촬영하는 경우에 그 촬영되는 영상을 일정 시간 간격으로 캡처한다. 그리고 영상 캡처시 GPS 수신기(100)의 수신신호 및 센서부(110)의 지자기 센서신호로부터 카메라(104)의 촬영위치 및 방위각을 검출하는 한편, 센서부(110)의 경사계 센서신호로부터 카메라(104)의 경사각을 검출한다. The controller 102 captures the captured image at predetermined time intervals when the user captures an image of a building to be guided by the camera 104 while controlling the operation of the camera 104 according to a user's command. When the image is captured, the camera 104 detects the photographing position and azimuth angle of the camera 104 from the received signal of the GPS receiver 100 and the geomagnetic sensor signal of the sensor unit 110, and the camera 104 from the inclinometer sensor signal of the sensor unit 110. ) Detects the inclination angle.

제어부(102)는 이미지 프로세서(106)를 통해 캡처된 영상 내의 각 건물들의 윤곽선을 추출하여 건물들을 분리시킨 후, 상기 검출한 촬영위치 및 방위각을 기준으로 캡처된 영상 내 각 건물들의 위치정보를 산출하고, 영상 캡처시 카메라(104)의 경사각 및 배율정보를 통해 산출한 각 건물들의 위치정보를 보정시켜 영상 내 각 건물들의 실제 위치정보를 획득한다. 또한 지도 데이터 내에 존재하는 각 건물들에 대한 위치정보를 산출하여, 지도 데이터 내의 건물들 중 영상 내의 건물들 사이에 서로 위치정보가 일치하는 건물들을 매칭시킨 후, 지도 데이터로부터 영상 내 각 건물들과 매칭되는 건물들의 텍스트 정보를 검출한다. The controller 102 extracts the contours of the buildings in the image captured by the image processor 106 to separate the buildings, and then calculates location information of each building in the captured image based on the detected shooting position and azimuth angle. In addition, when capturing an image, the location information of each building calculated through the inclination angle and magnification information of the camera 104 is corrected to obtain actual location information of each building in the image. In addition, by calculating the location information for each of the buildings existing in the map data, matching the location information between the buildings in the image among the buildings in the map data match each building in the image from the map data Detects text information of matching buildings.

그리고 검출된 각 건물들의 텍스트 정보를 영상 내 해당 건물들과 매핑시켜 표시부(114)에 표시하도록 표시 구동부(112)를 제어한다. In addition, the display driver 112 is controlled to map the text information of each detected building to the corresponding buildings in the image and display the same on the display unit 114.

도 2는 본 발명의 바람직한 실시예에 따른 건물정보 표시 방법을 나타낸 흐름도로, 본 발명에 따르면 카메라(104)를 구비한 네비게이션 시스템은 사용자의 건물정보 표시명령이 입력될 경우 GPS 수신기능 및 카메라(104)의 동작을 온 시킨다(200,202). 2 is a flowchart illustrating a method for displaying building information according to an exemplary embodiment of the present invention. According to the present invention, a navigation system having a camera 104 includes a GPS reception function and a camera when a user inputs a building information display command. The operation of 104 is turned on (200, 202).

사용자는 건물안내를 받고자 하는 영역 내의 실제 건물영상을 카메라(104)를 통해 촬영할 수 있고, 그에 따라 촬영하는 영상을 일정 시간 간격마다 캡처한다(204). 그리고 영상을 캡처시 GPS 수신신호 및 지자기 센서의 센서신호로 카메라(104)의 촬영위치 및 방위각을 검출하여(206), 이를 기준으로한 영상 내 각 건물들의 위치정보를 산출한다(208). The user may photograph the actual building image in the area to receive the building guide through the camera 104, thereby capturing the captured image every predetermined time interval (204). When capturing the image, the camera detects the photographing position and the azimuth angle of the camera 104 using the GPS signal and the sensor signal of the geomagnetic sensor (206), and calculates the location information of each building in the image based on this (208).

여기서, 영상내 각 건물들에 대한 위치정보 산출(208)은 우선 영상을 캡처시 경사계 센서신호로 카메라(104)의 경사각을 검출한다(208-2). 그리고 캡처된 영상에 대한 이미지 프로세싱을 통해 영상 내 각 건물들을 분리시키고(208-4) 그 분리시킨 각 건물들 하단에 중심점 포인트를 설정하여(208-6), 영상 캡처시 촬영위치 및 방위각을 기준으로 각 건물들의 위치정보를 산출한다(208-8). 각 건물들의 위치정보가 산출되면 그 산출된 각 건물들의 위치정보를 카메라(104)의 경사각 및 배율정보를 이용하여 보정시킴으로써(208-10) 영상 내 각 건물의 실제 위치정보를 획득한다. Here, the location information calculation 208 for each building in the image first detects the inclination angle of the camera 104 by the inclinometer sensor signal when capturing the image (208-2). Image processing of the captured image is performed to separate each building in the image (208-4) and to set a center point at the bottom of each separated building (208-6), based on the shooting position and azimuth angle when capturing the image. The location information of each building is calculated (208-8). When the location information of each building is calculated, the location information of each building is corrected using the tilt angle and magnification information of the camera 104 (208-10) to obtain actual location information of each building in the image.

본 발명에서 각 건물들의 위치정보는 카메라 영상 캡처시 카메라(104)의 촬영위치 및 방위각을 기준으로 한 각 건물들의 방향각 및 거리값을 의미한다. In the present invention, the location information of each building means a direction angle and a distance value of each building based on the photographing position and azimuth of the camera 104 when capturing the camera image.

이와 같이 캡처한 영상 내의 각 건물들의 위치정보를 산출(208)함과 동시에, 기 저장된 지도 데이터를 로딩한다(210). 그리고 영상 캡처시 카메라(104)의 촬영위치 및 방위각을 기준으로 그 로딩된 지도 데이터의 설정범위 이내에 존재하는 건물들을 파악하고 그 각 건물들의 위치정보를 산출한다(212). The location information of each building in the captured image is calculated (208), and the pre-stored map data is loaded (210). When the image is captured, the buildings existing within the set range of the loaded map data are identified based on the photographing position and the azimuth angle of the camera 104, and the location information of each building is calculated (212).

지도 데이터 내에 존재하는 건물들의 위치정보 역시 상기 영상 내 각 건물들의 위치정보를 산출하는 방식과 동일하게 각 건물들의 중심점 포인트를 설정하고(212-2), 카메라(104)의 촬영위치 및 방위각을 기준으로 각 건물들의 위치정보를 산출하게 된다(212-4). The location information of the buildings existing in the map data also sets the center point of each building in the same manner as the method of calculating the location information of each building in the image (212-2), and based on the photographing position and azimuth angle of the camera 104. The location information of each building is calculated (212-4).

산출한 영상 내 각 건물들의 위치정보와 지도 데이터 내의 건물들의 위치정보를 비교하여 서로 위치정보가 일치하는 건물들을 매칭시키고(214), 지도 데이터로부터 영상 내 건물들과 매칭되는 건물의 텍스트 정보를 검출한다(216).  By comparing the location information of each building in the calculated image with the location information of the buildings in the map data, matching buildings with the same location information are matched with each other (214), and text information of the building matching the buildings in the image is detected from the map data. (216).

그리고 검출된 텍스트 정보를 캡처한 영상 내 해당 건물과 매핑시켜서 표시패널에 표시해 준다(218). The detected text information is mapped to the corresponding building in the captured image and displayed on the display panel (218).

상기와 같은 과정은 사용자의 건물정보표시 중단명령이 입력되기 전까지 계속 수행되면서 카메라(104)에 촬영되는 건물영상과 각 건물들의 텍스트 정보를 표시해 준다(220). The above process is performed until the user stops displaying the building information display command and displays the building image captured by the camera 104 and text information of each building (220).

도 3은 도 2에 도시된 텍스트 정보 표시 단계(218)를 구체적으로 도시한 흐름도로, 도 3을 참조하여 본 발명에서 영상 내 각 건물들의 텍스트 정보를 표시하는 방법을 보다 상세하게 설명하도록 한다. FIG. 3 is a flowchart illustrating the text information display step 218 of FIG. 2 in detail. Referring to FIG. 3, a method of displaying text information of each building in an image will be described in detail with reference to FIG. 3.

앞서 언급한 바와 같이, 지도 데이터로부터 검출한 영상 내 각 건물들의 텍스트 정보를 해당 건물과 매핑시켜 표시하기 위해서는 우선 캡처된 영상 내 각 건 물들의 텍스트 포인트 위치를 결정하고(300), 각 건물들의 텍스트 포인트 위치에 그 건물의 텍스트 정보를 매핑시킨다(302). 그리고 본 발명에서는 사용자들이 건물들의 텍스트 정보를 해당 건물과 매칭시켜 잘 살펴볼 수 있도록 영상 내 각 건물들의 색상을 결정해서(304), 건물과 그 건물의 텍스트 정보를 같은 색상으로 표시한다(306). As mentioned above, in order to display the text information of each building in the image detected from the map data with the corresponding building, the text point position of each building in the captured image is first determined (300), and the text of each building The text information of the building is mapped to the point location (302). In the present invention, the color of each building in the image is determined so that the user can match the text information of the buildings with the corresponding building (304), and display the building and the text information of the building in the same color (306).

한편, 본 발명은 영상 내 각 건물들의 텍스트 포인트 위치를 설정시, 각 건물들의 텍스트 정보가 서로 중복되어 표시되지 않도록 해 주는 각 건물들의 어느 한 지점을 텍스트 포인트 위치로 설정하는 것을 특징으로 한다. 일 예로, 가장 가까운 위치에 존재하는 건물의 텍스트 포인트 위치를 먼저 설정한 후, 그 설정된 텍스트 포인트 위치부터 각 건물들의 텍스트 포인트 위치가 순차적으로 아래쪽에 위치하도록 설정하거나 위쪽에 위치하도록 설정하는 방식을 적용시켜 텍스트 포인트 위치가 설정되도록 할 수 있으며, 그 외에도 각 건물들의 텍스트 정보가 서로 겹쳐져서 표시되지 않도록 해 주는 다양한 방식이 적용 가능하다. On the other hand, the present invention is characterized in that, when setting the text point position of each building in the image, to set any one point of each building so that the text information of each building is not displayed overlapping with each other. For example, after setting the text point position of the building that exists at the nearest location first, the text point position of each building is sequentially set to the lower side or the upper side from the set text point position. The text point location can be set, and various methods can be applied to prevent the text information of each building from overlapping each other.

또한 본 발명에서는 각 건물들에 결정된 색상으로 건물들을 표시하는 때에, 건물의 윤곽선이 그 건물에 결정된 색상으로 표시되도록 하는 것을 특징으로 한다.In addition, the present invention is characterized in that when the buildings are displayed in the color determined for each building, the outline of the building is displayed in the determined color.

그리고, 각 건물에 대한 색상을 결정시 주변에 위치한 건물들 간에 서로 동일하지 않은 색상이 결정되도록 하여 각 건물 및 그 건물의 텍스트 정보를 표시시 각 건물마다 구별되어 표시되도록 한다. When determining the color of each building, colors that are not the same among the surrounding buildings are determined so that each building and the text information of the building are distinguished for each building.

도 4는 본 발명의 바람직한 실시예에 따라 건물정보가 표시된 모습을 보인 도면으로, 도 4에 도시된 바와 같이 사용자가 캡처한 영상 내 건물들의 건물명을 해당 건물과 매칭시켜 표시하는 한편, 각 건물들의 윤곽선 및 그 건물의 건물명을 동일한 색상으로 표시한다. 4 is a view showing building information displayed according to a preferred embodiment of the present invention. As shown in FIG. 4, the building names of the buildings in the image captured by the user are displayed by matching the buildings with the corresponding buildings. The outline and the building name of the building are displayed in the same color.

건물과 그 건물명을 동일한 색상으로 표시해 줌으로서 밀집된 건물들이 위치한 경우에 건물과 표시된 건물명을 사용자가 잘못 매칭시키지 않도록 해 주며, 특히 주변에 위치한 건물들 간에는 서로 다른 색상으로 건물 및 그 건물명이 표시되도록 하여 각 건물들에 대한 정보를 명확하게 살펴볼 수 있도록 한다. By displaying the building and its name in the same color, it prevents the user from mismatching the building and the displayed building name when there are dense buildings, and especially displays the building and its name in different colors among the buildings located nearby. Make sure you have a clear view of the information about each building.

본 발명은 상술한 실시예에 한정되지 않고 본 발명의 기술적 사상을 벗어나지 않는 범위내에서 당업자에 의해 다양하게 변형하여 실시할 수 있다. The present invention is not limited to the above-described embodiments and can be variously modified and implemented by those skilled in the art without departing from the technical spirit of the present invention.

본 발명에 따르면, 실제 건물영상과 함께 그 건물에 대한 정보를 표시해 줌으로써 사용자에게 한층 업그레이드된 길안내 서비스를 제공해 줄 수 있다. According to the present invention, by displaying the information on the building along with the actual building image it is possible to provide a more upgraded road guidance service to the user.

Claims (12)

카메라에 촬영되는 영상을 캡처하고, 그 캡처된 영상 내에 존재하는 각 건물들에 대한 위치정보를 산출하는 단계; Capturing an image photographed by a camera and calculating location information of each building existing in the captured image; 기 저장된 지도 데이터를 로딩하는 단계; Loading previously stored map data; 상기 로딩된 지도 데이터에 존재하는 건물들의 위치정보를 산출하는 단계;Calculating location information of buildings existing in the loaded map data; 상기 산출딘 영상 내 각 건물들의 위치정보와 지도 데이터 내의 각 건물들의 위치정보를 비교하여, 상기 지도 데이터로부터 상기 영상 내의 각 건물들과 위치정보가 매칭되는 건물들의 텍스트 정보를 검출하는 단계; 및 Comparing the location information of each building in the calculated image with the location information of each building in the map data, and detecting text information of the buildings where the location information matches each building in the image from the map data; And 상기 검출한 건물들의 텍스트 정보를 상기 영상 내 해당 건물들과 매핑시켜 표시패널에 표시하는 단계;를 포함하여 이루어지는 건물정보 표시 방법. And mapping the text information of the detected buildings to the corresponding buildings in the image and displaying the text information on the display panel. 제 1 항에 있어서, 상기 영상 캡처는 The method of claim 1, wherein the image capture 상기 카메라에 촬영되는 영상을 일정 시간 간격마다 캡처하는 것을 특징으로 하는 건물정보 표시 방법. Building information display method, characterized in that for capturing the image taken by the camera at a predetermined time interval. 제 1 항에 있어서, The method of claim 1, 상기 카메라 영상을 캡처시 GPS 수신신호 및 지자기 센서신호로 상기 카메라의 촬영위치 및 방위각을 검출하는 것을 특징으로 하는 건물정보 표시 방법. Building information display method characterized in that for detecting the camera position and the azimuth angle of the camera by the GPS signal and the geomagnetic sensor signal when capturing the camera image. 제 3 항에 있어서, 상기 영상 내 각 건물들의 위치정보 산출은 The method of claim 3, wherein the location information of each building in the image is calculated. 경사계 센서신호로 상기 카메라의 경사각을 검출하는 단계; Detecting an inclination angle of the camera with an inclinometer sensor signal; 상기 캡처된 영상에 대한 이미지 프로세싱을 통해 영상 내의 각 건물들을 분리시키는 단계; Separating each building in the image through image processing on the captured image; 상기 분리시킨 각 건물에 중심점 포인트를 설정하고, 상기 검출한 촬영위치 및 방위각을 기준으로 상기 각 건물들의 위치정보를 산출하는 단계; 및 Setting a center point in each of the separated buildings, and calculating position information of each building based on the detected shooting position and azimuth angle; And 상기 산출한 각 건물들의 위치정보를 상기 카메라의 배율정보 및 경사각을 통해 보정하는 단계;로 이루어지는 것을 특징으로 하는 건물정보 표시 방법. And correcting the calculated position information of each building by using the magnification information and the inclination angle of the camera. 제 4 항에 있어서, 상기 각 건물에 중심점 포인트 설정은 The method of claim 4, wherein the center point setting for each building is 상기 각 건물의 하단에 중심점 포인트를 설정하는 것을 특징으로 하는 건물정보 표시 방법. Building information display method, characterized in that for setting the center point at the bottom of each building. 제 3 항에 있어서, 상기 지도 데이터 내의 건물에 대한 위치정보 산출은 The method of claim 3, wherein the location information calculation for the building in the map data is 상기 검출한 촬영위치 및 방위각을 기준으로 상기 지도 데이터의 설정범위 이내에 존재하는 각 건물에 중심점 포인트를 설정하고 건물의 위치정보를 산출하는 것을 특징으로 하는 건물정보 표시 방법. And a center point point is set for each building existing within the set range of the map data on the basis of the detected shooting position and the azimuth angle, and the location information of the building is calculated. 제 3 항에 있어서, 상기 각 건물들의 위치정보는 The method of claim 3, wherein the location information of each building is 상기 검출한 촬영위치 및 방위각을 기준으로 한 각 건물들의 방향각 및 거리 값인 것을 특징으로 하는 건물정보 표시 방법. Building information display method characterized in that the direction angle and the distance value of each building based on the detected shooting position and azimuth. 제 1 항에 있어서, 상기 검출된 건물들의 텍스트 정보 표시는 The text information display of claim 1, wherein 상기 캡처된 영상 내 각 건물들의 텍스트 포인트 위치를 설정하는 단계; 및 Setting a text point location of each building in the captured image; And 상기 검출된 건물의 텍스트 정보를 해당 건물의 텍스트 포인트 위치에 매핑시켜 표시하는 단계;로 이루어지는 것을 특징으로 하는 건물정보 표시 방법. And mapping the detected text information of the building to a text point location of the corresponding building. 제 8 항에 있어서, 상기 설정된 각 건물들의 텍스트 포인트 위치는 The method of claim 8, wherein the text point position of each of the set buildings is 상기 각 건물들의 텍스트 정보가 서로 중복되어 표시되지 않도록 각 건물에 설정된 어느 한 지점인 것을 특징으로 하는 건물정보 표시 방법. Building information display method, characterized in that any one point set in each building so that the text information of each building is not displayed overlapping each other. 제 8 항에 있어서, The method of claim 8, 상기 건물의 텍스트 포인트 위치를 결정하는 단계 이후에, After determining the text point location of the building, 상기 영상 내 각 건물들의 색상을 결정하는 단계;를 더 포함하고, Determining a color of each building in the image; 상기 영상 내 각 건물 및 그 건물의 텍스트 정보를 그 건물에 결정된 색상으로 표시하는 것을 특징으로 하는 건물정보 표시 방법. And displaying the text information of each building in the image and the text in the building in a predetermined color. 제 10 항에 있어서, The method of claim 10, 상기 각 건물에 결정된 색상으로 건물 표시시, 각 건물의 윤곽선이 그 건물에 결정된 색상으로 표시되도록 하는 것을 특징으로 하는 건물정보 표시 방법. When displaying buildings in the determined color for each building, the building information display method characterized in that the contour of each building is displayed in the determined color. 제 10 항에 있어서, The method of claim 10, 상기 각 건물들의 색상 결정시, 주변에 위치한 건물들 간에 서로 다른 색상이 결정되도록 하는 것을 특징으로 하는 건물정보 표시 방법. When determining the color of each building, building information display method characterized in that different colors are determined between the buildings located around.
KR1020050051099A 2005-06-14 2005-06-14 Method for displaying building information KR100734678B1 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR1020050051099A KR100734678B1 (en) 2005-06-14 2005-06-14 Method for displaying building information
RU2006120530/11A RU2324236C2 (en) 2005-06-14 2006-06-13 Method for matching a camera-photographed image with map data in a portable terminal and method for travel route guidance
US11/423,799 US7728869B2 (en) 2005-06-14 2006-06-13 Matching camera-photographed image with map data in portable terminal and travel route guidance method
EP14183956.3A EP2840358B1 (en) 2005-06-14 2006-06-14 Matching camera-photographed image with map data in portable terminal
EP06012305.6A EP1734341B1 (en) 2005-06-14 2006-06-14 Matching camera-photographed image with map data in portable terminal and travel route guidance method
US12/194,476 US7826967B2 (en) 2005-06-14 2008-08-19 Matching camera-photographed image with map data in portable terminal and travel route guidance method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050051099A KR100734678B1 (en) 2005-06-14 2005-06-14 Method for displaying building information

Publications (2)

Publication Number Publication Date
KR20060130425A true KR20060130425A (en) 2006-12-19
KR100734678B1 KR100734678B1 (en) 2007-07-02

Family

ID=37810858

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050051099A KR100734678B1 (en) 2005-06-14 2005-06-14 Method for displaying building information

Country Status (1)

Country Link
KR (1) KR100734678B1 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100775123B1 (en) * 2006-09-15 2007-11-08 삼성전자주식회사 Method of indexing image object and image object indexing system using the same
KR100960368B1 (en) * 2008-12-29 2010-05-27 주식회사 비전소프트텍 System and method for providing viewing image using 3-dimension coordinates
WO2011034305A2 (en) * 2009-09-16 2011-03-24 (주)올라웍스 Method and system for hierarchically matching images of buildings, and computer-readable recording medium
KR20110072322A (en) * 2009-12-22 2011-06-29 엘지전자 주식회사 Mobile terminal and control method thereof
WO2011102865A3 (en) * 2009-11-17 2011-12-15 Qualcomm Incorporated Determination of elevation of mobile station
KR101156319B1 (en) * 2010-05-31 2012-06-13 김대송 Method of searching information of real estate using portable terminal
WO2013081287A1 (en) * 2011-11-30 2013-06-06 주식회사 이미지넥스트 Method and apparatus for creating 3d image of vehicle surroundings
KR101993739B1 (en) * 2018-12-07 2019-06-28 주식회사 한국에스지티 Display system for map image

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8098894B2 (en) 2008-06-20 2012-01-17 Yahoo! Inc. Mobile imaging device as navigator

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040037794A (en) * 2002-10-30 2004-05-07 삼성전자주식회사 Apparatus and method for displaying stories in navigation system
KR20050081492A (en) * 2004-02-13 2005-08-19 디브이에스 코리아 주식회사 Car navigation device using forward real video and control method therefor
KR100685790B1 (en) * 2004-10-25 2007-02-22 한국전자통신연구원 System and Method for Real Image based Navigation
KR100613906B1 (en) * 2004-11-16 2006-08-21 한국전자통신연구원 Car navigation system with head-up display by processing of continuous spatial queries based on car's speed, and information display method in its

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100775123B1 (en) * 2006-09-15 2007-11-08 삼성전자주식회사 Method of indexing image object and image object indexing system using the same
KR100960368B1 (en) * 2008-12-29 2010-05-27 주식회사 비전소프트텍 System and method for providing viewing image using 3-dimension coordinates
WO2011034305A2 (en) * 2009-09-16 2011-03-24 (주)올라웍스 Method and system for hierarchically matching images of buildings, and computer-readable recording medium
WO2011034305A3 (en) * 2009-09-16 2011-06-23 (주)올라웍스 Method and system for hierarchically matching images of buildings, and computer-readable recording medium
US8639023B2 (en) 2009-09-16 2014-01-28 Intel Corporation Method and system for hierarchically matching images of buildings, and computer-readable recording medium
WO2011102865A3 (en) * 2009-11-17 2011-12-15 Qualcomm Incorporated Determination of elevation of mobile station
KR20110072322A (en) * 2009-12-22 2011-06-29 엘지전자 주식회사 Mobile terminal and control method thereof
KR101156319B1 (en) * 2010-05-31 2012-06-13 김대송 Method of searching information of real estate using portable terminal
WO2013081287A1 (en) * 2011-11-30 2013-06-06 주식회사 이미지넥스트 Method and apparatus for creating 3d image of vehicle surroundings
US9508189B2 (en) 2011-11-30 2016-11-29 Kss-Imagenext Co., Ltd. Method and apparatus for creating 3D image of vehicle surroundings
KR101993739B1 (en) * 2018-12-07 2019-06-28 주식회사 한국에스지티 Display system for map image

Also Published As

Publication number Publication date
KR100734678B1 (en) 2007-07-02

Similar Documents

Publication Publication Date Title
KR100734678B1 (en) Method for displaying building information
KR100674805B1 (en) Method for matching building between camera image and map data
US7728869B2 (en) Matching camera-photographed image with map data in portable terminal and travel route guidance method
US10378913B2 (en) Navigation apparatus and navigation method
EP2317281B1 (en) User terminal for providing position and for guiding route thereof
CN101194143B (en) Navigation device with camera information
US8600677B2 (en) Method for feature recognition in mobile communication terminal
JP6025433B2 (en) Portable navigation device
US20100070162A1 (en) Navigation system, mobile terminal device, and route guiding method
US7782359B2 (en) Image capture apparatus and method
US9924325B2 (en) Information processing apparatus, information processing method, program, and information processing system
US20100029293A1 (en) Navigation system using camera
CN102798397A (en) Navigation device with camera information
US6266628B1 (en) Surveying system with an inertial measuring device
KR100668969B1 (en) Method for guiding road using camera image
US9014964B2 (en) Navigation apparatus capable of providing real-time navigation images
CN102288180B (en) Real-time image navigation system and method
RU2375756C2 (en) Navigation device with information received from camera
JP2012244562A (en) Digital camera
JP2007017351A (en) Navigation device
JP7023775B2 (en) Route guidance program, route guidance method and information processing equipment
JPH09101142A (en) Display device for photographing position
JP2007127692A (en) Astronomical display apparatus
RU2324236C2 (en) Method for matching a camera-photographed image with map data in a portable terminal and method for travel route guidance
JP2011149957A (en) Image display device, image display method, and program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130514

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20140523

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20150522

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20160524

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20170512

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20180514

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20190514

Year of fee payment: 13