KR101665599B1 - Augmented reality navigation apparatus for providing route guide service and method thereof - Google Patents

Augmented reality navigation apparatus for providing route guide service and method thereof Download PDF

Info

Publication number
KR101665599B1
KR101665599B1 KR1020140167682A KR20140167682A KR101665599B1 KR 101665599 B1 KR101665599 B1 KR 101665599B1 KR 1020140167682 A KR1020140167682 A KR 1020140167682A KR 20140167682 A KR20140167682 A KR 20140167682A KR 101665599 B1 KR101665599 B1 KR 101665599B1
Authority
KR
South Korea
Prior art keywords
lane
link
image
edge
augmented reality
Prior art date
Application number
KR1020140167682A
Other languages
Korean (ko)
Other versions
KR20160063871A (en
Inventor
양지혁
이준묵
Original Assignee
현대오트론 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대오트론 주식회사 filed Critical 현대오트론 주식회사
Priority to KR1020140167682A priority Critical patent/KR101665599B1/en
Publication of KR20160063871A publication Critical patent/KR20160063871A/en
Application granted granted Critical
Publication of KR101665599B1 publication Critical patent/KR101665599B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/18Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical projection, e.g. combination of mirror and condenser and objective
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T90/00Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation
    • Y02T90/10Technologies relating to charging of electric vehicles
    • Y02T90/16Information or communication technologies improving the operation of electric vehicles

Abstract

본 발명은 경로 안내 서비스를 위한 증강현실 내비게이션 장치 및 그 방법에 관한 것으로, 차량 전방의 영상을 촬영하는 촬영부, 상기 영상을 분석하여 차량이 주행중인 도로의 차선을 인식하는 차선 인식부, 목적지까지 경로를 탐색하고, 상기 경로에 포함된 링크들의 방향 및 거리를 계산하는 경로 탐색부, 현재 위치로부터 상기 경로내 각 링크 시작지점까지의 잔여거리에 따라 순서를 고려하여, 해당 링크에서 다음 링크로의 주행 방향을 나타내는 방향안내표식을 생성하는 방향안내표식 생성부, 상기 생성된 방향안내표식이 상기 인식된 차선의 도로상에 표시되도록 상기 영상에 오버레이하여 화면에 표시하는 증강현실 처리부를 포함한다. The present invention relates to an augmented reality navigation device for a route guidance service and a method thereof, and more particularly to an augmented reality navigation device for a route guidance service, which comprises a photographing section for photographing an image in front of a vehicle, a lane recognition section for recognizing a lane of a road under vehicle travel, A route search unit for searching for a route, calculating a direction and a distance of links included in the route, and a route search unit for searching for a route from the current link to the next link And an augmented reality processing unit for overlaying the generated directional marker on the image so that the generated directional directional landmark is displayed on the road of the recognized lane and displaying it on the screen.

Description

경로 안내 서비스를 위한 증강현실 내비게이션 장치 및 그 방법{AUGMENTED REALITY NAVIGATION APPARATUS FOR PROVIDING ROUTE GUIDE SERVICE AND METHOD THEREOF}Field of the Invention [0001] The present invention relates to an augmented reality navigation device for route guidance service,

본 발명은 경로 안내 서비스를 위한 증강현실 내비게이션 장치 및 그 방법에 관한 것으로, 보다 상세하게는 경로의 지시 방향을 포함하는 방향안내표식을 실제의 도로 영상에 중첩하여 화면에 표시하는 경로 안내 서비스를 위한 증강현실 내비게이션 장치 및 그 방법에 관한 것이다.
[0001] The present invention relates to an augmented reality navigation apparatus and method for a route guidance service, and more particularly to an augmented reality navigation apparatus for a route guidance service for superimposing a direction guide mark including a direction of a route on an actual road image, An augmented reality navigation device and a method thereof.

최근 전자장치의 발달로 자동차의 기능과 성능이 눈부시게 발전하고 있다. 일례로 엔진의 성능향상을 위해 여러 가지의 센서가 사용되어 최적의 엔진 효율을 발생시키도록 하여 고연비 차량을 구현하고 있으며, 현가장치, 조향장치, 제동장치 등을 전자 제어하여 차량의 안전도를 높이고 있다. Recently, the development of electronic devices has dramatically improved the functions and performance of automobiles. For example, various sensors are used to improve the engine performance to realize the optimum engine efficiency to realize the high-fuel-efficiency vehicle, and the safety of the vehicle is improved by electronically controlling the suspension device, the steering device, and the braking device .

이와 같이 차량의 성능이나 안전에 대한 기능이 발전함에 따라서 운전자의 편의를 위한 갖가지 장치들도 개발되고 있으며, 최근에는 차량의 내비게이션Navigation) 장치가 개발되고 있다.Various functions for the convenience of the driver have been developed as the performance and safety functions of the vehicle have been developed, and in recent years, navigation devices for vehicles have been developed.

내비게이션 장치는 지도상에 경로 및 차량의 현 위치를 표시하여 길 안내를 수행한다. The navigation device displays the route and current position of the vehicle on the map, and performs the guidance.

그러나, 종래의 내비게이션은 경로를 안내하는 내비게이션 맵(전자지도)이 표시된 화면의 일측에 차량이 주행할 방향을 표시하였다. 따라서, 운전자는 실제 도로정보와 내비게이션 맵을 비교해가며 주행 방향을 판단해야 하였고, 이로 인해 초행길 또는 애매한 도로에서는 주행 방향의 판단에 어려움이 있었다. However, in the conventional navigation, the direction in which the vehicle travels is displayed on one side of the screen on which the navigation map (electronic map) for guiding the route is displayed. Therefore, the driver has to judge the driving direction by comparing the actual road information with the navigation map. As a result, it has been difficult to judge the driving direction on the starting road or the ambiguous road.

이러한 문제를 해결하기 위하여 실제 도로에 내비게이션 정보를 맵핑하는 증강현실 내비게이션 시스템이 개발되고 있지만, 증강현실 내비게이션 시스템은 헤드업 디스플레이와 같이 크고 값비싼 장치의 장착을 필요로 하는 단점이 있다.
To solve this problem, an augmented reality navigation system that maps navigation information to actual roads has been developed. However, the augmented reality navigation system has a drawback in that it requires mounting of a large and expensive apparatus such as a head-up display.

한국공개특허 제2013-0040361호, 발명의 명칭 '증강현실 내비게이션 기반 실시간 교통 정보 제공 방법, 서버, 및 기록 매체'Korean Patent Laid-Open Publication No. 2013-0040361, entitled " Real-time Traffic Information Providing Method Based on Augmented Reality Navigation, Server, and Recording Medium &

본 발명의 목적은 촬영부 및 위치 인식부가 구비된 휴대용 장치(예컨대, 스마트폰 등)를 이용하여 증강현실로 구현된 경로안내 서비스를 제공할 수 있는 경로 안내 서비스를 위한 증강현실 내비게이션 장치 및 그 방법을 제공함에 있다. An object of the present invention is to provide an augmented reality navigation device for a route guidance service capable of providing a route guidance service implemented as an augmented reality using a portable device (e.g., smart phone, etc.) .

본 발명의 다른 목적은 경로의 지시 방향을 포함하는 방향안내표식을 실제의 도로 영상에 중첩하여 화면에 표시함으로써, 복잡한 실제 도로 화면이 제공되는 상황에서 최소한의 안내 인터페이스만으로 현실감을 저해하지 않으면서 방향 전환을 명확히 인지할 수 있도록 하는 경로 안내 서비스를 위한 증강현실 내비게이션 장치 및 그 방법을 제공함에 있다.
Another object of the present invention is to provide a navigation system that displays a directional guidance landmark including a direction of a route on a real road image and displays it on the screen, The present invention provides an augmented reality navigation device and a method thereof for a route guidance service that allows a user to clearly recognize a transition.

상기 목적들을 달성하기 위하여 본 발명의 일 측면에 따르면, 차량 전방의 영상을 촬영하는 촬영부, 상기 영상을 분석하여 차량이 주행 중인 도로의 차선을 인식하는 차선 인식부, 목적지까지 경로를 탐색하고, 상기 경로에 포함된 링크들의 방향 및 거리를 계산하는 경로 탐색부, 현재 위치로부터 상기 경로내 각 링크 시작지점까지의 잔여거리에 따라 순서를 고려하여, 해당 링크에서 다음 링크로의 주행 방향을 나타내는 방향안내표식을 생성하는 방향안내표식 생성부, 상기 생성된 방향안내표식이 상기 인식된 차선의 도로상에 표시되도록 상기 영상에 오버레이하여 화면에 표시하는 증강현실 처리부를 포함하는 경로 안내 서비스를 위한 증강현실 내비게이션 장치가 제공된다. According to an aspect of the present invention, there is provided a vehicle navigation system including a photographing unit for photographing an image in front of a vehicle, a lane recognition unit for analyzing the image to recognize a lane of a road on which the vehicle is traveling, A route search section for calculating a direction and a distance of the links included in the route, a direction indicating a traveling direction from the link to the next link in consideration of the order of the remaining distance from the current position to each link start point in the route, An augmented reality processing unit for overlaying the image so that the generated directional landmark is displayed on the road of the recognized lane and displaying it on the screen; A navigation device is provided.

상기 차선 인식부는 상기 영상을 그레이 영상으로 변환하여 노이즈를 제거하고, 상기 노이즈가 제거된 영상에 소벨(SOBEL) 연산을 수행하여 에지를 검출하며, 상기 에지의 강도와 방향을 구하는 에지 검출모듈, 상기 에지의 강도와 방향을 근거로 차선 후보점을 구하고, 허프변환(Hough transform)을 이용하여 차선 후보를 검출하는 차선후보 검출모듈, 상기 검출된 차선 후보들에 RANSAC 알고리즘을 적용하여 차선 소실점을 구하고, 상기 차선 소실점으로 향하는 차선 후보들을 차량이 주행중인 차선으로 인식하는 차선 인식모듈을 포함할 수 있다. The lane recognition unit detects an edge by converting the image into a gray image to remove noise, performing an SOBEL operation on the noise-removed image, and obtaining an intensity and a direction of the edge; A lane candidate detecting module for detecting a lane candidate using a Hough transform to obtain a lane disappearing point by applying a RANSAC algorithm to the detected lane candidates, And a lane recognition module for recognizing the lane candidates to the lane vanishing point as a lane in which the vehicle is running.

상기 차선 인식부는 이전 프레임에서 검출된 차선 정보와 차선 사전 정보를 이용하여 다음 프레임에서 관심 영역(ROI, Region Of Interest)을 결정하고, 결정된 관심 영역에 대해서만 차선 검출을 수행하는 실시간 검출모듈, 연속된 프레임에서 particle filtering을 이용하여 차선을 추적하며, 앞 차량의 위치추적을 통해 차선을 추적하는 차선 추적모듈을 더 포함할 수 있다. The lane recognition unit includes a real-time detection module for determining a region of interest (ROI) in a next frame using lane information and lane-prior information detected in a previous frame, and performing lane detection only on the determined region of interest, It may further include a lane tracking module that tracks lanes using particle filtering in the frame and tracks the lane through location tracking of the preceding vehicle.

상기 방향안내표식 생성부는 현재 링크에서 다음 링크로의 방향 전환을 나타내는 제1방향안내표식, 현재 위치로부터 잔여거리가 짧은 순으로 현재 링크 다음에 위치하는 적어도 하나 이상의 링크에 대한 방향안내표식을 생성할 수 있다. The direction indicator marker generating unit generates a first direction marker indicating a direction change from a current link to a next link, a direction guide marker for at least one or more links positioned next to the current link in descending order of the remaining distance from the current position .

상기 증강현실 처리부는 방향안내표식의 일정 영역에 해당 잔여거리를 표시할 수 있다. The augmented reality processing unit may display the corresponding residual distance in a predetermined area of the directional landmark.

또한, 상기 증강현실 처리부는 현재 링크에 대한 제1방향안내표식과 다음 링크들의 방향안내표식이 잔여거리에 따라 구분되도록 크기, 색상, 명도, 채도 중 적어도 하나를 다르게 할 수 있다. Also, the augmented reality processing unit may change at least one of size, color, lightness, and saturation so that the first direction guide mark for the current link and the direction guide mark for the next link are classified according to the remaining distance.

또한, 상기 증강현실 처리부는 현재 링크만이 화면상에 표시된 경우, 현재 링크에 대한 제1방향안내표식을 상기 인식된 차선 도로의 중앙에 오버레이하여 표시하고, 다음 링크에 대한 제2방향안내표식을 상기 제1방향안내표식 아래에 오버레이하여 표시하며, 현재 링크와 다음 순서의 링크가 화면상에 표시된 경우, 현재 링크에 대한 제1방향안내표식이 다음 링크 시작지점까지 표시되도록 제1방향안내표식의 길이를 조절하고, 다음 링크에 대한 제2방향안내표식을 제1방향안내표식 아래에 오버레이하여 표시할 수 있다. When the current link is displayed on the screen, the augmented reality processing unit displays a first direction guide mark for the current link overlaid on the center of the recognized lane road, and displays a second direction guide mark for the next link The first directional landmark is displayed overlaid under the first directional landmark marker and the first directional lander marker for the current link is displayed to the next link starting point when the link of the next order with the current link is displayed on the screen. The length can be adjusted, and the second directional guide mark for the next link can be overlaid under the first directional guide mark.

본 발명의 다른 측면에 따르면, 증강현실 내비게이션 장치가 경로 안내 서비스를 제공하는 방법에 있어서, (a) 목적지를 포함하는 경로 안내 명령이 입력된 경우, 촬영부를 구동시켜 차량 전방의 영상을 획득하는 단계, (b) 상기 획득된 영상을 분석하여 차량이 주행중인 도로의 차선을 인식하는 단계, (c) 상기 목적지까지 경로를 탐색하고, 상기 경로에 포함된 링크들의 방향 및 거리를 계산하는 단계, (d) 현재 위치로부터 상기 경로내 각 링크 시작지점까지의 잔여거리에 따라 순서를 고려하여, 해당 링크에서 다음 링크로의 주행 방향을 나타내는 방향안내표식을 생성하는 단계, (e) 상기 생성된 방향안내표식이 상기 인식된 차선의 도로상에 표시되도록, 상기 방향안내표식을 상기 영상에 오버레이하여 화면에 표시하는 단계를 포함하는 경로 안내 서비스 방법이 제공된다. According to another aspect of the present invention, there is provided a method of providing a route guidance service by an augmented reality navigation device, the method comprising: (a) when a route guidance command including a destination is input, (b) analyzing the obtained image to recognize a lane of a road in which the vehicle is traveling, (c) searching for a route to the destination, calculating a direction and a distance of the links included in the route, d) generating a direction guide mark indicating a direction of travel from the link to the next link in consideration of the order of the remaining distance from the current position to each link start point in the path, (e) Displaying the directional landmark on the screen so that the landmark is displayed on the road of the recognized lane; Method is provided.

상기 (b) 단계는, 상기 영상을 그레이 영상으로 변환하여 노이즈를 제거하고, 상기 노이즈가 제거된 영상에 소벨(SOBEL) 연산을 수행하여 에지를 검출하며, 상기 에지의 강도와 방향을 구하는 단계, 상기 에지의 강도와 방향을 근거로 차선 후보점을 구하고, 허프변환(Hough transform)을 이용하여 차선 후보를 검출하는 단계, 상기 검출된 차선 후보들에 RANSAC 알고리즘을 적용하여 차선 소실점을 구하고, 상기 차선 소실점으로 향하는 차선 후보들을 차량이 주행중인 차선으로 인식하는 단계를 포함할 수 있다. The step (b) includes the steps of converting the image into a gray image to remove noise, performing an SOBEL operation on the noise-removed image to detect an edge, and obtaining strength and direction of the edge, Detecting a lane candidate using a Hough transform, calculating a lane disappearance point by applying a RANSAC algorithm to the detected lane candidates, and calculating a lane disappearance point based on the strength and direction of the edge, May be recognized as a lane in which the vehicle is running.

상기 (d)단계는, 현재 위치로부터 상기 경로내 각 링크 시작지점까지의 잔여거리를 각각 계산하는 단계, 상기 경로내 링크들을 잔여거리가 짧은 순으로 정렬하는 단계, 현재 링크에서 다음 링크로의 방향 전환을 나타내는 제1방향안내표식, 상기 정렬된 순으로 현재 링크 다음에 위치하는 적어도 하나 이상의 링크에 대한 방향안내표식을 생성하는 단계를 포함할 수 있다. The step (d) includes the steps of: calculating a remaining distance from the current position to each link start point in the path; aligning the in-path links in descending order of the remaining distance; And generating a directional landmark for at least one or more links following the current link in the ordered order.

다음으로 상기 (e) 단계에서, 현재 링크만이 상기 획득된 영상에 표시된 경우, 현재 링크에 대한 제1방향안내표식을 상기 인식된 차선 도로의 중앙에 오버레이하여 표시하고, 다음 링크에 대한 제2방향안내표식을 상기 제1방향안내표식 아래에 오버레이하여 표시하며, 현재 링크와 다음 순서의 링크가 상기 획득된 영상에 표시된 경우, 현재 링크에 대한 제1방향안내표식이 다음 링크 시작지점까지 표시되도록 제1방향안내표식의 길이를 조절하고, 다음 링크에 대한 제2방향안내표식을 제1방향안내표식 아래에 오버레이하여 표시할 수 있다. Next, in step (e), when only the current link is displayed on the obtained image, the first directional guidance marker for the current link is overlaid on the center of the recognized lane road, and the second And displays the first directional guide marker for the current link to the next link start point if the current link and the next order link are displayed on the obtained image The length of the first directional landmark may be adjusted and the second directional landmark for the next link may be overlaid under the first directional landmark.

또한, 상기 현재 링크에 대한 제1방향안내표식과 다음 링크들의 방향안내표식이 잔여거리에 따라 구분되도록 크기, 색상, 명도, 채도 중 적어도 하나를 다르게 할 수 있다.
In addition, at least one of size, color, brightness, and saturation may be different so that the first direction guide mark for the current link and the direction guide mark for the next link are classified according to the remaining distance.

본 발명에 따르면, 무겁고 값비싼 추가 장치의 장착 없이 촬영부 및 위치 인식부가 구비된 휴대용 장치(예컨대, 스마트폰 등)를 이용하여 증강현실로 구현된 경로안내 서비스를 제공받을 수 있으므로, 사용자 편의 및 안정성이 증대되는 효과가 있다. According to the present invention, a route guidance service implemented as an augmented reality can be provided by using a portable device (e.g., smart phone or the like) equipped with a photographing unit and a position recognition unit without mounting a heavy and costly additional device, The stability is increased.

또한, 경로의 지시 방향을 포함하는 방향안내표식을 실제의 도로 영상에 중첩하여 화면에 표시함으로써, 복잡한 실제 도로 화면이 제공되는 상황에서 최소한의 안내 인터페이스만으로 현실감을 저해하지 않으면서 방향 전환을 명확히 인지할 수 있다.
In addition, by displaying a directional guide mark including the direction of the route on the actual road image and displaying it on the screen, it is possible to clearly recognize the direction change without hindering the reality by using only the minimum guide interface can do.

도 1은 본 발명의 실시예에 따른 경로 안내 서비스를 위한 증강현실 내비게이션 장치의 구성을 개략적으로 나타낸 블록도.
도 2는 도 1에 도시된 차선 인식부의 구성을 상세히 나타낸 도면.
도 3은 본 발명의 실시예에 따른 차선 인식 방법을 설명하기 위한 예시도.
도 4는 본 발명의 실시예에 따른 증강현실 내비게이션 장치가 경로 안내시 출력하는 화면 예시도.
도 5는 본 발명의 실시예에 따른 증강현실 내비게이션 장치가 경로 안내 서비스를 제공하는 방법을 나타낸 도면.
1 is a block diagram schematically showing the configuration of an augmented reality navigation device for a route guidance service according to an embodiment of the present invention;
Fig. 2 is a detailed view of the configuration of the lane recognition unit shown in Fig. 1. Fig.
3 is an exemplary diagram for explaining a lane recognition method according to an embodiment of the present invention;
FIG. 4 is a diagram illustrating an example of a screen displayed by augmented reality navigation device according to an embodiment of the present invention when a route is guided. FIG.
5 is a diagram illustrating a method for providing a route guidance service by an augmented reality navigation device according to an embodiment of the present invention.

본 발명의 전술한 목적과 기술적 구성 및 그에 따른 작용 효과에 관한 자세한 사항은 본 발명의 명세서에 첨부된 도면에 의거한 이하 상세한 설명에 의해 보다 명확하게 이해될 것이다.The foregoing and other objects, features, and advantages of the present invention will become more apparent from the following detailed description taken in conjunction with the accompanying drawings, in which: FIG.

이하, 첨부된 도면들을 참조하여 본 발명에 따른 '경로 안내 서비스를 위한 증강현실 내비게이션 장치 및 그 방법'을 상세하게 설명한다. 설명하는 실시 예들은 본 발명의 기술 사상을 당업자가 용이하게 이해할 수 있도록 제공되는 것으로 이에 의해 본 발명이 한정되지 않는다. 또한, 첨부된 도면에 표현된 사항들은 본 발명의 실시 예들을 쉽게 설명하기 위해 도식화된 도면으로 실제로 구현되는 형태와 상이할 수 있다.Hereinafter, an augmented reality navigation device and a method thereof for a route guidance service according to the present invention will be described in detail with reference to the accompanying drawings. The embodiments are provided so that those skilled in the art can easily understand the technical spirit of the present invention, and thus the present invention is not limited thereto. In addition, the matters described in the attached drawings may be different from those actually implemented by the schematic drawings to easily describe the embodiments of the present invention.

한편, 이하에서 표현되는 각 구성부는 본 발명을 구현하기 위한 예일 뿐이다. 따라서, 본 발명의 다른 구현에서는 본 발명의 사상 및 범위를 벗어나지 않는 범위에서 다른 구성부가 사용될 수 있다. 또한, 각 구성부는 순전히 하드웨어 또는 소프트웨어의 구성만으로 구현될 수도 있지만, 동일 기능을 수행하는 다양한 하드웨어 및 소프트웨어 구성들의 조합으로 구현될 수도 있다. 또한, 하나의 하드웨어 또는 소프트웨어에 의해 둘 이상의 구성부들이 함께 구현될 수도 있다. In the meantime, each constituent unit described below is only an example for implementing the present invention. Thus, in other implementations of the present invention, other components may be used without departing from the spirit and scope of the present invention. In addition, each component may be implemented solely by hardware or software configuration, but may be implemented by a combination of various hardware and software configurations performing the same function. Also, two or more components may be implemented together by one hardware or software.

또한, 어떤 구성요소들을 '포함'한다는 표현은, '개방형'의 표현으로서 해당 구성요소들이 존재하는 것을 단순히 지칭할 뿐이며, 추가적인 구성요소들을 배제하는 것으로 이해되어서는 안 된다.
Also, the expression " comprising " is intended to merely denote that such elements are present as an expression of " open ", and should not be understood to exclude additional elements.

도 1은 본 발명의 실시예에 따른 경로 안내 서비스를 위한 증강현실 내비게이션 장치의 구성을 개략적으로 나타낸 블록도, 도 2는 도 1에 도시된 차선 인식부의 구성을 상세히 나타낸 도면, 도 3은 본 발명의 실시예에 따른 차선 인식 방법을 설명하기 위한 예시도, 도 4는 본 발명의 실시예에 따른 증강현실 내비게이션 장치가 경로 안내시 출력하는 화면 예시도이다. FIG. 1 is a block diagram schematically showing the configuration of an augmented reality navigation device for a route guidance service according to an embodiment of the present invention. FIG. 2 is a detailed view of the configuration of the lane recognition unit shown in FIG. FIG. 4 is a diagram illustrating a screen displayed by augmented reality navigation device according to an embodiment of the present invention when a route guidance is performed. FIG.

도 1을 참조하면, 경로 안내 서비스를 위한 증강현실 내비게이션 장치(100)는 통신부(110), 입력부(120), 출력부(130), 저장부(140), 촬영부(150), 차선 인식부(160), 위치 측정부(170), 경로 탐색부(180), 방향안내표식 생성부(190), 증강현실 처리부(200), 제어부(210)를 포함한다. 1, an augmented reality navigation device 100 for a route guidance service includes a communication unit 110, an input unit 120, an output unit 130, a storage unit 140, a photographing unit 150, A position measuring unit 170, a path search unit 180, a directional guide marker generating unit 190, an augmented reality processing unit 200, and a control unit 210.

통신부(110)는 경로 안내를 위한 전자지도를 제공받을 수 있도록, 증강현실 내비게이션 장치(100)를 전자지도 제공 장치와 통신망을 통해 상호 연결시키는 통신 수단으로서, 예를 들어 이동통신, 위성통신 등의 무선 통신모듈, 인터넷 등의 유선 통신모듈, 와이파이 등의 근거리 무선 통신모듈 등을 포함할 수 있다.The communication unit 110 is communication means for interconnecting the augmented reality navigation device 100 with the electronic map providing device through a communication network so as to be provided with an electronic map for route guidance, A wireless communication module, a wired communication module such as the Internet, and a short-range wireless communication module such as a Wi-Fi modem.

입력부(120)는 증강현실 내비게이션 장치(100)의 동작 제어를 위한 사용자 요청을 입력받기 위한 수단으로서, 사용자의 조작에 따라서 사용자의 요청을 전기 신호로 변환한다. 예컨대, 입력부(120)는 사용자로부터 목적지를 포함하는 경로 안내 명령을 입력받는다. 이러한 입력부(120)가 터치 스크린의 형태로 구현된 경우, 입력부(120)와 출력부(130)가 동일할 수 있다.The input unit 120 is a means for receiving a user request for controlling the operation of the augmented reality navigation device 100. The input unit 120 converts a user's request into an electric signal according to a user's operation. For example, the input unit 120 receives a route guidance command including a destination from a user. When the input unit 120 is implemented as a touch screen, the input unit 120 and the output unit 130 may be the same.

출력부(130)는 증강현실 내비게이션 장치(100)의 동작 결과나 상태를 사용자가 인식할 수 있도록 제공하는 수단으로서, 시각적으로 확인 가능한 디스플레이의 형태, 예를 들어 LCD(Liquid Crystal Display) 또는 OLED(Organic Light Emitting Diodes) 등 소형 평판 디스플레이장치로 구현되는 것이 바람직할 수 있다. 특히, 본 발명에 의한 출력부(130)는 증강현실 처리부(200)에서 증강현실로 구현된 경로 안내 서비스를 화면상에 표시한다. The output unit 130 is a means for providing a user with an operation result or a status of the augmented reality navigation device 100. The output unit 130 may be a form of a visually recognizable display such as an LCD (Liquid Crystal Display) Organic Light Emitting Diodes), and the like. In particular, the output unit 130 according to the present invention displays a route guidance service implemented as an augmented reality in the augmented reality processing unit 200 on the screen.

저장부(140)는 증강현실 내비게이션 서비스 동작에 필요한 프로그램, 그 프로그램 수행 중에 발생되는 데이터를 저장하는 것으로서, 기본적으로 증강현실 내비게이션 장치(100)의 운영 프로그램이 저장되며, 더불어, 도로 영상에 대한 영상 데이터, 차선 인식 결과 정보 및 차선 인식을 위해 필요한 정보 등을 저장한다.The storage unit 140 stores a program necessary for the operation of the augmented reality navigation service and data generated during the execution of the program. Basically, the operating program of the augmented reality navigation device 100 is stored. Also, Data, lane recognition result information, and information necessary for lane recognition.

저장부(140)는 항법맵 데이터(예를 들어, 차량의 주행 경로 상에 위치하는 도로의 좌표, 교차로의 좌표, 도로의 연결 상태, 도로의 차선 정보), 도로 시설물(신호등, 표지판 등) 및 건물의 좌표 데이터, 속성정보(높이, 명칭, 색상 등) 등을 포함하는 전자지도 정보를 저장한다. 이때, 저장부(140)는 상기 데이터들을 확인할 수 있는 최소 용량의 크기를 갖는 전자 지도의 형태로 저장되어 관리되는 것이 바람직하다.The storage unit 140 stores navigation map data (for example, coordinates of a road located on a traveling path of a vehicle, coordinates of an intersection, road connection status, road lane information), road facilities (traffic lights, And stores electronic map information including coordinate data of the building, attribute information (height, name, color, etc.), and the like. At this time, it is preferable that the storage unit 140 is stored and managed in the form of an electronic map having a minimum capacity to confirm the data.

촬영부(150)는 사용자 조작에 따라 영상을 촬영하는 구성으로, 예컨대 카메라 등을 포함할 수 있다. 촬영부(150)는 CCD 또는 CMOS 소자를 이용하여 차량 전방의 영상을 촬영할 수 있다. 한편, 본 실시예에서는 촬영부(150)에 마련된 CCD 또는 CMOS 소자를 이용하여 도로 영상을 촬영하는 것에 대해서만 설명하였지만, 외부 카메라로부터 영상을 입력받는 형태로 구현되는 것도 가능하다.The photographing unit 150 is configured to photograph an image according to a user operation, and may include, for example, a camera or the like. The photographing unit 150 can photograph an image in front of the vehicle using a CCD or a CMOS device. In the present embodiment, only the photographing of the road image using the CCD or CMOS device provided in the photographing unit 150 has been described. Alternatively, the photographing unit 150 may be configured to receive the image from the external camera.

차선 인식부(160)는 촬영부(150)에 의해 촬영된 영상을 분석하여 차량이 주행중인 도로의 차선을 인식한다. 이때, 인식된 차선은 차선 기울기, 차선 오프셋, 도로 곡률 및 도로 곡률 변화율 등을 포함하는 차선 정보를 포함한다.The lane recognition unit 160 analyzes the image photographed by the photographing unit 150 and recognizes the lane of the road in which the vehicle is traveling. At this time, the recognized lane includes lane information including lane slope, lane offset, road curvature, and road curvature change rate.

이러한 차선 인식부(160)는 도 2와 같이 에지 검출모듈(161), 차선후보 검출모듈(162), 차선 인식모듈(163), 실시간 검출모듈(164), 차선 추적모듈(165)을 포함한다. The lane recognition unit 160 includes an edge detection module 161, a lane candidate detection module 162, a lane recognition module 163, a real time detection module 164, and a lane tracking module 165 as shown in FIG. 2 .

에지 검출모듈(161)은 촬영부(150)에 의해 촬영된 영상을 그레이 영상으로 변환하여 노이즈를 제거하고, 노이즈가 제거된 영상에 소벨(SOBEL) 연산을 수행하여 에지(edge)를 검출하며, 에지의 강도와 방향을 구한다. 즉, 에지 검출모듈(161)은 영상을 OpenCV(Open Computer Vision)의 cvCvtColor()함수를 이용하여 그레이(gray)영상으로 변환하고, 그 그레이 영상에 가우시안 커널(gaussian kernel)을 컨벌루션(convolution)하여 노이즈를 제거한다. OpenCV에서 제공되는 함수들 중에서 cvCvtColor()함수는 색상 영역을 회색(등 다른 컬러영역으로)으로 변조할 때 사용하는 함수이다. 그런 후, 에지 검출모듈(161)은 노이즈가 제거된 영상에 대하여 Sobel 연산(cvSobel()함수)으로 x, y축 방향으로 미분하여 에지를 구하고, cvCartToPolar()함수로 에지의 강도(magnitude)와 방향(direction)을 구한다. 여기서, Sobel 연산(cvSobel()함수)은 OpenCV에서 제공되는 함수로, 에지(경계선)를 구할 때 사용하는 함수이고, cvCartToPolar()함수는 OpenCV에서 제공되는 함수로, 에지의 강도와 방향을 구할 때 사용하는 함수이다.The edge detection module 161 detects an edge by converting an image photographed by the photographing unit 150 into a gray image to remove noise, performing a SOBEL operation on the image from which the noise is removed, Find the strength and direction of the edge. That is, the edge detection module 161 converts the image into a gray image using the cvCvtColor () function of OpenCV (Open Computer Vision), convolves the gray image with a gaussian kernel Remove noise. Of the functions provided by OpenCV, cvCvtColor () is a function used to modulate a color gamut to gray (such as another color gamut). Then, the edge detection module 161 obtains an edge by differentiating the noise-removed image in the x and y directions with the Sobel operation (cvSobel () function), and calculates the edge magnitude and the edge with the cvCartToPolar Find the direction. Here, the Sobel operation (cvSobel () function) is a function provided by OpenCV, which is a function used to obtain an edge (boundary line), and a function cvCartToPolar () is a function provided by OpenCV. It is a function to use.

예를 들어, 도 3a와 같은 영상에 대한 에지의 강도를 구하면 도 3b와 같을 수 있다. For example, if the edge strength of an image as shown in FIG. 3A is obtained, it can be as shown in FIG. 3B.

차선후보 검출모듈(162)은 에지 검출모듈(161)에서 구해진 에지의 강도와 방향을 근거로 차선 후보점들을 구하고, 허프변환(Hough transform)을 이용하여 차선 후보를 검출한다. 즉, 차선후보 검출모듈(162)은 도 3c와 같은 마스크 이미지를 만든다. 여기서, 검은색 영역에 속한 에지 중에서 방향이 수직에 가까운 것들은 차선이 아닐 확률이 높으므로, 먼저 이 영역에 있는 에지들의 방향을 체크하여 수직에 가까운 것들은 차선 후보점으로 고려하지 않는다. 그런 후, 차선후보 검출모듈(162)은 도 3b와 같은 영상에서 y값은 고정하고 x값을 증가시키면서 에지의 강도가 임계치(threshold)를 넘으면서 최대가 되는 점을 찾는다. 차선후보 검출모듈(162)은 찾은 점들 중에서 같은 y축 값을 갖는 두 점을 골라 두 점간의 거리가 차선의 폭을 만족하는지 검사한다. 만일 두 점간의 거리가 차선의 폭을 만족한다면, 두 점에 대한 에지의 강도와 방향을 비교한다. 에지의 강도가 유사하고 방향이 반대이면, 차선일 확률이 높으므로, 차선후보 검출모듈(162)은 에지의 강도가 유사하고 방향이 반대인 두 점에 대하여 중심점을 구하여 차선의 후보점으로 저장한다. 그런 후, 차선후보 검출모듈(162)은 허프변환(Hough transform)을 이용하여 차선 후보를 검출한다. 허프변환은 영상에서 차선의 방향과 위치를 구하는데 적합한 알고리즘으로서, (x, y)좌표계의 영상에 존재하는 윤곽선으로부터 선을 찾아내는 방법이다. 따라서, 허프변환을 수행하면 영상에 나타나는 모든 직선정보를 얻을 수 있으며, 여기에는 차선으로부터 나타나는 직선은 무조건 포함되어 있을 뿐 아니라 전방 내지 측방의 차량이나 배경에 의한 노이즈도 포함되어 있다. 이들 중에서 차선의 후보점이 없는 직선은 노이즈로 간주하여 제거한다.The lane candidate detection module 162 finds lane candidate points based on the strength and direction of the edge obtained by the edge detection module 161 and detects lane candidates using a Hough transform. That is, the lane candidate detecting module 162 generates a mask image as shown in FIG. 3C. Here, among the edges belonging to the black area, those near the vertical direction have a high probability of not being a lane, so first check the direction of the edges in this area, and those near the vertical are not considered as lane candidate points. Then, the lane candidate detection module 162 finds a point where the y value is fixed and the x value is increased in the image as shown in Fig. 3B, and the intensity of the edge exceeds the threshold value and becomes the maximum. The lane candidate detection module 162 selects two points having the same y-axis value among the found points and checks whether the distance between the two points satisfies the lane width. If the distance between two points satisfies the width of the lane, compare the strength and direction of the edge to the two points. Since the probability of a lane is high when the strengths of the edges are similar and the directions are opposite to each other, the lane marker candidate module 162 obtains a center point for two points having similar edge strengths and opposite directions and stores the center points as candidate points of the lane . Then, the lane candidate detection module 162 detects a lane candidate using a Hough transform. Huff transformation is a suitable algorithm for finding the direction and position of a lane in an image and is a method of finding a line from an outline existing in an image of the (x, y) coordinate system. Therefore, by performing the Hough transform, all the linear information appearing in the image can be obtained. In this case, not only the straight line appearing from the lane but also the noise due to the vehicle or the background from the front side to the side are included. Among these, a straight line without a lane candidate point is regarded as noise and removed.

차선 인식모듈(162)은 차선후보 검출모듈(162)에서 검출된 차선 후보들에 RANSAC 알고리즘을 적용하여 차선 소실점을 구하고, 차선 소실점으로 향하는 차선 후보들을 차량이 주행중인 차선으로 인식한다. The lane recognition module 162 obtains the lane disappearance point by applying the RANSAC algorithm to the lane candidate detected by the lane marker candidate detection module 162 and recognizes the lane candidate for the lane disappearing point as a lane in which the vehicle is running.

실시간 검출모듈(164)은 이전 프레임에서 검출된 차선 정보와, 차선 사전 정보를 이용하여, 다음 프레임에서 차선이 존재할 만한 관심 영역(ROI)을 결정하고, 결정된 관심 영역에 대해서만 차선 검출을 수행한다. 여기서, 차선 사전 정보는 차선의 소실점, 차선 폭, 두께 등이 있다. The real-time detection module 164 uses the lane information detected in the previous frame and the lane advance information to determine a ROI in which a lane may exist in the next frame, and performs lane detection only on the determined ROI. Here, the lane dictionary information includes the vanishing point of the lane, the lane width, and the thickness.

예를 들어, 좌측의 차선을 찾았을 경우 사전 정보에 따라 우측 차선이 존재할 만한 영역을 추정할 수 있으므로, 검출 속도와 정확도를 크게 향상시킬 수 있으며, 이러한 차선 사전 정보는 허프변환(Hough transform)을 수행한 뒤, 차선 검증을 할 때도 사용될 수 있다.For example, when the left lane is found, it is possible to estimate the area where the right lane is present according to the prior information, so that the detection speed and the accuracy can be greatly improved, and the lane advance information is converted into the Hough transform And can be used for lane verification.

한편, 프레임별로 독립적으로 차선을 검출하는 것은 시간과 정확도 면에서 효과적이지 못하며, 이전 프레임의 차선 검출 결과를 다음 프레임 차선 검출에 이용하는 차선 추적 기술이 적용되어야 한다.On the other hand, it is not effective in terms of time and accuracy to independently detect a lane on a frame-by-frame basis, and a lane-tracking technique that uses the lane detection result of the previous frame for the next frame lane detection should be applied.

차선 추적모듈(165)은 연속된 프레임에서 particle filtering을 이용하여 차선을 추적하며, 앞 차량의 위치추적을 통해 차선을 추적한다. 이를 통해, 복잡한 도심이나 도로상에 차량이 많은 경우, 또는 기상 악화로 인해 차선이 육안으로 잘 보이지 않는 경우에 효과적으로 차선을 추적할 수 있다.The lane tracking module 165 tracks the lane using particle filtering in successive frames and tracks the lane through tracking the location of the preceding vehicle. This makes it possible to track lanes effectively when there are a lot of vehicles on the city center or on the roads, or when the lane is not visible to the naked eye due to weather deterioration.

본 발명에서는 상술한 바와 같이, 차선 검출 기술과 추적 기술을 함께 사용하여, 주행 중 차선이 소실되거나 새로 나타나는 경우에도 효과적으로 차선을 검출할 수 있도록 한다.In the present invention, as described above, the lane detection technology and the tracking technology are used together so that the lane can be effectively detected even when the lane is lost or appears during the driving.

매 프레임마다 차선 검출을 수행하여, 새로 검출된 차선에 대해서는 particle filtering을 이용해 차선을 추적하고, 현재 추적중인 차선 정보에 기반하여 다음 프레임의 차선 검출 관심영역(ROI)을 설정함으로써 실시간 차선 검출을 구현한다.Lane detection is performed every frame, and lane tracking is performed using particle filtering for newly detected lanes. Real-time lane detection is implemented by setting the lane detection area of interest (ROI) of the next frame based on the lane information currently being tracked do.

위치 측정부(170)는 증강현실 내비게이션 장치(100)의 위치를 측정하는 구성으로, 예컨대, GPS(Global Positioning System), WIPI 측위 등의 위치 측정 장치일 수 있다. 즉, 위치 측정부(160)는 GPS위성으로부터 신호를 받아 현재 위치를 검출하는 GPS센서나, GPS 위성신호의 수신이 불가능하거나 수신감도가 낮은 지역에서의 현재 위치 검출을 위하여 무선랜(WiFi) 기지국(Access Point)의 전파를 수신하여 대략적인 현재 위치를 검출하는 무선랜 장치를 포함할 수 있으며, 두 종류의 센서를 혼용하여 위치검출의 정확도를 보다 향상시킬 수도 있다.The position measuring unit 170 may measure the position of the augmented reality navigation device 100 and may be a position measuring device such as GPS (Global Positioning System), WIPI positioning, or the like. That is, the position measuring unit 160 may be a GPS (Global Positioning System) sensor that receives a signal from a GPS satellite and detects a current position, a wireless LAN (WiFi) base station for detecting a current position in an area where reception of GPS satellite signals is impossible, And a wireless LAN device that receives a radio wave of an access point and detects an approximate current position. The two types of sensors may be used in combination to improve the accuracy of position detection.

위치 측정부(170)는 측정된 차량의 현재 위치정보를 경로 탐색부(180)로 전달한다.The position measuring unit 170 transmits the measured current position information of the vehicle to the path searching unit 180.

경로 탐색부(180)는 목적지까지의 경로를 탐색하고, 상기 경로에 포함된 링크들의 방향 및 거리를 계산한다. 여기서, 링크는 경로에서 주행 방향이 바뀌게 되는 도로 구간을 말한다. 즉, 경로 탐색부(180)는 사용자로부터 목적지를 포함하는 경로 안내 명령이 입력되면, 저장부(140)에 저장된 전자지도부로부터 전자지도 정보를 읽어 목적지까지의 경로(예컨대, 최단경로 등임)를 탐색한다. 그런 후, 경로 탐색부(180)는 탐색된 경로에서 방향이 바뀌게 되는 도로구간을 링크로 나누고, 각 링크들의 방향과 해당 링크에 의한 도로구간의 거리를 구한다. The path search unit 180 searches for a path to a destination and calculates the directions and distances of the links included in the path. Here, the link refers to a road section in which the running direction changes in the path. That is, when a route guidance command including a destination is inputted from the user, the route search unit 180 reads the electronic map information from the electronic map unit stored in the storage unit 140 and searches for a route to the destination (for example, do. Then, the route search unit 180 divides the road section whose direction is changed in the searched route into links, and obtains the distance between the directions of the links and the road section by the corresponding link.

방향안내표식 생성부(190)는 현재 위치로부터 경로 탐색부(180)에서 탐색된 경로내 각 링크 시작지점까지의 잔여거리에 따라 순서를 고려하여 해당 링크에서 다음 링크로의 주행 방향을 나타내는 방향안내표식을 생성한다. 즉, 방향안내표식 생성부(190)는 현재 링크에서 다음 제1링크로의 방향전환을 나타내는 제1방향안내표식, 제1링크에서 다음 제2링크로의 방향전환을 나타내는 제2방향안내 표식 등을 생성한다. 제1링크, 제2링크는 현재위치로부터 잔여거리가 짧은 순서에 의한 것으로, 방향안내표식 생성부(190)는 현재 링크 다음에 위치하는 적어도 하나 이상의 링크에 대한 방향안내표식을 생성할 수 있다. 여기서, 방향안내표식은 어느 방향으로 가야할지를 알려주는 신호로, 화살표, 방향전환 화살표 등의 그래픽 형태일 수 있다. 방향안내표식은 명확한 회전 방향(turn-by-turn direction)을 제공하기 때문에 경로 탐색부(180)에서 탐색된 경로를 따라가고 있는 동안 운전자들이 도로에 집중할 수 있어서 안전성을 제공한다. 방향안내표식은 서로 가깝게 붙어있는 도로와 분기점이 있을 때 어디로 가야할지 모르는 운전자의 실수를 방지해준다.The direction guide marker generating unit 190 generates a direction guide mark indicating the direction of travel from the link to the next link in consideration of the order according to the remaining distance from the current position to each link start point in the route searched in the route search unit 180 Create a marker. That is, the direction guide landmark creating unit 190 creates a first direction guide landmark indicating the direction change from the current link to the next first link, a second direction guide landmark indicating the direction change from the first link to the next second link, etc. . The first link and the second link are in the order of the shortest remaining distance from the current position, and the directional guide marker generating unit 190 can generate the directional guide mark for at least one or more links located next to the current link. Here, the directional sign is a signal indicating which direction to go, and may be a graphic form such as an arrow, a direction change arrow, and the like. Since the direction guide mark provides a turn-by-turn direction, the driver can concentrate on the road while following the route detected by the route search unit 180, thereby providing safety. Directional signs prevent drivers from making mistakes when they are close to each other and do not know where to go when there are bifurcations.

증강현실 처리부(200)는 방향안내표식 생성부(190)에서 생성된 방향안내표식이 차선 인식부(160)에서 인식된 차선의 도로상에 표시되도록 촬영부(150)에서 촬영된 영상에 오버레이하여 화면에 표시한다. 이때, 증강현실 처리부(200)는 현재 링크에 대한 제1방향안내표식과 다음 링크들의 방향안내표식이 잔여거리에 따라 구분되도록 크기, 색상, 명도, 채도 등을 다르게 할 수 있다. 예를 들면, 각 방향안내표식의 크기를 잔여 거리가 적어짐에 따라 점차 크게 표시할 수 있다. 이를 통해, 운전자는 다음 경로 안내의 대략적인 거리를 가늠할 수 있을 뿐만 아니라, 방향 전환의 거리가 가까워질수록 그 크기가 커져 방향 전환에 대한 직접적 식별력이 증대된다.The augmented reality processing unit 200 overlays the image photographed by the photographing unit 150 such that the directional guide mark generated by the directional guide mark generating unit 190 is displayed on the lane of the lane recognized by the lane recognizing unit 160 Display it on the screen. At this time, the augmented reality processing unit 200 may change the size, color, brightness, saturation, and the like so that the first direction guide mark for the current link and the direction guide mark for the next link are classified according to the remaining distance. For example, the size of each directional guide mark can be displayed gradually as the remaining distance becomes smaller. Thus, not only the driver can estimate the approximate distance of the next route guidance but also the direct recognition ability of the direction change is increased as the distance of the direction change becomes closer.

또한, 증강현실 처리부(200)는 방향안내표식의 일정 영역에 다음 링크 시작지점까지의 잔여거리, 차량의 현재 주행속도 등을 표시할 수 있다. 예를 들면, 증강현실 처리부(200)는 방향안내표식의 아래, 우측 아래, 좌측 아래 등에 잔여 거리를 표시하여 운전자가 다음 방향 전환의 시점을 미리 인지하도록 구성하는 것이 바람직하다.In addition, the augmented reality processing unit 200 can display a remaining distance to a start point of a next link, a current traveling speed of the vehicle, and the like in a certain area of the direction guide landmark. For example, the augmented reality processing unit 200 preferably displays the remaining distance on the lower, lower right, lower left, and the like of the directional navigation marker so that the driver recognizes the time of the next direction change in advance.

증강현실 처리부(200)는 현재 링크 다음의 링크가 원거리에 있어서 화면상에 표시되지 않은 경우, 도 4a와 같이 현재 링크에 대한 제1방향안내표식(410)을 인식된 차선 도로의 중앙에 오버레이하여 표시하고, 다음 링크에 대한 제2방향안내표식(420)을 제1방향안내표식(410) 아래에 오버레이하여 표시한다. The augmented reality processing unit 200 overlays the first direction guide mark 410 for the current link on the center of the recognized lane road as shown in FIG. 4A if the link following the current link is not displayed on the screen at a long distance And overlaying the second direction indicator mark 420 for the next link under the first direction landmark mark 410. [

도 4a를 참조하면, 현재 링크에 대한 제1방향안내표식(410)과 잔여거리(55m)를 차량이 주행중인 도로상에 표시하고, 다음 링크의 방향 표시를 위한 제2방향안내표식(420)과 잔여거리(200m)를 제1방향안내표식(410)의 오른쪽 아래에 아이콘 형태로 표시할 수 있다. 이는 현재 차량이 15km/h로 주행하고 있는데, 현재 위치에서 55m 직진 후 좌회전해야 하고, 현재 위치에서 200m 주행 후 우회전해야 함을 안내한다. 4A, a first directional guide mark 410 and a remaining distance 55m for a current link are displayed on a road in which the vehicle is traveling, and a second directional landmark mark 420 for indicating the direction of a next link is displayed. And the remaining distance 200m may be displayed in the form of icons on the lower right of the first direction indicator mark 410. [ This means that the current vehicle is traveling at 15km / h, it must be turned 55m straight from the current position and turn left after 200m from the current position.

증강현실 처리부(200)는 현재 링크 다음의 링크가 근거리에 있어서 화면상에 표시되는 경우, 도 4b와 같이 현재 링크에 대한 제1방향안내표식(430)이 다음 링크 시작지점까지 표시되도록 제1방향안내표식(430)의 길이를 조절하고, 다음 링크에 대한 제2방향안내표식(440)을 제1방향안내표식(430) 아래에 오버레이하여 표시한다. 즉, 증강현실 처리부(200)는 A와 같이 제1방향안내표식(430)의 화살표 길이를 방향 전환까지 남은 거리와 일치되도록 표시한다. 4B, the augmented reality processing unit 200 searches the augmented < Desc / Clms Page number 18 > direction for the current link so that the first directional guide mark 430 for the current link is displayed up to the next link start point, The length of the guide mark 430 is adjusted and the second direction mark 440 for the next link is overlaid under the first direction mark 430. [ That is, the augmented reality processing unit 200 displays the arrow direction of the first directional landmark 430 so that the arrow length of the first directional landmark mark 430 matches the distance remained until the direction change.

도 4b를 참조하면, 현재 링크에 대한 제1방향안내표식(430)의 화살표 길이를 다음 링크 시작지점과 일치시켜 잔여거리(5m)와 함께 차량이 주행중인 도로상에 표시하고, 다음 링크의 방향 표시를 위한 제2방향안내표식(440)과 잔여거리(200m)를 제1방향안내표식(430)의 오른쪽 아래에 아이콘 형태로 표시할 수 있다. 이는 현재 차량이 8km/h로 주행하고 있는데, 현재 위치에서 5m 직진 후 좌회전해야 하고, 현재 위치에서 150m 주행 후 우회전해야 함을 안내한다.Referring to FIG. 4B, the arrow length of the first direction guide mark 430 for the current link is aligned with the next link start point to display on the road during which the vehicle is traveling along with the remaining distance 5m, The second direction guide mark 440 for display and the remaining distance 200m may be displayed in an icon form on the lower right of the first direction guide mark 430. [ This means that the current vehicle is traveling at 8km / h, it must go straight after 5m from the current position and turn left after 150m from the current position.

증강현실 처리부(200)에 의해 도로 영상에 오버레이되는 방향안내표식은 명확한 회전 방향(turn-by-turn direction)을 제공하기 때문에 경로 탐색부(180)에서 탐색된 경로를 따라가고 있는 동안 운전자들이 도로에 집중할 수 있어서 안전성을 높여준다. 방향안내표식은 서로 가깝게 붙어있는 도로와 분기점이 있을 때 어디로 가야할지 모르는 운전자의 실수를 방지해준다.Since the directional guidance marker overlaid on the road image by the augmented reality processing unit 200 provides a clear turn-by-turn direction, To increase safety. Directional signs prevent drivers from making mistakes when they are close to each other and do not know where to go when there are bifurcations.

제어부(210)는 입력부(120)를 통해 입력되는 사용자의 지시에 따라 저장부(140)에 저장된 구동 프로그램을 실행하여 증강현실 내비게이션 장치(100)의 전반적인 기능을 제어한다.The control unit 210 controls the overall function of the augmented reality navigation device 100 by executing a driving program stored in the storage unit 140 according to a user's instruction inputted through the input unit 120. [

제어부(210)는 통신부(110), 입력부(120), 출력부(130), 저장부(140), 촬영부(150), 차선 인식부(160), 위치 측정부(170), 경로 탐색부(180), 방향안내표식 생성부(190), 증강현실 처리부(200)를 포함하는 증강현실 내비게이션 장치(100)의 다양한 구성부들의 동작을 제어하는 구성이다. The control unit 210 includes a communication unit 110, an input unit 120, an output unit 130, a storage unit 140, a photographing unit 150, a lane recognition unit 160, a position measurement unit 170, The directional marker generating unit 190, and the augmented reality processing unit 200 according to an embodiment of the present invention.

이러한 제어부(210)는 적어도 하나의 연산 장치를 포함할 수 있는데, 여기서 상기 연산 장치는 범용적인 중앙연산장치(CPU), 특정 목적에 적합하게 구현된 프로그래머블 디바이스 소자(CPLD, FPGA), 주문형 반도체 연산장치(ASIC) 또는 마이크로 컨트롤러 칩일 수 있다.The control unit 210 may include at least one computing device, which may be a general purpose central processing unit (CPU), a programmable device device (CPLD, FPGA) that is suitably implemented for a particular purpose, Device (ASIC) or a microcontroller chip.

증강현실 내비게이션 장치(100)가 포함할 수 있는 이러한 구성부들은 하드웨어, 소프트웨어 또는 이들의 결합으로 구현될 수 있으며, 하나의 하드웨어 또는 소프트웨어에 의해 둘 이상의 구성부들이 동시에 구현될 수도 있다.
These components, which the augmented reality navigation device 100 may include, may be implemented by hardware, software, or a combination thereof, and two or more components may be simultaneously implemented by one hardware or software.

한편, 증강현실 내비게이션 장치(100)는 차량에 설치된 거치대 등에 거치하고 촬영부(150)를 통해 주행 중 차량 전면의 도로 영상을 실시간으로 촬영하여 화면에 표시한다. 거치대 각도를 조절하여 화면상 보이는 실제 도로의 각도와 표시되는 방향안내표식의 각도가 적절히 조절되면 해당 방향안내표식이 도로상에 위치한 것처럼 표시되어 방향을 전환해야하는 지점의 근접 영역에서 더욱 정확하게 방향 전환의 위치나 직진의 경로를 용이하게 식별할 수 있다.On the other hand, the augmented reality navigation device 100 implements real-time photographing of a road image on the front face of the vehicle while driving through a photographing unit 150 and displays it on the screen. By adjusting the angle of the cradle, the angle of the actual road visible on the screen and the direction of the displayed direction indicator are appropriately adjusted so that the corresponding direction indicator appears as if it is located on the road. The path of the position or the straight line can be easily identified.

이러한 증강현실 내비게이션 장치(100)는 촬영부(150)와 위치 측정부(170)가 구비된 내비게이션 전용의 단말, 이동통신 단말, 스마트폰(Smart phone), PMP(Portable Media Player), PDA(Personal Digital Assistant), 타블렛 PC(Tablet PC) 등 증강현실 내비게이션 기능을 구현할 수 있는 다양한 장치가 될 수 있다.
The augmented reality navigation device 100 includes a navigation dedicated terminal, a mobile communication terminal, a smart phone, a portable media player (PMP), and a personal digital assistant (PDA) Digital Assistant), Tablet PC (Tablet PC) and various other devices that can implement the augmented reality navigation function.

도 5는 본 발명의 실시예에 따른 증강현실 내비게이션 장치가 경로 안내 서비스를 제공하는 방법을 나타낸 도면이다. 5 is a diagram illustrating a method of providing a route guidance service by an augmented reality navigation device according to an embodiment of the present invention.

도 5를 참조하면, 사용자가 목적지를 포함하는 경로 안내 명령을 입력하면(S502), 증강현실 내비게이션 장치는 촬영부를 구동시켜 차량 전방의 영상을 획득한다(S504).Referring to FIG. 5, when a user inputs a route guidance command including a destination (S502), the augmented reality navigation device drives the photographing section to acquire an image in front of the vehicle (S504).

증강현실 내비게이션 장치는 획득된 영상을 분석하여 차량이 주행중인 도로의 차선을 인식하고(S506), 상기 목적지까지 경로를 탐색하며(S508), 탐색된 경로에 포함된 링크들의 방향 및 거리를 계산한다(S510).The augmented reality navigation device analyzes the acquired image to recognize a lane of a road in which the vehicle is traveling (S506), searches for a route to the destination (S508), and calculates directions and distances of links included in the searched route (S510).

증강현실 내비게이션 장치는 현재 위치로부터 상기 경로내 각 링크 시작지점까지의 잔여거리에 따라 순서를 고려하여, 해당 링크에서 다음 링크로의 주행 방향을 나타내는 방향안내표식을 생성한다(S512). 이때, 증강현실 내비게이션 장치는 현재 위치로부터 상기 탐색된 경로내 각 링크 시작지점까지의 잔여거리를 각각 계산하고, 경로내 링크들을 잔여거리가 짧은 순으로 정렬한다. 그런 후, 증강현실 내비게이션 장치는 현재 링크에서 다음 링크로의 방향 전환을 나타내는 제1방향안내표식, 상기 정렬된 순으로 현재 링크 다음에 위치하는 적어도 하나 이상의 링크에 대한 방향안내표식을 생성한다. The augmented reality navigation device generates a direction guide landmark indicating the traveling direction from the link to the next link in accordance with the remaining distance from the current position to each link start point in the path in operation S512. At this time, the augmented reality navigation device calculates the remaining distance from the current position to each link start point in the searched route, and arranges the links in the route in descending order of the remaining distance. Then, the augmented reality navigation device generates a first directional landmark indicating the direction change from the current link to the next link, and a directional landmark for at least one or more links positioned next to the current link in the ordered order.

그런 후, 증강현실 내비게이션 장치는 생성된 방향안내표식이 상기 인식된 차선의 도로상에 표시되도록, 방향안내표식을 상기 영상에 오버레이하여 화면에 표시한다(S514). 이때, 증강현실 내비게이션 장치는 현재 링크에 대한 제1방향안내표식을 인식된 차선 도로의 중앙에 오버레이하여 표시하고, 다음 링크에 대한 제2방향안내표식을 제1방향안내표식 아래에 오버레이하여 표시한다. Then, the augmented reality navigation device displays the generated directional marker on the screen so that the generated directional marker is displayed on the recognized lane of the road (S514). At this time, the augmented reality navigation device displays the first directional guide mark for the current link overlaid on the center of the recognized lane road, and overlaid the second directional guide mark for the next link under the first directional guide mark .

실제의 주행 도로 영상이 표시되는 화면을 제공하는 증강현실 내비게이션 장치의 특성상 화면에서 지평선이 보이는 환경이므로, 화면에 표시된 주행 도로상에 방향안내표식을 표시하고 다음 링크의 방향에 맞춰 해당 방향 측으로 좌회전, 우회전을 표시하는 방식은 실제의 도로 영상과 자연스럽게 조합되어 현실감을 저해하지 않으면서도 매우 직관적이면서 실용적인 길 안내 정보를 제공할 수 있다.
An augmented reality navigation device that provides a screen on which an actual running road image is displayed is an environment in which the horizon line is visible on the screen. Therefore, a direction guide mark is displayed on the running road displayed on the screen, The method of displaying the right turn can be naturally combined with the actual road image to provide very intuitive and practical road guidance information without impairing the sense of reality.

한편, 여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.On the other hand, the various embodiments described herein may be embodied in a recording medium readable by a computer or similar device using, for example, software, hardware, or a combination thereof.

하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 그러한 실시예들이 제어부(210)에 의해 구현될 수 있다.According to a hardware implementation, the embodiments described herein may be implemented as application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays May be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and electrical units for performing functions. In some cases, And may be implemented by the control unit 210.

소프트웨어적인 구현에 의하면, 절차나 기능과 같은 실시예들은 적어도 하나의 기능 또는 작동을 수행하게 하는 별개의 소프트웨어 모듈과 함께 구현될 수 있다. 소프트웨어 코드는 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션에 의해 구현될 수 있다. 또한, 소프트웨어 코드는 저장부(140)에 저장되고, 제어부(210)에 의해 실행될 수 있다.According to a software implementation, embodiments such as procedures or functions may be implemented with separate software modules that perform at least one function or operation. The software code may be implemented by a software application written in a suitable programming language. Also, the software codes may be stored in the storage unit 140 and executed by the control unit 210. [

이와 같이, 본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
Thus, those skilled in the art will appreciate that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof. It is therefore to be understood that the embodiments described above are to be considered in all respects only as illustrative and not restrictive. The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.

100 : 증강현실 내비게이션 장치 110 : 통신부
120 : 입력부 130 : 출력부
140 : 저장부 150 : 촬영부
160 : 차선 인식부 161 : 에지 검출모듈
162 : 차선후보 검출모듈 163 : 차선 인식모듈
164 : 실시간 검출모듈 165 : 차선 추적모듈
170 : 위치 측정부 180 : 경로 탐색부
190 : 방향안내표식 생성부 200 : 증강현실 처리부
210 : 제어부
100: augmented reality navigation device 110:
120: input unit 130: output unit
140: storage unit 150: photographing unit
160: lane recognition unit 161: edge detection module
162: lane candidate detection module 163: lane recognition module
164: Real-time detection module 165: Lane tracking module
170: Position measurement unit 180: Path search unit
190: direction indicator marker generation unit 200: augmented reality processing unit
210:

Claims (12)

차량 전방의 영상을 촬영하는 촬영부;
상기 영상을 분석하여 차량이 주행중인 도로의 차선을 인식하는 차선 인식부;
목적지까지 경로를 탐색하고, 상기 경로에 포함된 링크들의 방향 및 거리를 계산하는 경로 탐색부;
현재 위치로부터 상기 경로내 각 링크 시작지점까지의 잔여거리에 따라 순서를 고려하여, 해당 링크에서 다음 링크로의 주행 방향을 나타내는 방향안내표식을 생성하는 방향안내표식 생성부; 및
상기 생성된 방향안내표식이 상기 인식된 차선의 도로상에 표시되도록 상기 영상에 오버레이하여 화면에 표시하는 증강현실 처리부;를 포함하되,
상기 차선 인식부는, 상기 영상에 소벨(SOBEL) 연산을 수행하여 에지를 검출하고, 기 정의된 함수를 이용하여 상기 에지의 강도와 방향을 구하며, 상기 에지의 강도와 방향을 근거로 차선 후보점을 구하고, 허프변환을 이용하여 구해진 직선중에서 차선 후보점이 없는 직선은 제거하여 차선 후보를 검출하며, 상기 검출된 차선 후보들에 RANSAC 알고리즘을 적용하여 차선 소실점을 구하고, 상기 차선 소실점으로 향하는 차선 후보들을 차량이 주행중인 차선으로 인식하는 것을 특징으로 하는 경로 안내 서비스를 위한 증강현실 내비게이션 장치.
A photographing unit for photographing a video in front of the vehicle;
A lane recognition unit for analyzing the image and recognizing a lane of a road on which the vehicle is traveling;
A route search unit searching for a route to a destination and calculating directions and distances of links included in the route;
A direction guide landmark generating unit for generating a direction guide landmark indicating the traveling direction from the link to the next link in consideration of the order of the remaining distance from the current position to each link start point in the path; And
And an augmented reality processing unit for overlaying the image so that the generated directional landmark is displayed on a road of the recognized lane,
The lane recognition unit detects an edge by performing a SOBEL operation on the image, calculates the strength and direction of the edge using a predefined function, and determines a lane candidate point based on the strength and direction of the edge The lane candidate candidate is detected by removing a straight line having no lane candidate point among the straight lines obtained by using the Hough transform, and a RANSAC algorithm is applied to the detected lane candidates to obtain a lane disappearance point, And recognizes the route as a lane in which the vehicle is traveling.
제1항에 있어서,
상기 차선 인식부는,
상기 영상을 그레이 영상으로 변환하여 노이즈를 제거하고, 상기 노이즈가 제거된 영상에 소벨(SOBEL) 연산을 수행하여 에지를 검출하며, 기 정의된 함수를 이용하여 상기 에지의 강도와 방향을 구하는 에지 검출모듈;
상기 에지의 강도와 방향이 구해진 영상에서 y값은 고정하고 x값을 증가시키면서 에지의 강도가 임계치를 넘으면서 최대가 되는 점을 찾고, 상기 찾은 점들 중에서 동일한 y축 값을 갖는 두 점을 선택하며, 상기 선택된 두 점간의 거리가 기 정의된 차선의 폭을 만족하는 경우, 두 점에 대한 에지의 강도와 방향을 비교하고, 그 비교결과 에지의 강도가 일정 값 이상 유사하고 방향이 반대인 두 점에 대하여 중심점을 구하여 차선 후보점으로 구하며, 허프변환(Hough transform)을 이용하여 차선 후보를 검출하는 차선후보 검출모듈; 및
상기 검출된 차선 후보들에 RANSAC 알고리즘을 적용하여 차선 소실점을 구하고, 상기 차선 소실점으로 향하는 차선 후보들을 차량이 주행중인 차선으로 인식하는 차선 인식모듈을 포함하는 것을 특징으로 하는 경로 안내 서비스를 위한 증강현실 내비게이션 장치.
The method according to claim 1,
The lane recognizing unit,
An edge detecting unit for detecting an edge by converting the image into a gray image to remove noise, performing an SOBEL operation on the noise-removed image, and detecting an edge strength and direction using a predefined function module;
Wherein a y-value is fixed and an x-value is increased in an image in which the strength and direction of the edge are determined, and a point at which the strength of the edge exceeds the threshold value and becomes the maximum is searched for and two points having the same y-axis value among the searched points are selected. If the distance between the two selected points satisfies the predefined width of the lane, the strength and direction of the edge are compared with each other, and if the intensity of the edge is greater than or equal to a predetermined value, A lane marker candidate detecting module for detecting a lane marker candidate using a Hough transform, And
And a lane recognition module for finding a lane disappearance point by applying the RANSAC algorithm to the detected lane candidates and recognizing the lane candidate for the lane disappearing point as a lane in which the vehicle is running. Device.
제2항에 있어서,
상기 차선 인식부는 이전 프레임에서 검출된 차선 정보와 차선 사전 정보를 이용하여 다음 프레임에서 관심영역(ROI, Region Of Interest)을 결정하고, 결정된 관심 영역에 대해서만 차선 검출을 수행하는 실시간 검출모듈; 및
연속된 프레임에서 particle filtering을 이용하여 차선을 추적하며, 앞 차량의 위치추적을 통해 차선을 추적하는 차선 추적모듈을 더 포함하는 것을 특징으로 하는 경로 안내 서비스를 위한 증강현실 내비게이션 장치.
3. The method of claim 2,
The lane recognition unit may include a real-time detection module that determines a region of interest (ROI) in a next frame using lane information and lane-prior information detected in a previous frame, and performs lane detection only on the determined region of interest; And
Further comprising a lane tracking module for tracking lanes by using particle filtering in successive frames and for tracking lanes through position tracking of the preceding vehicle.
제1항에 있어서,
상기 방향안내표식 생성부는 현재 링크에서 다음 링크로의 방향 전환을 나타내는 제1방향안내표식, 현재 위치로부터 잔여거리가 짧은 순으로 현재 링크 다음에 위치하는 적어도 하나 이상의 링크에 대한 방향안내표식을 생성하는 것을 특징으로 하는 경로 안내 서비스를 위한 증강현실 내비게이션 장치.
The method according to claim 1,
The direction guide landmark generating unit generates a direction guide landmark for at least one or more links located next to the current link in the order of the remaining distance from the current position, Wherein the augmented reality navigation device comprises:
제1항에 있어서,
상기 증강현실 처리부는 방향안내표식의 일정 영역에 해당 잔여거리를 표시하는 것을 특징으로 하는 경로 안내 서비스를 위한 증강현실 내비게이션 장치.
The method according to claim 1,
Wherein the augmented reality processing unit displays the remaining distance in a predetermined region of the directional landmark.
제1항에 있어서,
상기 증강현실 처리부는 현재 링크에 대한 제1방향안내표식과 다음 링크들의 방향안내표식이 잔여거리에 따라 구분되도록 크기, 색상, 명도, 채도 중 적어도 하나를 다르게 하는 것을 특징으로 하는 경로 안내 서비스를 위한 증강현실 내비게이션 장치.
The method according to claim 1,
Wherein the augmented reality processing unit changes at least one of size, color, brightness, and saturation so that the first direction guide mark for the current link and the direction guide mark for the next link are classified according to the remaining distance. Augmented reality navigation device.
제1항에 있어서,
상기 증강현실 처리부는 현재 링크만이 화면상에 표시된 경우, 현재 링크에 대한 제1방향안내표식을 상기 인식된 차선 도로의 중앙에 오버레이하여 표시하고, 다음 링크에 대한 제2방향안내표식을 상기 제1방향안내표식 아래에 오버레이하여 표시하며,
현재 링크와 다음 순서의 링크가 화면상에 표시된 경우, 현재 링크에 대한 제1방향안내표식이 다음 링크 시작지점까지 표시되도록 제1방향안내표식의 길이를 조절하고, 다음 링크에 대한 제2방향안내표식을 제1방향안내표식 아래에 오버레이하여 표시하는 것을 특징으로 하는 경로 안내 서비스를 위한 증강현실 내비게이션 장치.
The method according to claim 1,
The augmented reality processing unit displays a first direction guide mark for the current link overlaid on the center of the recognized lane road and displays a second direction guide mark for the next link on the screen when the current link is displayed on the screen, Overlayed under one-way guide mark,
The length of the first directional landmark is adjusted so that the first directional lander mark for the current link is displayed up to the next link start point when the current link and the next order link are displayed on the screen, Wherein the marker is overlaid under the first direction guide mark and displayed.
증강현실 내비게이션 장치가 경로 안내 서비스를 제공하는 방법에 있어서,
(a) 목적지를 포함하는 경로 안내 명령이 입력된 경우, 촬영부를 구동시켜 차량 전방의 영상을 획득하는 단계;
(b) 상기 획득된 영상을 분석하여 차량이 주행중인 도로의 차선을 인식하는 단계;
(c) 상기 목적지까지 경로를 탐색하고, 상기 경로에 포함된 링크들의 방향 및 거리를 계산하는 단계;
(d) 현재 위치로부터 상기 경로내 각 링크 시작지점까지의 잔여거리에 따라 순서를 고려하여, 해당 링크에서 다음 링크로의 주행 방향을 나타내는 방향안내표식을 생성하는 단계; 및
(e) 상기 생성된 방향안내표식이 상기 인식된 차선의 도로상에 표시되도록, 상기 방향안내표식을 상기 영상에 오버레이하여 화면에 표시하는 단계;를 포함하되,
상기 (b) 단계는, 상기 영상에 소벨(SOBEL) 연산을 수행하여 에지를 검출하고, 기 정의된 함수를 이용하여 상기 에지의 강도와 방향을 구하며, 상기 에지의 강도와 방향을 근거로 차선 후보점을 구하고, 허프변환을 이용하여 구해진 직선중에서 차선 후보점이 없는 직선은 제거하여 차선 후보를 검출하며, 상기 검출된 차선 후보들에 RANSAC 알고리즘을 적용하여 차선 소실점을 구하고, 상기 차선 소실점으로 향하는 차선 후보들을 차량이 주행중인 차선으로 인식하는 것을 특징으로 하는 경로 안내 서비스 방법.
A method for providing a route guidance service by an augmented reality navigation device,
(a) when a route guidance command including a destination is input, driving the photographing unit to acquire an image in front of the vehicle;
(b) analyzing the obtained image to recognize a lane of a road in which the vehicle is traveling;
(c) searching for a route to the destination, calculating directions and distances of the links included in the route;
(d) generating a direction guide landmark indicating a traveling direction from the link to the next link in consideration of the order according to the remaining distance from the current position to each link start point in the route; And
(e) overlaying the directional landmark on the image so that the generated directional landmark is displayed on the road of the recognized lane, and displaying on the screen,
In the step (b), an edge is detected by performing an SOBEL operation on the image, and the intensity and direction of the edge are determined using a predefined function. Based on the strength and direction of the edge, A lane candidate candidate is detected by removing a straight line having no lane candidate point out of the straight lines obtained by using Hough transform, a lane disappearance point is obtained by applying the RANSAC algorithm to the detected lane candidates, and lane candidate candidates directed to the lane disappearing point are obtained And recognizes the route as a lane in which the vehicle is traveling.
제8항에 있어서,
상기 (b) 단계는,
상기 영상을 그레이 영상으로 변환하여 노이즈를 제거하고, 상기 노이즈가 제거된 영상에 소벨(SOBEL) 연산을 수행하여 에지를 검출하며, 기 정의된 함수를 이용하여 상기 에지의 강도와 방향을 구하는 단계;
상기 에지의 강도와 방향이 구해진 영상에서 y값은 고정하고 x값을 증가시키면서 에지의 강도가 임계치를 넘으면서 최대가 되는 점을 찾고, 상기 찾은 점들 중에서 동일한 y축 값을 갖는 두 점을 선택하며, 상기 선택된 두 점간의 거리가 기 정의된 차선의 폭을 만족하는 경우, 두 점에 대한 에지의 강도와 방향을 비교하고, 그 비교결과 에지의 강도가 일정 값 이상 유사하고 방향이 반대인 두 점에 대하여 중심점을 구하여 차선 후보점으로 구하며, 허프변환(Hough transform)을 이용하여 차선 후보를 검출하는 단계; 및
상기 검출된 차선 후보들에 RANSAC 알고리즘을 적용하여 차선 소실점을 구하고, 상기 차선 소실점으로 향하는 차선 후보들을 차량이 주행중인 차선으로 인식하는 단계를 포함하는 것을 특징으로 하는 경로 안내 서비스 방법.
9. The method of claim 8,
The step (b)
Converting the image into a gray image to remove noise, performing an SOBEL operation on the noise-removed image to detect an edge, and obtaining a strength and a direction of the edge using a predefined function;
Wherein a y-value is fixed and an x-value is increased in an image in which the strength and direction of the edge are determined, and a point at which the strength of the edge exceeds the threshold value and becomes the maximum is searched for and two points having the same y-axis value among the searched points are selected. If the distance between the two selected points satisfies the predefined width of the lane, the strength and direction of the edge are compared with each other, and if the intensity of the edge is greater than or equal to a predetermined value, Determining a lane candidate by using a Hough transform; And
Applying the RANSAC algorithm to the detected lane candidates to obtain a lane disappearance point and recognizing the lane candidate for the lane disappearing point as a lane in which the vehicle is driving.
제8항에 있어서,
상기 (d)단계는,
현재 위치로부터 상기 경로내 각 링크 시작지점까지의 잔여거리를 각각 계산하는 단계;
상기 경로내 링크들을 잔여거리가 짧은 순으로 정렬하는 단계; 및
현재 링크에서 다음 링크로의 방향 전환을 나타내는 제1방향안내표식, 상기 정렬된 순으로 현재 링크 다음에 위치하는 적어도 하나 이상의 링크에 대한 방향안내표식을 생성하는 단계를 포함하는 것을 특징으로 하는 경로 안내 서비스 방법.
9. The method of claim 8,
The step (d)
Calculating a remaining distance from a current position to each link start point in the path;
Arranging the links in the path in descending order of the remaining distance; And
A first directional landmark indicating a direction change from a current link to a next link, and a direction guide mark for at least one or more links positioned next to the current link in the ordered order. Service method.
제8항에 있어서,
상기 (e) 단계에서,
현재 링크만이 상기 획득된 영상에 표시된 경우, 현재 링크에 대한 제1방향안내표식을 상기 인식된 차선 도로의 중앙에 오버레이하여 표시하고, 다음 링크에 대한 제2방향안내표식을 상기 제1방향안내표식 아래에 오버레이하여 표시하며,
현재 링크와 다음 순서의 링크가 상기 획득된 영상에 표시된 경우, 현재 링크에 대한 제1방향안내표식이 다음 링크 시작지점까지 표시되도록 제1방향안내표식의 길이를 조절하고, 다음 링크에 대한 제2방향안내표식을 제1방향안내표식 아래에 오버레이하여 표시하는 것을 특징으로 하는 경로 안내 서비스 방법.
9. The method of claim 8,
In the step (e)
When the current link is displayed on the acquired image, a first direction guide mark for the current link is overlaid on the center of the recognized lane road and a second direction guide mark for the next link is displayed on the first direction guide Overlayed under the markers,
The length of the first directional landmark is adjusted so that the first directional lander mark for the current link is displayed up to the next link start point when the current link and the next order link are displayed on the acquired image, And the direction guide mark is overlaid under the first direction guide mark.
제11항에 있어서,
상기 현재 링크에 대한 제1방향안내표식과 다음 링크들의 방향안내표식이 잔여거리에 따라 구분되도록 크기, 색상, 명도, 채도 중 적어도 하나를 다르게 하는 것을 특징으로 하는 경로 안내 서비스 방법.
12. The method of claim 11,
Wherein at least one of size, color, brightness, and saturation is made different so that the first directional indicator for the current link and the directional indicator of the next link are classified according to the remaining distance.
KR1020140167682A 2014-11-27 2014-11-27 Augmented reality navigation apparatus for providing route guide service and method thereof KR101665599B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140167682A KR101665599B1 (en) 2014-11-27 2014-11-27 Augmented reality navigation apparatus for providing route guide service and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140167682A KR101665599B1 (en) 2014-11-27 2014-11-27 Augmented reality navigation apparatus for providing route guide service and method thereof

Publications (2)

Publication Number Publication Date
KR20160063871A KR20160063871A (en) 2016-06-07
KR101665599B1 true KR101665599B1 (en) 2016-10-12

Family

ID=56192934

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140167682A KR101665599B1 (en) 2014-11-27 2014-11-27 Augmented reality navigation apparatus for providing route guide service and method thereof

Country Status (1)

Country Link
KR (1) KR101665599B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109931945A (en) * 2019-04-02 2019-06-25 百度在线网络技术(北京)有限公司 AR air navigation aid, device, equipment and storage medium

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107560622A (en) * 2016-07-01 2018-01-09 板牙信息科技(上海)有限公司 A kind of method and apparatus based on driving image-guidance
KR102098225B1 (en) * 2016-10-27 2020-04-07 에스케이텔레콤 주식회사 Omnidirectional image display apparatus and method
WO2019119359A1 (en) 2017-12-21 2019-06-27 Bayerische Motoren Werke Aktiengesellschaft Method, device and system for displaying augmented reality navigation information
US20220097522A1 (en) * 2019-01-31 2022-03-31 Lg Electronics Inc. Image output device
KR20210126365A (en) * 2020-04-10 2021-10-20 팅크웨어(주) Method, apparatus, electronic device, computer program and computer readable recording medium for detecting lane marking based on vehicle image
US11828615B2 (en) * 2020-08-06 2023-11-28 Thinkware Corporation AR processing device, augmented reality-based route guidance method and electronic device
KR102372811B1 (en) * 2021-02-18 2022-03-11 포티투닷 주식회사 Navigation device, navigation service provision method and navigation service provision server
KR102530532B1 (en) * 2021-03-09 2023-05-09 네이버랩스 주식회사 Method and apparatus for route guidance using augmented reality view

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001141502A (en) * 1999-11-17 2001-05-25 Nippon Seiki Co Ltd Navigation system
KR101271235B1 (en) * 2011-12-12 2013-06-10 자동차부품연구원 Apparatus and method for providing driving imformation

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101094752B1 (en) * 2009-06-30 2011-12-16 호서대학교 산학협력단 Lane Classification Method Using Statistical Model of HSI Color Information
KR20130040361A (en) 2011-10-14 2013-04-24 주식회사 엘지유플러스 Method, server, and recording medium for providing traffic information based on ar navigation
KR20140071174A (en) * 2012-12-03 2014-06-11 현대자동차주식회사 Lane guide device in vehicle and method thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001141502A (en) * 1999-11-17 2001-05-25 Nippon Seiki Co Ltd Navigation system
KR101271235B1 (en) * 2011-12-12 2013-06-10 자동차부품연구원 Apparatus and method for providing driving imformation

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109931945A (en) * 2019-04-02 2019-06-25 百度在线网络技术(北京)有限公司 AR air navigation aid, device, equipment and storage medium

Also Published As

Publication number Publication date
KR20160063871A (en) 2016-06-07

Similar Documents

Publication Publication Date Title
KR101665599B1 (en) Augmented reality navigation apparatus for providing route guide service and method thereof
US8791996B2 (en) Image processing system and position measurement system
JP5760696B2 (en) Image recognition device
RU2667675C1 (en) Device for determining position of vehicle and method for determining position of vehicle
US8428362B2 (en) Scene matching reference data generation system and position measurement system
US8315796B2 (en) Navigation device
US8630461B2 (en) Vehicle position detection system
US10677597B2 (en) Method and system for creating a digital map
US20180090002A1 (en) Display control apparatus, display device, and display control method
CN102032911B (en) Vehicle navigation method, system and computer program product
CN110530372B (en) Positioning method, path determining device, robot and storage medium
KR20200030305A (en) Learning data generation method for image processing, image processing method, and apparatus thereof
JP2012220489A (en) Windshield display device for road guidance information and method therefor
US9410818B2 (en) Navigation device
US20200109962A1 (en) Method and system for generating navigation data for a geographical location
JP6415583B2 (en) Information display control system and information display control method
JP2014181927A (en) Information provision device, and information provision program
JP2018040693A (en) Driving support device and driving support method
KR20200045696A (en) Method and apparatus of determining driving information
US9791287B2 (en) Drive assist system, method, and program
KR101519277B1 (en) Apparatus and Method for Recognize of Drive Way of Vehicle
JP2004265432A (en) Travel environment recognition device
KR101281629B1 (en) Driving guidance system using sensors
JP2014160031A (en) Traveling guide system, traveling guide method and computer program
JP2009109341A (en) Own-vehicle position recognizer, own-vehicle position recognition program, and navigation apparatus using the same

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190926

Year of fee payment: 4