KR20210010935A - Electronic apparatus, control method of electronic apparatus and computer readable recording medium - Google Patents

Electronic apparatus, control method of electronic apparatus and computer readable recording medium Download PDF

Info

Publication number
KR20210010935A
KR20210010935A KR1020210001357A KR20210001357A KR20210010935A KR 20210010935 A KR20210010935 A KR 20210010935A KR 1020210001357 A KR1020210001357 A KR 1020210001357A KR 20210001357 A KR20210001357 A KR 20210001357A KR 20210010935 A KR20210010935 A KR 20210010935A
Authority
KR
South Korea
Prior art keywords
screen
vehicle
lane
data
visual object
Prior art date
Application number
KR1020210001357A
Other languages
Korean (ko)
Other versions
KR102299501B1 (en
Inventor
조호형
차민규
Original Assignee
팅크웨어(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020140068239A external-priority patent/KR20150140449A/en
Application filed by 팅크웨어(주) filed Critical 팅크웨어(주)
Priority to KR1020210001357A priority Critical patent/KR102299501B1/en
Publication of KR20210010935A publication Critical patent/KR20210010935A/en
Application granted granted Critical
Publication of KR102299501B1 publication Critical patent/KR102299501B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/22
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/10Path keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18163Lane change; Overtaking manoeuvres
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • G06K9/00798
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • B60K2360/347
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/42Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/08Predicting or avoiding probable or impending collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/18Propelling the vehicle
    • B60Y2300/18008Propelling the vehicle related to particular drive situations
    • B60Y2300/18166Overtaking, changing lanes

Abstract

Disclosed is a method for controlling an electronic device for generating an indicator for driving-related guidance that assists in driving a vehicle and displaying the generated indicator on a predetermined area of a road guidance screen. According to the present invention, the control method comprises the steps of: generating information for performing driving-related guidance that assists driving of a vehicle; generating an indicator for driving-related guidance using the generated information; and overlapping the generated indicator on a predetermined area of a road guidance screen.

Description

전자 장치, 전자 장치의 제어 방법 및 컴퓨터 판독 가능한 기록 매체{ELECTRONIC APPARATUS, CONTROL METHOD OF ELECTRONIC APPARATUS AND COMPUTER READABLE RECORDING MEDIUM}Electronic device, control method of electronic device, and computer-readable recording medium TECHNICAL FIELD [ELECTRONIC APPARATUS, CONTROL METHOD OF ELECTRONIC APPARATUS AND COMPUTER READABLE RECORDING MEDIUM}

본 발명은 전자 장치, 전자 장치의 제어 방법 및 컴퓨터 판독 가능한 기록 매체에 관한 것으로, 보다 상세하게는 차량의 운전을 보조하기 위한 운전 관련 안내를 수행하는 전자 장치, 전자 장치의 제어 방법 및 컴퓨터 판독 가능한 기록 매체에 관한 것이다. The present invention relates to an electronic device, a control method of the electronic device, and a computer-readable recording medium, and more particularly, an electronic device that performs driving-related guidance for assisting the driving of a vehicle, a control method of the electronic device, and a computer-readable recording medium. It relates to recording media.

차량의 주행 시 가장 중요한 것은 안전 주행 및 교통 사고의 예방이며, 이를 위해 차량의 자세 제어, 차량 구성장치들의 기능 제어 등을 수행하는 다양한 보조장치 및 안전 벨트, 에어백 등의 안전장치가 차량에 장착되어 있다.The most important thing when driving a vehicle is safe driving and the prevention of traffic accidents.To this end, various auxiliary devices that perform the vehicle's attitude control and function control of vehicle components, and safety devices such as seat belts and airbags are installed on the vehicle. have.

뿐만 아니라, 최근에는 블랙박스 등과 같이 차량에 위치하여 차량의 주행 영상 및 각종 센서들로부터 전송되는 데이터를 저장함으로써, 차량이 사고 발생시 차량의 사고 원인을 규명하는 장치들도 차량에 구비되는 추세이다. 스마트폰, 태블릿과 같은 휴대용 단말기들도 블랙박스 또는 네비게이션 어플리케이션 등이 탑재 가능하여 이와 같은 차량용 장치로 활용되고 있는 실정이다.In addition, recently, devices such as a black box that are located in a vehicle and store driving images of the vehicle and data transmitted from various sensors are being provided in vehicles to identify the cause of an accident in the vehicle when an accident occurs. Portable terminals such as smartphones and tablets can also be equipped with a black box or a navigation application, and thus are used as such a vehicle device.

그러나, 현재 이와 같은 차량용 장치들에서의 주행 영상 활용도는 낮은 실정이다. 보다 구체적으로 현재 차량에 장착된 카메라와 같은 비젼 센서를 통해 차량의 주행 영상을 획득하더라도 차량의 전자 장치는 이를 단순히 표시, 전송하거나, 차선 이탈 여부 등과 같은 간단한 주변 알림 정보만을 생성하는데 그치고 있다.However, currently, the utilization of driving images in such vehicle devices is low. More specifically, even if a driving image of the vehicle is acquired through a vision sensor such as a camera currently mounted on the vehicle, the electronic device of the vehicle simply displays and transmits the driving image, or only generates simple surrounding notification information such as whether or not a lane is departed.

또한, 현재 새로이 대두되는 차량의 전자 장치로서 HUD(Head Up Display)나, 증강 현실 인터페이스도 제안되고 있으나 여기에서도 차량의 주행 영상의 활용도는 단순 디스플레이 또는 간단한 알림 정보 생성에 그치고 있다.In addition, a HUD (Head Up Display) or an augmented reality interface has also been proposed as an emerging electronic device of a vehicle, but the utilization of the driving image of the vehicle is limited to simple display or simple notification information generation.

본 발명의 상술한 문제점을 해결하기 위해 안출된 것으로, 본 발명의 목적은 차량의 운전을 보조하는 운전 관련 안내를 위한 인디케이터를 생성하고, 생성된 인디케이터를 길 안내 화면의 소정 영역에 표시하는 전자 장치, 전자 장치의 제어 방법 및 컴퓨터 판독 가능한 기록 매체를 제공함에 있다.It was conceived to solve the above-described problems of the present invention, and an object of the present invention is an electronic device that generates an indicator for driving-related guidance that assists the driving of a vehicle, and displays the generated indicator in a predetermined area of a road guidance screen , To provide a method for controlling an electronic device and a computer-readable recording medium.

상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 전자 장치의 제어 방법은, 차량의 운전을 보조하는 운전 관련 안내를 수행하기 위한 정보를 생성하는 단계, 상기 생성된 정보를 이용하여 상기 운전 관련 안내를 위한 인디케이터를 생성하는 단계 및 상기 생성된 인디케이터를 길 안내 화면의 소정 영역에 겹쳐서 표시하는 단계를 포함한다.A method of controlling an electronic device according to an embodiment of the present invention for achieving the above object comprises the steps of generating information for performing a driving-related guide that assists driving of a vehicle, and the driving by using the generated information. And generating an indicator for a related guide, and displaying the generated indicator overlaid on a predetermined area of a road guide screen.

그리고, 상기 운전 관련 안내를 수행하기 위한 정보를 생성하는 단계는, 신호등의 신호 종류 정보, 상기 차량이 위치한 차로에 대한 차선 정보, 상기 차량이 위치한 차로의 위치 정보, 상기 차량의 전방에 위치한 다른 차량 과의 거리 정보, 상기 길 안내를 위한 경로 정보 중 적어도 하나를 포함하는 운전 관련 안내를 수행하기 위한 정보를 생성할 수 있다.In addition, the generating of the information for performing the driving-related guide includes signal type information of a traffic light, lane information on a lane in which the vehicle is located, location information on a lane in which the vehicle is located, and another vehicle located in front of the vehicle. Information for performing driving-related guidance including at least one of distance information and route information for guiding the road may be generated.

또한, 상기 생성된 정보를 이용하여 상기 차량의 운전을 보조하는 차선 이탈 안내, 전방 차량 추돌 방지 안내, 신호등의 신호 변경 안내, 차로 변경 안내, 차선 이탈 안내 중 안내가 필요한 항목을 결정하는 단계를 더 포함할 수 있다. In addition, the step of determining an item requiring guidance among lane departure guidance, forward vehicle collision prevention guidance, signal change guidance of a traffic light, lane change guidance, and lane departure guidance using the generated information Can include.

그리고, 상기 길 안내 화면은, 증강 현실(Augmented Reality: AR) 길 안내 화면일 수 있다.In addition, the route guidance screen may be an Augmented Reality (AR) route guidance screen.

또한, 상기 인디케이터는, 상기 전방 차량 추돌 방지 안내를 수행하는 제1 영역, 상기 제1 영역의 좌우측에 위치하고 상기 차선 이탈 안내를 수행하는 제2 영역, 상기 제1, 제2 영역의 상단에 위치하고 상기 신호 변경 안내를 수행하는 제3 영역, 상기 제2 영역을 관통하고 상기 차로 변경 안내를 수행하는 제4 영역을 포함할 수 있다.In addition, the indicator may include a first area for performing the front vehicle collision prevention guidance, a second area located on the left and right sides of the first area, and a second area for performing the lane departure guidance, and located at an upper end of the first and second areas and the A third area for performing signal change guidance, and a fourth area passing through the second area and performing change guidance for the lane may be included.

그리고, 상기 인디케이터는, 상기 전방 차량 추돌 방지 안내를 수행하는 제1 영역, 상기 제1 영역의 상단에 위치하고 상기 신호 변경 안내를 수행하는 제3 영역, 상기 차로 변경 안내를 수행하는 제4 영역을 포함하고, 상기 차선 이탈 안내를 위한 제2 영역은 상기 증강 현실 길 안내 화면의 차선 부분에 위치할 수 있다.In addition, the indicator includes a first area for performing the front vehicle collision prevention guidance, a third area positioned at an upper end of the first area for performing the signal change guidance, and a fourth area for performing the lane change guidance. And, the second area for guiding the lane departure may be located in the lane portion of the augmented reality road guidance screen.

또한, 상기 인디케이터를 생성하는 단계는, 상기 복수의 영역 중 상기 안내가 필요한 항목에 대응되는 영역을 활성화시킨 인디케이터를 생성할 수 있다.In addition, the generating of the indicator may generate an indicator in which an area corresponding to the item requiring guidance is activated among the plurality of areas.

그리고, 차량의 운전 관련 영상 데이터에서 소실점(Vanishing point)을 결정하는 단계 및 상기 결정된 소실점을 기초로 상기 증강 현실 길 안내 화면에서 상기 인디케이터가 표시될 소정 영역을 결정하는 단계를 더 포함할 수 있다.The method may further include determining a vanishing point from image data related to driving of the vehicle, and determining a predetermined area in which the indicator is to be displayed on the augmented reality road guide screen based on the determined vanishing point.

또한, 상기 인디케이터가 표시될 소정 영역을 결정하는 단계는, 상기 결정된 소실점으로부터 소정 거리 위에 위치한 영역을 상기 인디케이터가 표시될 소정 영역으로 결정할 수 있다.In addition, in the determining of a predetermined area on which the indicator is to be displayed, an area located above the determined vanishing point may be determined as a predetermined area on which the indicator is to be displayed.

한편, 상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 전자 장치는, 화면을 표시하는 디스플레이부, 차량의 운전을 보조하는 운전 관련 안내를 수행하기 위한 정보를 생성하는 안내 관련 정보 생성부, 상기 생성된 정보를 이용하여 상기 운전 관련 안내를 위한 인디케이터를 생성하는 인디케이터 생성부 및 상기 생성된 인디케이터를 길 안내 화면의 소정 영역에 겹쳐서 표시하도록 상기 디스플레이부를 제어하는 제어부를 포함한다.Meanwhile, an electronic device according to an embodiment of the present invention for achieving the above object includes a display unit for displaying a screen, and a guide-related information generation unit for generating information for performing a driving-related guide that assists driving of a vehicle. And an indicator generating unit generating an indicator for driving-related guidance using the generated information, and a control unit controlling the display unit to overlap and display the generated indicator on a predetermined area of a road guidance screen.

그리고, 상기 안내 관련 정보 생성부는, 신호등의 신호 종류 정보, 상기 차량이 위치한 차로에 대한 차선 정보, 상기 차량이 위치한 차로의 위치 정보, 상기 차량의 전방에 위치한 다른 차량 과의 거리 정보, 상기 길 안내를 위한 경로 정보 중 적어도 하나를 포함하는 운전 관련 안내를 수행하기 위한 정보를 생성할 수 있다.In addition, the guide-related information generation unit includes signal type information of a traffic light, lane information on a lane in which the vehicle is located, location information on a lane in which the vehicle is located, distance information from another vehicle located in front of the vehicle, and the road guidance Information for performing driving-related guidance including at least one of the route information for may be generated.

또한, 상기 안내 관련 정보 생성부는, 상기 생성된 정보를 이용하여 상기 차량의 운전을 보조하는 차선 이탈 안내, 전방 차량 추돌 방지 안내, 신호등의 신호 변경 안내, 차로 변경 안내, 차선 이탈 안내 중 안내가 필요한 항목을 결정할 수 있다.In addition, the guide-related information generation unit may use the generated information to guide the lane departure to assist the driving of the vehicle, guide the front vehicle collision prevention, guide the signal change of the traffic light, guide the lane change, and guide the lane departure guide. Items can be decided.

그리고, 상기 길 안내 화면은, 증강 현실(Augmented Reality: AR) 길 안내 화면일 수 있다.In addition, the route guidance screen may be an Augmented Reality (AR) route guidance screen.

또한, 상기 인디케이터는, 상기 전방 차량 추돌 방지 안내를 수행하는 제1 영역, 상기 제1 영역의 좌우측에 위치하고 상기 차선 이탈 안내를 수행하는 제2 영역, 상기 제1, 제2 영역의 상단에 위치하고 상기 신호 변경 안내를 수행하는 제3 영역, 상기 제2 영역을 관통하고 상기 차로 변경 안내를 수행하는 제4 영역을 포함할 수 있다.In addition, the indicator may include a first area for performing the front vehicle collision prevention guidance, a second area located on the left and right sides of the first area, and a second area for performing the lane departure guidance, and located at an upper end of the first and second areas and the A third area for performing signal change guidance, and a fourth area passing through the second area and performing change guidance for the lane may be included.

그리고, 상기 인디케이터는, 상기 전방 차량 추돌 방지 안내를 수행하는 제1 영역, 상기 제1 영역의 상단에 위치하고 상기 신호 변경 안내를 수행하는 제3 영역, 상기 차로 변경 안내를 수행하는 제4 영역을 포함하고, 상기 차선 이탈 안내를 위한 제2 영역은 상기 증강 현실 길 안내 화면의 차선 부분에 위치할 수 있다.In addition, the indicator includes a first area for performing the front vehicle collision prevention guidance, a third area positioned at an upper end of the first area for performing the signal change guidance, and a fourth area for performing the lane change guidance. And, the second area for guiding the lane departure may be located in the lane portion of the augmented reality road guidance screen.

또한, 상기 인디케이터 생성부는, 상기 복수의 영역 중 상기 안내가 필요한 항목에 대응되는 영역을 활성화시킨 인디케이터를 생성할 수 있다.In addition, the indicator generator may generate an indicator in which an area corresponding to an item requiring guidance among the plurality of areas is activated.

그리고, 상기 인디케이터 생성부는, 차량의 운전 관련 영상 데이터에서 결정된 소실점(Vanishing point)을 기초로 상기 증강 현실 길 안내 화면에서 상기 인디케이터가 표시될 소정 영역을 결정할 수 있다.In addition, the indicator generator may determine a predetermined area in which the indicator is to be displayed on the augmented reality road guidance screen based on a vanishing point determined from image data related to driving of the vehicle.

또한, 상기 인디케이터 생성부는, 상기 결정된 소실점으로부터 소정 거리 위에 위치한 영역을 상기 인디케이터가 표시될 소정 영역으로 결정할 수 있다.In addition, the indicator generator may determine an area located above a predetermined distance from the determined vanishing point as a predetermined area in which the indicator is to be displayed.

한편, 상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 컴퓨터 판독 가능한 기록 매체는, 상술한 제어 방법을 컴퓨터에서 실행시키기 위한 프로그램 코드가 기록될 수 있다.Meanwhile, in a computer-readable recording medium according to an embodiment of the present invention for achieving the above object, a program code for executing the above-described control method in a computer may be recorded.

상술한 본 발명의 다양한 실시 예에 따르면, 차선 이탈 안내, 전방 차량 추돌 방지 안내, 신호등의 신호 변경 안내, 차로 변경 안내, 차선 이탈 안내 등과 같은 운전 관련 안내를 수행할 수 있다. 이에 따라, 차량에 대한 운전자의 안전 운전 및 편의성을 도모할 수 있다.According to various embodiments of the present disclosure described above, driving related guidance such as lane departure guidance, front vehicle collision prevention guidance, signal change guidance of a traffic light, lane change guidance, and lane departure guidance may be performed. Accordingly, the driver's safe driving and convenience for the vehicle can be promoted.

또한, 상술한 본 발명의 다양한 실시 예에 따르면, 인디케이터 내에서 복수의 안내 영역 각각의 위치를 도로 상황에 대응되게 디자인함으로써, 운전자에게 보다 직관적인 방법으로 안내를 제공할 수 있다. Further, according to various embodiments of the present disclosure described above, by designing the positions of each of the plurality of guide areas within the indicator to correspond to the road situation, it is possible to provide guidance to the driver in a more intuitive manner.

또한, 상술한 본 발명의 다양한 실시 예에 따르면 증강 현실(Augmented Reality: AR) 길 안내 화면에 운전 관련 안내를 위한 인디케이터를 겹쳐서 표시함으로써, 운전자에게 보다 직관적인 방법으로 안내를 제공할 수 있다. In addition, according to various embodiments of the present disclosure, by superimposing an indicator for driving-related guidance on an augmented reality (AR) route guidance screen, guidance may be provided to the driver in a more intuitive manner.

또한, 상술한 본 발명의 다양한 실시 예에 따르면, 증강 현실(Augmented Reality: AR) 길 안내 화면에 표시되는 인디케이터의 위치를 소실점으로부터 소정 거리 위체 위치한 영역에 위치시킴으로써, 운전자에게 보다 직관적인 방법으로 안내를 제공할 수 있다. In addition, according to various embodiments of the present invention described above, the position of the indicator displayed on the augmented reality (AR) route guidance screen is positioned in an area located above a predetermined distance from the vanishing point, thereby guiding the driver in a more intuitive manner. Can provide.

도 1은 본 발명의 일 실시 예에 따른 전자 장치를 나타내는 블록도 이다.
도 2는 본 발명의 일 실시 예에 따른 안내 관련 정보 생성부를 구체적으로 나타내는 블록도 이다.
도 3은 본 발명의 일 실시 예에 따른 전자 장치와 연결된 시스템 네트워크를 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시 예에 따른 신호 종류 정보 생성 동작을 나타내는 흐름도 이다.
도 5는 본 발명의 일 실시 예에 따른 정지 신호에 대응되는 관심 영역 영상 데이터 및 정지 신호 판단 방법을 나타내는 도면이다.
도 6은 본 발명의 일 실시 예에 따른 차선 정보 생성 방법을 나타내는 흐름도 이다.
도 7은 본 발명의 일 실시 예에 따른 그레이 영상에서의 차선 종류 관심 영역 이진화 및 1차원 매핑을 나타내는 도면이다.
도 8은 본 발명의 일 실시 예에 따른 차로 위치 정보 생성 방법을 구체적으로 나타내는 흐름도 이다.
도 9은 본 발명의 일 실시 예에 따른 차로 결정 테이블을 나타내는 도면이다.
도 10은 본 발명의 일 실시 예에 따른 전자 장치의 제어 방법을 구체적으로 나타내는 흐름도 이다.
도 11은 본 발명의 일 실시 예에 따른 전자 장치의 제어 방법을 구체적으로 나타내는 흐름도 이다.
도 12는 본 발명의 일 실시 예에 따른 인디케이터를 나타내는 도면이다.
도 13은 본 발명의 일 실시 예에 따른 신호 변경 안내 및 전방 차량 추돌 방지 안내를 위한 인디케이터를 나타내는 도면이다.
도 14는 본 발명의 일 실시 예에 따른 전방 차량 추돌 방지 안내를 위한 인디케이터를 나타내는 도면이다.
도 15는 본 발명의 일 실시 예에 따른 차로 변경 안내를 위한 인디케이터를 나타내는 도면이다.
도 16은 본 발명의 일 실시 예에 따른 차선 이탈 방지 안내 및 전방 차량 추돌 방지 안내를 위한 인디케이터를 나타내는 도면이다.
도 17은 본 발명의 일 실시 예에 따른 길 안내 화면을 나타내는 도면이다.
도 18은 본 발명의 다른 실시 예에 따른 길 안내 화면을 나타내는 도면이다.
도 19는 본 발명의 일 실시 예에 따른 카메라와 전자 장치가 분리형이 경우 구현 형태를 나타내는 도면이다.
도 20은 본 발명의 일 실시 예에 따른 카메라와 전자 장치가 일체형인 경우 구현 형태를 나타내는 도면이다.
도 21은 본 발명의 일 실시 예에 따른 HUD(Head-Up Display) 및 전자 장치를 이용한 구현 형태를 나타내는 도면이다.
1 is a block diagram illustrating an electronic device according to an embodiment of the present invention.
2 is a block diagram specifically showing a guide-related information generation unit according to an embodiment of the present invention.
3 is a diagram illustrating a system network connected to an electronic device according to an embodiment of the present invention.
4 is a flowchart illustrating an operation of generating signal type information according to an embodiment of the present invention.
5 is a diagram illustrating a method of determining ROI image data and a stop signal corresponding to a stop signal according to an embodiment of the present invention.
6 is a flowchart illustrating a method of generating lane information according to an embodiment of the present invention.
7 is a diagram illustrating a lane type ROI binarization and one-dimensional mapping in a gray image according to an embodiment of the present invention.
8 is a detailed flowchart illustrating a method of generating location information on a lane according to an embodiment of the present invention.
9 is a diagram illustrating a difference determination table according to an embodiment of the present invention.
10 is a detailed flowchart illustrating a method of controlling an electronic device according to an embodiment of the present invention.
11 is a detailed flowchart illustrating a method of controlling an electronic device according to an embodiment of the present invention.
12 is a diagram illustrating an indicator according to an embodiment of the present invention.
13 is a diagram illustrating an indicator for a signal change guide and a front vehicle collision prevention guide according to an embodiment of the present invention.
14 is a diagram illustrating an indicator for guiding a front vehicle collision prevention according to an embodiment of the present invention.
15 is a diagram illustrating an indicator for guiding a lane change according to an embodiment of the present invention.
16 is a diagram illustrating an indicator for a lane departure prevention guidance and a front vehicle collision prevention guidance according to an embodiment of the present invention.
17 is a diagram illustrating a route guidance screen according to an embodiment of the present invention.
18 is a diagram illustrating a road guidance screen according to another embodiment of the present invention.
19 is a diagram illustrating an implementation form when a camera and an electronic device are separated according to an embodiment of the present invention.
20 is a diagram illustrating an implementation form when a camera and an electronic device are integrated according to an embodiment of the present invention.
21 is a diagram illustrating an implementation form using a head-up display (HUD) and an electronic device according to an embodiment of the present invention.

이하의 내용은 단지 본 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만 본 발명의 원리를 구현하고 본 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시 예들은 원칙적으로, 본 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시 예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다.The following content merely illustrates the principles of the present invention. Therefore, those skilled in the art can implement the principles of the present invention and invent various devices included in the concept and scope of the present invention, although not clearly described or illustrated herein. In addition, all conditional terms and examples listed in this specification are, in principle, intended to be clearly intended only for the purpose of making the concept of the present invention understood, and should be understood as not limiting to the embodiments and states specifically listed as described above. do.

또한, 본 발명의 원리, 관점 및 실시 예들 뿐만 아니라 특정 실시 예를 열거하는 모든 상세한 설명은 이러한 사항의 구조적 및 기능적 균등물을 포함하도록 의도되는 것으로 이해되어야 한다. 또한 이러한 균등물들은 현재 공지된 균등물뿐만 아니라 장래에 개발될 균등물 즉 구조와 무관하게 동일한 기능을 수행하도록 발명된 모든 소자를 포함하는 것으로 이해되어야 한다.In addition, it is to be understood that all detailed descriptions listing specific embodiments as well as principles, aspects and embodiments of the present invention are intended to include structural and functional equivalents of these matters. It should also be understood that these equivalents include not only currently known equivalents, but also equivalents to be developed in the future, that is, all devices invented to perform the same function regardless of structure.

따라서, 예를 들어, 본 명세서의 블럭도는 본 발명의 원리를 구체화하는 예시적인 회로의 개념적인 관점을 나타내는 것으로 이해되어야 한다. 이와 유사하게, 모든 흐름도, 상태 변환도, 의사 코드 등은 컴퓨터가 판독 가능한 매체에 실질적으로 나타낼 수 있고 컴퓨터 또는 프로세서가 명백히 도시되었는지 여부를 불문하고 컴퓨터 또는 프로세서에 의해 수행되는 다양한 프로세스를 나타내는 것으로 이해되어야 한다.Thus, for example, the block diagrams herein are to be understood as representing a conceptual perspective of exemplary circuits embodying the principles of the invention. Similarly, all flowcharts, state transition diagrams, pseudocodes, etc. are understood to represent various processes performed by a computer or processor, whether or not the computer or processor is clearly depicted and that can be represented substantially in a computer-readable medium. Should be.

프로세서 또는 이와 유사한 개념으로 표시된 기능 블럭을 포함하는 도면에 도시된 다양한 소자의 기능은 전용 하드웨어뿐만 아니라 적절한 소프트웨어와 관련하여 소프트웨어를 실행할 능력을 가진 하드웨어의 사용으로 제공될 수 있다. 프로세서에 의해 제공될 때, 상기 기능은 단일 전용 프로세서, 단일 공유 프로세서 또는 복수의 개별적 프로세서에 의해 제공될 수 있고, 이들 중 일부는 공유될 수 있다.The functions of the various elements shown in the figures, including a processor or functional block represented by a similar concept, may be provided by the use of dedicated hardware as well as hardware having the ability to execute software in association with appropriate software. When provided by a processor, the function may be provided by a single dedicated processor, a single shared processor, or a plurality of individual processors, some of which may be shared.

또한 프로세서, 제어 또는 이와 유사한 개념으로 제시되는 용어의 명확한 사용은 소프트웨어를 실행할 능력을 가진 하드웨어를 배타적으로 인용하여 해석되어서는 아니되고, 제한 없이 디지털 신호 프로세서(DSP) 하드웨어, 소프트웨어를 저장하기 위한 롬(ROM), 램(RAM) 및 비 휘발성 메모리를 암시적으로 포함하는 것으로 이해되어야 한다. 주지관용의 다른 하드웨어도 포함될 수 있다.In addition, the explicit use of terms presented as processor, control, or similar concepts should not be interpreted exclusively by referring to hardware capable of executing software, and without limitation, digital signal processor (DSP) hardware, ROM for storing software. It should be understood to implicitly include (ROM), RAM, and non-volatile memory. Other commonly used hardware may also be included.

본 명세서의 청구범위에서, 상세한 설명에 기재된 기능을 수행하기 위한 수단으로 표현된 구성요소는 예를 들어 상기 기능을 수행하는 회로 소자의 조합 또는 펌웨어/마이크로 코드 등을 포함하는 모든 형식의 소프트웨어를 포함하는 기능을 수행하는 모든 방법을 포함하는 것으로 의도되었으며, 상기 기능을 수행하도록 상기 소프트웨어를 실행하기 위한 적절한 회로와 결합된다. 이러한 청구범위에 의해 정의되는 본 발명은 다양하게 열거된 수단에 의해 제공되는 기능들이 결합되고 청구항이 요구하는 방식과 결합되기 때문에 상기 기능을 제공할 수 있는 어떠한 수단도 본 명세서로부터 파악되는 것과 균등한 것으로 이해되어야 한다.In the claims of this specification, components expressed as means for performing the functions described in the detailed description include all types of software including, for example, a combination of circuit elements or firmware/microcode that perform the above functions. It is intended to include all methods of performing a function to perform the function, and is combined with suitable circuitry for executing the software to perform the function. Since the invention defined by these claims is combined with the functions provided by the various enumerated means and combined with the manner required by the claims, any means capable of providing the above functions are equivalent to those conceived from this specification. It should be understood as.

상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해질 것이며, 그에 따라 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. The above-described objects, features, and advantages will become more apparent through the following detailed description in connection with the accompanying drawings, whereby those of ordinary skill in the technical field to which the present invention pertains can easily implement the technical idea of the present invention. There will be. In addition, in describing the present invention, when it is determined that a detailed description of a known technology related to the present invention may unnecessarily obscure the subject matter of the present invention, a detailed description thereof will be omitted.

이하, 첨부된 도면을 참조하여 본 발명의 다양한 실시 예를 상세히 설명하기로 한다.Hereinafter, various embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시 예에 따른 전자 장치를 나타내는 블록도 이다. 도 1을 참조하면, 전자 장치(100)는 저장부(110), 입력부(120), 출력부(130), 안내 관련 정보 생성부(140), 인디케이터 생성부(150), 증강 현실 제공부(160), 제어부(170), 통신부(180), 센싱부(190)의 전부 또는 일부를 포함한다.1 is a block diagram illustrating an electronic device according to an embodiment of the present invention. Referring to FIG. 1, the electronic device 100 includes a storage unit 110, an input unit 120, an output unit 130, a guide-related information generation unit 140, an indicator generation unit 150, an augmented reality providing unit ( 160), the control unit 170, the communication unit 180, and all or part of the sensing unit 190.

여기서, 전자 장치(100)는 차량 운전자에게 운전 관련 안내를 제공할 수 있는 스마트 폰, 태블릿 컴퓨터, 노트북 컴퓨터, PDA(personal digital assistant), PMP(portable multimedia player), 스마트 글래스, 프로젝트 글래스, 내비게이션(navigation), 블랙 박스(Black-box) 등과 같은 다양한 장치로 구현될 수 있다. Here, the electronic device 100 includes a smart phone, a tablet computer, a notebook computer, a personal digital assistant (PDA), a portable multimedia player (PMP), a smart glass, a project glass, and a navigation system that can provide driving-related guidance to the vehicle driver. navigation), black-box, and the like.

여기서, 차량의 운전 상태는, 차량의 정차 상태, 차량의 주행 상태, 차량의 주차 상태 등과 같이 차량이 운전자에 의하여 운전되고 있는 다양한 상태를 포함할 수 있다. Here, the driving state of the vehicle may include various states in which the vehicle is being driven by the driver, such as a stopped state of the vehicle, a driving state of the vehicle, and a parking state of the vehicle.

운전 관련 안내는 길 안내, 차선 이탈 안내, 신호 안내, 신호 변경 안내, 전방 차량 추돌 방지 안내, 차로 변경 안내, 차로 안내, 차로 변경 안내 등과 같이 차량 운전자의 운전을 보조하기 위한 다양한 안내를 포함할 수 있다. Driving-related guidance may include various guidance to assist the driver of the vehicle, such as directions, lane departure guidance, signal guidance, signal change guidance, forward vehicle collision prevention guidance, lane change guidance, lane guidance, and lane change guidance. have.

여기서, 길 안내는, 운전 중인 차량의 전방을 촬영한 영상에 사용자의 위치, 방향 등과 같은 각종 정보를 결합하여 길 안내를 수행하는 증강 현실 길 안내, 및 2D(2-Dimensional) 또는 3D(3-Dimensional)의 지도 데이터에 사용자의 위치, 방향 등과 같은 각종 정보를 결합하여 길 안내를 수행하는 2D(2-Dimensional) 또는 3D(3-Dimensional) 길 안내를 포함할 수 있다. 여기서, 길 안내는, 사용자가 차량에 탑승하여 운전하는 경우 뿐만 아니라, 사용자가 걷거나 뛰어서 이동하는 경우의 길 안내도 포함하는 개념으로 해석될 수 있다. Here, the route guidance is an augmented reality route guidance that performs route guidance by combining various information such as a user's location and direction with an image photographed in front of a driving vehicle, and 2-Dimensional (2-D) or 3-D (3- A 2D (2-Dimensional) or 3D (3-Dimensional) road guidance may be included in which various information such as a user's location and direction is combined with the map data of Dimensional). Here, the route guidance may be interpreted as a concept including not only a case where a user rides on a vehicle and drives, but also a case where a user walks or runs and moves.

또한, 차선 이탈 안내는, 주행 중인 차량이 차선을 이탈하였는지 여부를 안내하는 것일 수 있다. In addition, the lane departure guidance may be a guide to whether a vehicle being driven has deviated from a lane.

또한, 전방 차량 추돌 방지 안내는 정차 또는 주행 중인 차량의 전방에 위치한 차량과의 거리가 일정 거리 이내가 되면 전방 차량과 추돌을 방지하기 위해 이를 안내하는 것일 수 있다. 여기서, 전방 차량 추돌 방지 안내는 정차 중인 차량의 전방에 위치한 차량의 출발 여부를 안내하는 전방 차량 출발 안내를 포함하는 개념일 수 있다. In addition, the front vehicle collision prevention guide may be a guide to prevent a collision with the vehicle in front when the distance between the vehicle stopped or the vehicle located in front of the vehicle being driven is within a predetermined distance. Here, the front vehicle collision prevention guide may be a concept including a front vehicle departure guide for guiding whether a vehicle located in front of the vehicle being stopped starts.

또한, 신호 안내는, 운전 중인 차량의 전방에 위치한 신호등의 신호 상태, 예를 들어, 정지 신호, 직진 신호, 좌회전 신호, 우회전 신호 등을 안내하는 것일 수 있다. 여기서, 각각의 신호에 대응되는 색상 및 형태는 국가 별로 상이할 수 있다. 한국의 경우, 정지 신호는 적색원, 직진 신호는 청색원, 좌회전 신호는 청색 좌측 화살표, 우회전 신호는 청색 우측 화살표일 수 있다.Further, the signal guidance may be guiding a signal state of a traffic light located in front of the vehicle being driven, for example, a stop signal, a straight signal, a left turn signal, a right turn signal, and the like. Here, the color and shape corresponding to each signal may be different for each country. In Korea, a stop signal may be a red circle, a straight signal may be a blue circle, a left turn signal may be a blue left arrow, and a right turn signal may be a blue right arrow.

또한, 신호 변경 안내는, 운전 중인 차량의 전방에 위치한 신호등의 신호 상태가 변경되었음을 안내하는 것일 수 있다. 일 예로, 정지 신호에서 직진 신호로 변경되면, 이를 안내하는 것 일 수 있다. In addition, the signal change guidance may inform that a signal state of a traffic light located in front of the driving vehicle has changed. For example, when a stop signal is changed to a straight signal, it may be guided.

또한, 차로 변경 안내는 목적지까지의 경로 안내를 위하여 차량이 위치한 차로에서 다른 차로로 변경을 안내하는 것일 수 있다. In addition, the lane change guidance may guide a change from a lane in which a vehicle is located to another lane in order to guide a route to a destination.

또한, 차로 안내는 차량이 현재 위치한 차로를 안내하는 것일 수 있다. Also, the lane guidance may be guiding a lane in which the vehicle is currently located.

이러한, 다양한 안내의 제공을 가능하게 하는 운전 관련 영상은 차량의 전방을 향하여 거치된 카메라에서 실시간 촬영될 수 있다. 여기서 카메라는 차량에 거치된 전자 장치(100)와 일체로 형성되어 차량의 전방을 촬영하는 카메라일 수 있다. 이 경우, 카메라는 스마트 폰, 내비게이션, 또는 블랙 박스와 일체로 형성될 수 있고, 전자 장치(100)는 일체로 형성된 카메라에서 촬영된 영상을 입력받을 수 있다.Such a driving-related image enabling the provision of various guides may be captured in real time by a camera mounted toward the front of the vehicle. Here, the camera may be a camera formed integrally with the electronic device 100 mounted on the vehicle to photograph the front of the vehicle. In this case, the camera may be integrally formed with a smart phone, a navigation system, or a black box, and the electronic device 100 may receive an image captured by the integrally formed camera.

다른 예로, 카메라는 전자 장치(100)와 별개로 차량에 거치되어 차량의 전방을 촬영하는 카메라일 수 있다. 이 경우, 카메라는 차량의 전방을 향하여 거치된 별도의 블랙 박스일 수 있고, 전자 장치(100)는 별도로 거치된 블랙박스와 유/무선 통신을 통하여 촬영 영상을 입력받거나, 블랙 박스의 촬영 영상을 저장하는 저장 매체가 전자 장치(100)에 삽입되면, 전자 장치(100)는 촬영 영상을 입력받을 수 있다. As another example, the camera may be a camera that is mounted on a vehicle separately from the electronic device 100 to photograph the front of the vehicle. In this case, the camera may be a separate black box mounted toward the front of the vehicle, and the electronic device 100 receives a photographed image through wired/wireless communication with a separately mounted black box, or captures a photographed image of the black box. When a storage medium to be stored is inserted into the electronic device 100, the electronic device 100 may receive a captured image.

이하에서는, 상술한 내용을 기초로 본 발명의 일 실시 예에 따른 전자 장치(100)에 대해서 보다 구체적으로 설명하기로 한다.Hereinafter, the electronic device 100 according to an embodiment of the present invention will be described in more detail based on the above description.

저장부(110)는 전자 장치(100)의 동작에 필요한 다양한 데이터 및 어플리케이션을 저장하는 기능을 한다. 특히, 저장부(110)는 전자 장치(100)의 동작에 필요한 데이터, 예를 들어, OS, 경로 탐색 어플리케이션, 지도 데이터 등을 저장할 수 있다. 또한, 저장부(110)는 전자 장치(100)의 동작에 의하여 생성된 데이터, 예를 들어, 탐색된 경로 데이터, 수신한 영상 등을 저장할 수 있다. 또한, 저장부(110)는 신호등에 포함된 복수의 신호들의 위치 관계 정보, 차로 판단 테이블 등을 저장할 수 있다.The storage unit 110 functions to store various data and applications required for the operation of the electronic device 100. In particular, the storage unit 110 may store data necessary for the operation of the electronic device 100, for example, an OS, a route search application, and map data. In addition, the storage unit 110 may store data generated by an operation of the electronic device 100, for example, searched route data, and a received image. In addition, the storage unit 110 may store location relationship information of a plurality of signals included in a traffic light, a lane determination table, and the like.

여기서 저장부(110)는 RAM(Random Access Memory), 플레시메모리, ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electronically Erasable and Programmable ROM), 레지스터, 하드디스크, 리무버블 디스크, 메모리 카드, USIM(Universal Subscriber Identity Module)등과 같은 내장된 형태의 저장소자는 물론, USB 메모리 등과 같은 착탈가능한 형태의 저장소자로 구현될 수도 있다.Here, the storage unit 110 includes a random access memory (RAM), a flash memory, a read only memory (ROM), an erasable programmable ROM (EPROM), an electronically erasable and programmable ROM (EEPROM), a register, a hard disk, a removable disk, and a memory. It can be implemented not only as a built-in storage such as a card or USIM (Universal Subscriber Identity Module), but also as a removable storage such as a USB memory.

입력부(120)는 전자 장치(100)의 외부로부터의 물리적 입력을 특정한 전기 신호로 변환하는 기능을 한다. 여기서, 입력부(120)는 사용자 입력부(121)와 마이크부(123)의 전부 또는 일부를 포함할 수 있다.The input unit 120 functions to convert a physical input from the outside of the electronic device 100 into a specific electrical signal. Here, the input unit 120 may include all or part of the user input unit 121 and the microphone unit 123.

사용자 입력부(121)는 터치, 푸쉬동작 등과 같은 사용자 입력을 수신할 수 있다. 여기서 사용자 입력붑(120)는 다양한 버튼의 형태, 터치 입력을 수신하는 터치 센서, 접근하는 모션을 수신하는 근접 센서 중 적어도 하나를 이용하여 구현될 수 있다. The user input unit 121 may receive a user input such as a touch or a push operation. Here, the user input boop 120 may be implemented using at least one of various button types, a touch sensor receiving a touch input, and a proximity sensor receiving an approaching motion.

마이크부(123)는 사용자의 음성 및 차량의 내외부에서 발생한 음향을 수신할 수 있다.The microphone unit 123 may receive a user's voice and a sound generated inside and outside the vehicle.

출력부(130)는 전자 장치(100)의 데이터를 출력하는 장치이다. 여기서, 출력부(130)는 디스플레이부(131)와 오디오 출력부(133)의 전부 또는 일부를 포함할 수 있다.The output unit 130 is a device that outputs data of the electronic device 100. Here, the output unit 130 may include all or part of the display unit 131 and the audio output unit 133.

디스플레이부(131)는 전자 장치(100)이 시각적으로 인식될 수 있는 데이터를 출력하는 장치이다. 디스플레이부(131)는 전자 장치(100)의 하우징 전면(前面)에 마련된 디스플레이부로 구현될 수 있다. 여기서 디스플레이부(131)는 전자 장치(100)와 일체로 형성되어 시각적 인식 데이터를 출력할 수 있고, HUD(Head Up Display)와 같이 전자 장치(100)와 별개로 설치되어 시각적 인식 데이터를 출력할 수도 있다. The display unit 131 is a device that outputs data that can be visually recognized by the electronic device 100. The display unit 131 may be implemented as a display unit provided on the front of the housing of the electronic device 100. Here, the display unit 131 is integrally formed with the electronic device 100 to output visual recognition data, and is installed separately from the electronic device 100 such as a head up display (HUD) to output visual recognition data. May be.

오디오 출력부(133)는 전자 장치(100)가 청각적으로 인식될 수 있는 데이터를 출력하는 장치이다. 오디오 출력부(133)는 전자 장치(100)의 사용자에게 알려야 할 데이터를 소리를 표현하는 스피커로 구현될 수 있다.The audio output unit 133 is a device that outputs data that can be audibly recognized by the electronic device 100. The audio output unit 133 may be implemented as a speaker that expresses sound data to be informed to the user of the electronic device 100.

통신부(180)는 전자 장치(100)가 다른 디바이스와 통신하기 위하여 마련될 수 있다. 통신부(180)는, 위치 데이터부(181)과, 무선 인터넷부(183)과, 방송 송수신부(185), 이동 통신부(186), 근거리 통신부(187), 유선 통신부(189)의 전부 또는 일부를 포함할 수 있다. The communication unit 180 may be provided to allow the electronic device 100 to communicate with other devices. The communication unit 180 includes all or part of a location data unit 181, a wireless internet unit 183, a broadcast transmission/reception unit 185, a mobile communication unit 186, a short range communication unit 187, and a wired communication unit 189 It may include.

위치 데이터부(181)는 GNSS(Global Navigation Satellite System)를 통하여 위치 데이터를 획득하는 장치이다. GNSS는 인공위성으로부터 수신한 전파신호를 이용하여 수신 단말기의 위치를 산출할 수 있는 항법 시스템을 의미한다. GNSS의 구체적인 예로는, 그 운영 주체에 따라서 GPS(Global Positioning System), Galileo, GLONASS(Global Orbiting Navigational Satellite System), COMPASS, IRNSS(Indian Regional Navigational Satellite System), QZSS(Quasi-Zenith Satellite System) 등 일 수 있다. 본 발명의 일 실시예에 따른 전자 장치(100)의위치 데이터부(181)는, 전자 장치(100)가 사용되는 지역에서 서비스하는 GNSS 신호를 수신하여 위치 데이터를 획득할 수 있다.The location data unit 181 is a device that acquires location data through a Global Navigation Satellite System (GNSS). GNSS refers to a navigation system capable of calculating the location of a receiving terminal using radio signals received from satellites. Specific examples of GNSS include GPS (Global Positioning System), Galileo, GLONASS (Global Orbiting Navigational Satellite System), COMPASS, IRNSS (Indian Regional Navigational Satellite System), QZSS (Quasi-Zenith Satellite System), etc. I can. The location data unit 181 of the electronic device 100 according to an embodiment of the present invention may obtain location data by receiving a GNSS signal serving in an area where the electronic device 100 is used.

무선 인터넷부(183)는 무선 인터넷에 접속하여 데이터를 획득하거나 송신하는 장치이다. 무선 인터넷부(183)를 통하여 접속할 수 있는 무선 인터넷은, WLAN(Wireless LAN), Wibro(Wireless broadband), Wimax(World interoperability for microwave acess), HSDPA(High Speed Downlink Packet Acess) 등 일 수 있다.The wireless internet unit 183 is a device that acquires or transmits data by accessing the wireless internet. The wireless Internet that can be accessed through the wireless Internet unit 183 may be a wireless LAN (WLAN), a wireless broadband (Wibro), a world interoperability for microwave access (Wimax), a high speed downlink packet access (HSDPA), or the like.

방송 송수신부(185)는 각종 방송 시스템을 통하여 방송 신호를 송수신하는 장치이다. 방송 송수신부(185)를 통하여 송수신할 수 있는 방송 시스템은, DMBT(Digital Multimedia Broadcasting Terrestrial), DMBS(Digital Multimedia Broadcasting Satellite), MediaFLO(Media Foeward Link Only), DVBH(Digital Video Broadcast Handheld), ISDBT(Integrated Services Digital Broadcast Tereestrial) 등일 수 있다. 방송 송수신부(185)를 통하여 송수신되는 방송 신호에는 교통 데이터, 생활 데이터 등을 포함할 수 있다.The broadcast transmission/reception unit 185 is a device that transmits and receives broadcast signals through various broadcast systems. Broadcast systems that can transmit and receive through the broadcast transmission/reception unit 185 include Digital Multimedia Broadcasting Terrestrial (DMBT), Digital Multimedia Broadcasting Satellite (DMBS), Media Foeward Link Only (MediaFLO), Digital Video Broadcast Handheld (DVBH), and ISDBT ( Integrated Services Digital Broadcast Tereestrial). Broadcast signals transmitted and received through the broadcast transmission/reception unit 185 may include traffic data, life data, and the like.

이동 통신부(186)는 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evoloution) 등과 같은 다양한 이동 통신 규격에 따라 이동 통신 망에 접속하여 통신할 수 있다.The mobile communication unit 186 may access and communicate with a mobile communication network according to various mobile communication standards such as 3rd Generation (3G), 3rd Generation Partnership Project (3GPP), and Long Term Evoloution (LTE).

근거리 통신부(187)는 근거리 통신을 위한 장치이다. 근거리 통신부(187)는, 전술한 바와 같이, 블루투스(Bluetooth), RFID(Radio Frequency Idntification), 적외선 통신(IrDA, Infraed Data Association), UWB(Ultra WidBand), ZigBee, NFC(Near Field Communication), Wi-Fi 등을 통하여 통신할 수 있다.The short-range communication unit 187 is a device for short-range communication. As described above, the short-range communication unit 187 includes Bluetooth, Radio Frequency Idntification (RFID), infrared communication (IrDA, Infraed Data Association), Ultra WidBand (UWB), ZigBee, Near Field Communication (NFC), Wi You can communicate through -Fi.

유선 통신부(189)는 전자 장치(100)를 다른 디바이스와 유선으로 연결할 수 있는 인터페이스 장치이다. 유선 통신부(119)는, USB Port를 통하여 통신할 수 있는 USB 모듈일 수 있다. The wired communication unit 189 is an interface device capable of connecting the electronic device 100 to another device by wire. The wired communication unit 119 may be a USB module capable of communicating through a USB port.

이러한, 통신부(180)는 위치 데이터부(181)와, 무선 인터넷부(183)와, 방송 송수신부(185), 이동 통신부(186), 근거리 통신부(187), 유선 통신부(189) 중 적어도 하나를 이용하여 다른 디바이스와 통신할 수 있다. The communication unit 180 includes at least one of a location data unit 181, a wireless Internet unit 183, a broadcast transmission/reception unit 185, a mobile communication unit 186, a short range communication unit 187, and a wired communication unit 189 You can communicate with other devices using.

일 예로, 전자 장치(100)가 카메라 기능을 포함하지 않는 경우, 블랙 박스 등과 같은 차량용 카메라에서 촬영된 영상을 근거리 통신부(187), 유선 통신부(189) 중 적어도 하나를 이용하여 수신할 수 있다.For example, when the electronic device 100 does not include a camera function, an image captured by a vehicle camera such as a black box may be received using at least one of the short-range communication unit 187 and the wired communication unit 189.

다른 예로, 복수의 디바이스와 통신하는 경우에, 어느 하나는 근거리 통신부(187)로 통신하고, 다른 하나는 유선 통신부(119)를 통하여 통신하는 경우도 가능하다. As another example, in the case of communication with a plurality of devices, one may communicate with the short-range communication unit 187 and the other may communicate with the wired communication unit 119.

센싱부(190)는 전자 장치(100)의 현재 상태를 감지할 수 있는 장치이다. 센싱부(190)는 모션 센싱부(191)와, 광 센싱부(193)의 전부 또는 일부를 포함할 수 있다.The sensing unit 190 is a device capable of detecting the current state of the electronic device 100. The sensing unit 190 may include a motion sensing unit 191 and all or part of the light sensing unit 193.

모션 센싱부(191)는 전자 장치(100)의 3차원 공간 상에서의 운동을 감지할 수 있다. 모션 센싱부(191)은, 3축 지자기 센서 및 3축 가속도 센서를 포함할 수 있다. 모션 센싱부(191)을 통하여 획득한 운동 데이터를 위치 데이터부(191)를 통하여 획득한 위치 데이터와 결합하여, 전자 장치(100)를 부착한 차량의 보다 정확한 궤적을 산출할 수 있다.The motion sensing unit 191 may detect motion of the electronic device 100 in a 3D space. The motion sensing unit 191 may include a 3-axis geomagnetic sensor and a 3-axis acceleration sensor. By combining the motion data acquired through the motion sensing unit 191 with the position data acquired through the position data unit 191, a more accurate trajectory of the vehicle to which the electronic device 100 is attached may be calculated.

광 센싱부(193)는 전자 장치(100)의 주변 조도(illuminance)를 측정하는 장치이다. 광 센싱부(193)를 통하여 획득한 조도데이터를 이용하여, 디스플레이부(195)의 밝기를 주변 밝기에 대응되도록 변화시킬 수 있다.The light sensing unit 193 is a device that measures the ambient illumination of the electronic device 100. The brightness of the display unit 195 may be changed to correspond to the ambient brightness by using the illuminance data acquired through the light sensing unit 193.

전원부(195)는 전자 장치(100)의 동작 또는 전자 장치(100)와 연결된 다른 디바이스의 동작을 위하여 필요한 전원을 공급하는 장치이다. 전원부(195)는, 전자 장치(100)에 내장된 배터리 또는 차량 등의 외부전원에서 전원을 공급받는 장치일 수 있다. 또한, 전원부(195)는, 전원을 공급받는 형태에 따라서 유선 통신 모듈(119)로 구현되거나, 무선으로 공급받는 장치로 구현될 수도 있다.The power supply unit 195 is a device that supplies power necessary for the operation of the electronic device 100 or the operation of another device connected to the electronic device 100. The power supply unit 195 may be a device that receives power from an external power source such as a battery or a vehicle built in the electronic device 100. In addition, the power supply unit 195 may be implemented as a wired communication module 119 or a device that is supplied wirelessly according to a type of receiving power.

한편, 제어부(170)는 전자 장치(100)의 전반적인 동작을 제어한다. 구체적으로 제어부(170)는 저장부(110), 입력부(120), 출력부(130), 안내 관련 정보 생성부(140), 인디케이터 생성부(150), 증강 현실 제공부(160), 통신부(180), 센싱부(190)의 전부 또는 일부를 제어할 수 있다.Meanwhile, the controller 170 controls the overall operation of the electronic device 100. Specifically, the control unit 170 includes a storage unit 110, an input unit 120, an output unit 130, a guide-related information generation unit 140, an indicator generation unit 150, an augmented reality providing unit 160, and a communication unit ( 180), it is possible to control all or part of the sensing unit 190.

특히, 제어부(170)는 안내 관련 정보 생성부(140)가 차량의 운전을 보조하는 운전 관련 안내를 수행하기 위한 정보를 생성하고, 인디케이터 생성부(150)가 생성된 정보를 이용하여 운전 관련 안내를 위한 인디케이터를 생성하며, 디스플레이부(131)가 생성된 인디케이터를 길 안내 화면의 소정 영역에 겹쳐서 표시하도록 제어할 수 있다.In particular, the control unit 170 generates information for the guidance-related information generation unit 140 to perform a driving-related guidance that assists the driving of the vehicle, and the indicator generation unit 150 provides driving-related guidance using the generated information. An indicator for is generated, and the display unit 131 may control the generated indicator to overlap and display the generated indicator on a predetermined area of the road guide screen.

여기서, 안내 관련 정보 생성부(140)는, 도 2를 참조하면, 신호등의 신호 종류 정보를 생성하는 신호 종류 정보 생성부(141), 차량이 위치한 차로에 대한 차선 정보를 생성하는 차선 정보 생성부(143), 차량이 위치한 차로의 위치 정보를 생성하는 차로 위치 정보 생성부(145), 설정된 지점까지 길 안내를 위한 경로 정보를 생성하는 경로 정보 생성부(146), 차량의 전방에 위치한 다른 차량 과의 거리 정보를 생성하는 거리 정보 생성부(147)를 포함할 수 있다. 이러한, 안내 관련 정보 생성부(140)의 정보 생성 방법에 대해서는 도 4 내지 9를 참조하여 후술하기로 한다.Here, the guide-related information generation unit 140, referring to FIG. 2, a signal type information generation unit 141 that generates signal type information of a traffic light, and a lane information generation unit that generates lane information about a lane in which a vehicle is located. (143), a lane location information generation unit 145 that generates location information of a lane in which the vehicle is located, a route information generation unit 146 that generates path information for guiding a route to a set point, and another vehicle located in front of the vehicle It may include a distance information generating unit 147 that generates distance information of the distance. A method of generating information by the guide-related information generation unit 140 will be described later with reference to FIGS. 4 to 9.

한편, 인디케이터 생성부(150)는 안내 관련 정보 생성부(140)에서 생성된 정보를 이용하여 차량의 운전을 보조하는 차선 이탈 안내, 전방 차량 추돌 방지 안내, 신호등의 신호 변경 안내, 차로 변경 안내, 차선 이탈 안내 중 안내가 필요한 항목을 결정할 수 있다. On the other hand, the indicator generation unit 150 uses the information generated by the guidance-related information generation unit 140 to guide the lane departure to assist the driving of the vehicle, guide the front vehicle collision prevention, guide the signal change of the traffic light, guide the lane change, During lane departure guidance, you can decide which items need guidance.

여기서, 인디케이터는, 운전자에게 보다 직관적인 방법으로 안내를 수행할 수 있도록, 인디케이터 내에서 복수의 안내 영역 각각의 위치를 도로 상황에 대응되게 디자인된 형태일 수 있다. Here, the indicator may have a shape designed to correspond to a road situation in the position of each of the plurality of guide areas within the indicator so that the driver can be guided in a more intuitive way.

일 예로, 인디케이터는 전방 차량 추돌 방지 안내를 수행하는 제1 영역, 제1 영역의 좌우측에 위치하고 차선 이탈 안내를 수행하는 제2 영역, 제1, 제2 영역의 상단에 위치하고 신호 변경 안내를 수행하는 제3 영역, 제2 영역을 관통하고 차로 변경 안내를 수행하는 제4 영역을 포함할 수 있다.As an example, the indicator is a first area for performing front vehicle collision prevention guidance, a second area located on the left and right sides of the first area and performing lane departure guidance, and is located at the top of the first and second areas and performing signal change guidance. A fourth area that penetrates the third area and the second area and performs lane change guidance may be included.

또한, 인디케이터는, 다른 예로, 전방 차량 추돌 방지 안내를 수행하는 제1 영역, 제1 영역의 상단에 위치하고 신호 변경 안내를 수행하는 제3 영역, 차로 변경 안내를 수행하는 제4 영역을 포함할 수 있다. 이 경우, 차선 이탈 안내를 위한 제2 영역은 증강 현실 길 안내 화면의 차선 부분에 위치할 수 있다.In addition, as another example, the indicator may include a first area for performing front vehicle collision prevention guidance, a third area positioned at the top of the first area and performing signal change guidance, and a fourth area for performing lane change guidance. have. In this case, the second area for lane departure guidance may be located in the lane portion of the augmented reality navigation screen.

이 경우, 인디케이터 생성부(150)는 인디케이터에 포함된 복수의 영역 중 안내가 필요한 항목에 대응되는 영역을 활성화시킨 인디케이터를 생성할 수 있다.In this case, the indicator generator 150 may generate an indicator in which an area corresponding to an item requiring guidance among a plurality of areas included in the indicator is activated.

또한, 인디케이터 생성부(150)는 차량의 운전 관련 영상 데이터에서 결정된 소실점(Vanishing point)을 기초로 증강 현실 길 안내 화면에서 인디케이터가 표시될 소정 영역을 결정하할 수 있다. 여기서, 인디케이터 생성부(150)는 차량의 운전 중에 카메라에서 촬영된 촬영 영상으로부터 차선을 추출하고, 추출된 차선을 연장하여 서로 교차하게 되는 점을 소실점(Vanishing point)으로 결정할 수 있다. 또한, 인디케이터 생성부(150)는 결정된 소실점으로부터 소정 거리 위에 위치한 영역을 인디케이터가 표시될 소정 영역으로 결정할 수 있다.In addition, the indicator generator 150 may determine a predetermined area in which the indicator is to be displayed on the augmented reality road guidance screen based on the vanishing point determined from the driving-related image data of the vehicle. Here, the indicator generator 150 may extract lanes from a captured image captured by a camera while driving the vehicle, and determine a point at which the extracted lanes cross each other as a vanishing point. In addition, the indicator generator 150 may determine an area located above a predetermined distance from the determined vanishing point as a predetermined area in which the indicator is to be displayed.

한편 제어부(170)는 차량의 운전 관련 안내를 수행하도록 출력부(130)를 제어할 수 있다. 구체적으로, 제어부(170) 인디케이터 생성부(150)에서 생성된 인디케이터를 길 안내 화면의 소정 영역에 겹쳐서 표시하도록 디스플레이부(131)를 제어할 수 있다. 또한, 제어부(170)는 차량의 운전 관련 안내를 음성으로 출력하도록 오디오 출력부(133)를 제어할 수 있다. Meanwhile, the control unit 170 may control the output unit 130 to perform guidance related to driving of the vehicle. Specifically, the control unit 170 may control the display unit 131 to display the indicator generated by the indicator generating unit 150 overlaid on a predetermined area of the road guide screen. In addition, the control unit 170 may control the audio output unit 133 to output a driving-related guide of the vehicle as a voice.

또한, 제어부(170)는 증강 현실 제공부(160)와 연동하여 전자 장치(100)가 증강 현실을 기반으로 운전 관련 안내를 수행하도록 제어할 수 있다. 여기서, 증강 현실이란, 사용자가 실제로 보고 있는 현실 세계를 담고 있는 화면에 부가 정보(예를 들면, 관심 지점(Point Of Interest: POI)을 나타내는 그래픽 요소, 목적지까지의 경로를 나타내는 그래픽 요소 등)를 시각적으로 중첩하여 제공하는 방법일 수 있다. 일 예로, 증강 현실은 차량 앞유리를 이용한 HUD 또는 별도의 영상 출력 장치를 이용한 영상 오버레이 등을 통해 제공될 수 있으며, 증강 현실 제공부(160)는 이와 같이 현실 영상 또는 유리에 오버레이되는 인터페이스 이미지 등을 생성할 수 있다. 이를 통해 증강 현실 네비게이션 또는 차량 인포테인먼트 시스템 등이 구현될 수 있다.In addition, the controller 170 may control the electronic device 100 to perform driving-related guidance based on the augmented reality in conjunction with the augmented reality providing unit 160. Here, augmented reality means additional information (e.g., a graphic element indicating a point of interest (POI), a graphic element indicating a path to a destination, etc.) on a screen that contains the real world that the user is actually viewing. It may be a method of visually overlapping and providing. As an example, the augmented reality may be provided through a HUD using a vehicle windshield or an image overlay using a separate image output device, and the augmented reality providing unit 160 may provide a reality image or an interface image overlaid on the glass. Can be created. Through this, an augmented reality navigation or vehicle infotainment system may be implemented.

도 3은 본 발명의 일 실시 예에 따른 전자 장치와 연결된 시스템 네트워크를 설명하기 위한 도면이다. 도 3을 참조하면, 본 발명의 일 실시 예에 따른 전자 장치(100)는 내비게이션, 블랙 박스, 스마트 폰 또는 기타 차량용 증강 현실 인터페이스 제공 장치 등과 같은 차량에 구비되는 각종 장치로 구현될 수 있으며, 다양한 통신망 및 다른 전자 디바이스(61 내지 64)와 접속할 수 있다.3 is a diagram illustrating a system network connected to an electronic device according to an embodiment of the present invention. Referring to FIG. 3, an electronic device 100 according to an embodiment of the present invention may be implemented as various devices provided in a vehicle such as a navigation system, a black box, a smart phone, or other vehicle augmented reality interface providing device. It can be connected to a communication network and other electronic devices 61 to 64.

또한, 전자 장치(100)는 인공위성(20)으로부터 수신한 전파신호에 따라 GPS모듈을 연동하여 현재의 위치 및 현재 시간대를 산출할 수 있다.In addition, the electronic device 100 may calculate a current location and a current time zone by interworking with the GPS module according to the radio signal received from the satellite 20.

각각의 인공위성(20)은 주파수 대역이 상이한 L밴드 주파수를 송신할 수 있다. 전자 장치(100)는, 각각의 인공위성(20)에서 송신된 L밴드 주파수가 전자 장치(100)에 도달하는데 까지 소요된 시간에 기초하여 현재 위치를 산출할 수 있다.Each satellite 20 may transmit an L-band frequency having a different frequency band. The electronic device 100 may calculate a current location based on a time taken for the L-band frequency transmitted from each satellite 20 to reach the electronic device 100.

한편, 전자 장치(100)는, 통신부(180)을 통하여 제어국(40, ACR), 기지국(50, RAS) 등을 통하여 네트워크(30)에 무선으로 접속할 수 있다. 네트워크(30)에 전자 장치(100)가 접속하면, 네트워크(30)에 접속한 다른 전자 디바이스(61, 62)와도 간접적으로 접속하여 데이터를 교환할 수 있다.Meanwhile, the electronic device 100 may wirelessly access the network 30 through the control station 40 (ACR), the base station 50 (RAS) through the communication unit 180. When the electronic device 100 is connected to the network 30, data can be exchanged by indirectly connecting with other electronic devices 61 and 62 connected to the network 30.

한편, 전자 장치(100)는, 통신 기능을 가진 다른 디바이스(63)를 통하여 간접적으로 네트워크(30)에 접속할 수도 있다. 예를 들어, 네트워크(30)에 접속할 수 있는 모듈이 전자 장치(100)에 구비되지 않은 경우에, 근거리 통신 모듈 등을 통하여 통신 기능을 가진 다른 디바이스(63)와 통신할 수 있다.Meanwhile, the electronic device 100 may indirectly access the network 30 through another device 63 having a communication function. For example, when a module capable of accessing the network 30 is not provided in the electronic device 100, communication with another device 63 having a communication function may be performed through a short-range communication module or the like.

도 4는 본 발명의 일 실시 예에 따른 신호 종류 정보 생성 동작을 나타내는 흐름도 이다. 도 4를 참조하면, 먼저 신호 종류 정보 생성부(141)는 운전 관련 영상 데이터에서 신호등을 포함하는 관심 영역을 결정할 수 있다(S101). 이 경우, 신호 종류 정보 생성부(141)는 신호등은 소실점의 상부 영역에 위치하는 바, 신호 종류 정보 생성부(141)는 결정된 소실점의 상부 영역을 관심 영역으로 결정할 수 있다. 한편, 다른 예로, 신호 종류 정보 생성부(141)는 운전 관련 영상 데이터에서 미리 설정된 소정 영역을 관심 영역으로 결정할 수 있다. 4 is a flowchart illustrating an operation of generating signal type information according to an embodiment of the present invention. Referring to FIG. 4, first, the signal type information generation unit 141 may determine an ROI including a traffic light from driving-related image data (S101). In this case, since the signal type information generation unit 141 is located in an area above the vanishing point, the signal type information generation unit 141 may determine the area above the determined vanishing point as the region of interest. Meanwhile, as another example, the signal type information generation unit 141 may determine a predetermined region from the driving-related image data as the region of interest.

그리고, 신호 종류 정보 생성부(141)는 결정된 관심 영역의 영상 데이터를 기 설정된 화소값을 기준으로 변환하여 관심 영역 영상 데이터를 생성할 수 있다(S102). 이 경우, 신호 종류 정보 생성부(141)는, 일 예로, 결정된 관심 영역의 영상 데이터를 하기의 하기의 수학식 1에 적용하여 관심 영역 영상 데이터를 생성할 수 있다.In addition, the signal type information generation unit 141 may generate the ROI image data by converting the determined image data of the ROI based on a preset pixel value (S102). In this case, the signal type information generator 141 may generate ROI image data by applying the determined ROI image data to Equation 1 below.

Figure pat00001
Figure pat00001

여기서, R,G,B는 결정된 관심 영역의 영상 데이터의 R,G,B 값이고, K는 변환의 기준이 되는 기 설정된 화소값이고, x,y,z는 특정 계수일 수 있다. 일 예로, K는 평균 화소값인 128일 수 있다. Here, R, G, B are R, G, and B values of the determined image data of the ROI, K is a preset pixel value that is a reference for transformation, and x, y, and z may be specific coefficients. For example, K may be an average pixel value of 128.

이에 따라, 신호 종류 정보 생성부(141)는 신호등의 신호 영역 부분이 명확하게 구별되는 관심 영역 영상 데이터를 생성할 수 있다.Accordingly, the signal type information generator 141 may generate ROI image data in which the signal region portions of the traffic light are clearly distinguished.

한편, 신호등에 포함된 복수의 신호 각각에 대응되는 색상 및/또는 형태는 국가 별로 상이할 수 있다. 한국의 경우, 정지 신호는 적색원, 직진 신호는 청색원, 좌회전 신호는 청색 좌측 화살표, 우회전 신호는 청색 우측 화살표일 수 있다. Meanwhile, a color and/or shape corresponding to each of a plurality of signals included in a traffic light may be different for each country. In Korea, a stop signal may be a red circle, a straight signal may be a blue circle, a left turn signal may be a blue left arrow, and a right turn signal may be a blue right arrow.

따라서, 상술한 기 설정된 화소값 및 x,y,z는 알고리즘에 따라 서로 다른 값을 가질 수 있다.Accordingly, the above-described preset pixel values and x, y, and z may have different values according to an algorithm.

한편, 신호 종류 정보 생성부(141)는 관심 영역 영상 데이터에 제1 영역, 제2 영역을 적용하여 신호등의 신호 영역 부분의 영상 데이터를 검출할 수 있다(S103). 구체적으로 신호 종류 정보 생성부(141)는 관심 영역 영상 데이터에 제1 면적을 구비한 제1 영역, 제1 영역을 포함하고 제2 면적을 구비한 제2 영역을 적용하여 신호등의 신호 영역 부분의 영상 데이터를 검출할 수 있다. 여기서, 제1, 제2 영역은, 신호등 신호의 형태에 대응되는 형태일 수 있다. 일 예로, 신호등의 신호가 원형, 타원형, 사각형인 경우, 제1 및 제2 영역은 원형, 타원형, 사각형일 수 있다. Meanwhile, the signal type information generator 141 may detect image data of a signal region portion of a traffic light by applying the first region and the second region to the region of interest image data (S103). Specifically, the signal type information generation unit 141 applies a first area having a first area and a second area including the first area and having a second area to the ROI image data, Image data can be detected. Here, the first and second regions may have a shape corresponding to a shape of a traffic light signal. For example, when a signal of a traffic light is a circle, an ellipse, or a square, the first and second regions may be a circle, an ellipse, or a square.

한편, 신호 종류 정보 생성부(141)는 제2 영역의 면적 화소값과 제1 영역의 면적 화소값의 차이를 기 설정된 면적 화소값과 비교할 수 있다(S104). 여기서, 기 설정된 면적 화소값은 신호등에 포함된 복수의 신호 각각에 대응되는 색상 및/또는 형태 등을 반영하여 변경될 수 있다. Meanwhile, the signal type information generator 141 may compare the difference between the area pixel value of the second area and the area pixel value of the first area with a preset area pixel value (S104). Here, the preset area pixel value may be changed by reflecting a color and/or shape corresponding to each of a plurality of signals included in the traffic light.

그리고, 신호 종류 정보 생성부(141)는 비교 결과에 따라 신호등의 신호등의 신호 종류 정보를 생성할 수 있다(S105). In addition, the signal type information generation unit 141 may generate signal type information of a traffic light such as a traffic light according to the comparison result (S105).

이러한, S103, S104, S105 단계에 대해서는 도 5를 참조하여 구체적으로 설명하기로 한다.These steps S103, S104, and S105 will be described in detail with reference to FIG. 5.

도 5은 본 발명의 일 실시 예에 따른 정지 신호에 대응되는 관심 영역 영상 데이터 및 정지 신호 판단 방법을 나타내는 도면이다. 신호등이 적색의 정지 신호를 표시하는 경우, 신호 종류 정보 생성부(141)가 신호등을 포함하는 관심 영역의 영상 데이터를 기 설정된 화소값을 기준으로 변환하면, 도 5(a)와 같은 관심 영역 영상 데이터(501)를 생성할 수 있다. 여기서, 신호등의 적색 정지 신호는, 관심 영역 영상 데이터(501) 상에서 502와 같이 생성될 수 있다. 5 is a diagram illustrating a method of determining ROI image data and a stop signal corresponding to a stop signal according to an embodiment of the present invention. When the traffic light displays a red stop signal, when the signal type information generation unit 141 converts the image data of the ROI including the traffic light based on a preset pixel value, the ROI image as shown in FIG. 5(a) Data 501 can be generated. Here, the red stop signal of the traffic light may be generated as 502 on the ROI image data 501.

이 경우, 신호 종류 정보 생성부(141)는 제1 영역(504), 제2 영역(503)을 관심 영역 영상 데이터(501)에 적용하여 신호등의 신호 영역 부분(502)의 영상 데이터를 검출할 수 있다. In this case, the signal type information generator 141 applies the first region 504 and the second region 503 to the ROI image data 501 to detect the image data of the signal region portion 502 of the traffic light. I can.

그리고, 신호 종류 정보 생성부(140)는 제2 영역(503)의 면적 화소값과 제1 영역(504)의 면적 화소값의 차이를 기 설정된 면적 화소값과 비교하여 신호등의 신호등의 신호 종류 정보를 생성할 수 있다. 일 예로, 신호 종류 정보 생성부(141)는제2 영역(503)의 면적 화소값과 제1 영역(504)의 면적 화소값의 차이가 기 설정된 면적 화소값 보다 작은 경우(즉, 도 5(b)와 같은 경우, 제1 영역(504)의 면적 화소값이 큼), 신호 종류 정보를 정지 신호로 판단할 수 있다.In addition, the signal type information generation unit 140 compares the difference between the area pixel value of the second area 503 and the area pixel value of the first area 504 with a preset area pixel value, and provides signal type information of a traffic light such as a traffic light. Can be created. As an example, when the difference between the area pixel value of the second area 503 and the area pixel value of the first area 504 is smaller than a preset area pixel value (ie, FIG. 5(b) In the case of ), the area pixel value of the first region 504 is large) and signal type information may be determined as a stop signal.

한편, 도 5 에서는 생략하였으나, 직진 신호, 좌회전, 우회전과 같은 회전 신호의 판단도 상술한 방법과 유사하게 수행될 수 있다. 일 예로, 신호 종류 정보 생성부(140)는 상술한 방법 및/또는 신호등의 신호 영역 부분의 영상 데이터의 형상(예를 들어, 화살표 형상)을 이용하여 회전 신호를 판단할 수 있다. Meanwhile, although omitted in FIG. 5, determination of a turn signal such as a straight signal, a left turn, and a right turn may be performed similarly to the above-described method. For example, the signal type information generator 140 may determine the rotation signal using the above-described method and/or the shape of image data (eg, arrow shape) of the signal area portion of the traffic light.

이러한, 도 5와 같은 신호 종류 정보 생성 방법에 따르면, 관심 영역의 영상 데이터를 기 설정된 화소값을 기준으로 평준화한 상태로 신호 종류 정보를 판단하는 바, 이미지 처리 속도를 향상시킬 수 있고, 이에 따라, 주행, 정차가 시시 각각 변화하는 운전 상태에서 신호 종류 정보를 신속하게 판단할 수 있다.According to the method of generating signal type information as shown in FIG. 5, the signal type information is determined in a state in which the image data of the region of interest is leveled based on a preset pixel value, thereby improving the image processing speed. It is possible to quickly determine the signal type information in a driving state where the driving, driving, and stopping are changing each time.

한편, 상술한 도 5와 같은 신호 종류 정보 생성 방법은 본 발명의 일 예시일 뿐, 이에 한정되는 것은 아니다. 따라서, 컬러 영상인 운전 관련 영상 데이터로부터 정지 신호에 대응되는 적신호를 검출하거나, 또는 직진 신호에 대응되는 청색 신호를 검출하여 신호 종류 정보를 판단하는 등과 같이 다양한 신호 종류 정보 생성 방법이 이용될 수 있다. Meanwhile, the method of generating signal type information as illustrated in FIG. 5 is only an example of the present invention, but is not limited thereto. Accordingly, various signal type information generation methods may be used, such as detecting a red signal corresponding to a stop signal from driving-related image data, which is a color image, or determining signal type information by detecting a blue signal corresponding to a straight signal. .

한편, 본 발명의 일 실시 예에 따르면, 신호 종류 정보가 정지 신호라고 판단되면, 신호 종류 정보 생성부(141)는 관심 영역 영상 데이터에서 출발 신호, 좌회전/우회전 같은 회전 신호가 표시될 영역에 제1 영역 및 제2 영역을 미리 위치시킬 수 있다. 이 경우, 신호 종류 정보 생성부(141)는 저장부(110)에 저장된 복수의 신호들의 위치 관계 정보를 이용하여 제1 영역 및 제2 영역을 상기 위치에 미리 위치시킬 수 있다. 이 경우, 이미지 처리 속도를 향상시킴으로써, 정지 신호에서 직진 신호 또는 좌회전/우회전 같은 회전 신호로의 변경을 더욱 신속하게 판단할 수 있다. Meanwhile, according to an embodiment of the present invention, when it is determined that the signal type information is a stop signal, the signal type information generation unit 141 provides a start signal and a rotation signal such as a left turn/right turn in the region of interest image data. The first area and the second area can be positioned in advance. In this case, the signal type information generation unit 141 may pre-locate the first region and the second region to the position using positional relationship information of a plurality of signals stored in the storage unit 110. In this case, by increasing the image processing speed, it is possible to more quickly determine a change from a stop signal to a straight signal or a turn signal such as a left turn/right turn.

도 6은 본 발명의 일 실시 예에 따른 차선 정보 생성 방법을 구체적으로 나타내는 흐름도 이다. 도 6을 참조하면, 먼저, 차선 정보 생성부(143)는 는 컬러 영상 데이터를 그레이 영상으로 변환하고(S201), 변환된 그레이 영상으로부터 차선 영역 검출을 수행할 수 있다(S202). 6 is a detailed flowchart illustrating a method of generating lane information according to an embodiment of the present invention. Referring to FIG. 6, first, the lane information generation unit 143 may convert color image data into a gray image (S201) and detect a lane area from the converted gray image (S202).

구체적으로, 차선 정보 생성부(143) 촬영된 운전 관련 영상으로부터 차선을 검출하기 위한 영역을 추출할 수 있다. 또한, 차선 정보 생성부(143) 도로의 일부분이 그림자 영향을 받으면 차선 검출에 어려움이 있기 때문에 그림자 영향을 최소화 하기 위하여, 원 영상에 대한 광원 보정을 미리 수행할 수 있다.Specifically, the lane information generation unit 143 may extract a region for detecting a lane from the captured driving-related image. In addition, since the lane information generator 143 has difficulty in detecting a lane when a part of the road is affected by a shadow, in order to minimize the shadow influence, the light source correction for the original image may be performed in advance.

그리고, 차선 정보 생성부(143) 미리 결정된 카메라 위치 또는 카메라 설치 각도에 따라 차선이 존재 가능한 영역을 차선 영역으로 검출할 수 있다. 예를 들어, 차선 정보 생성부(143) 차선이 시작 가능한 위치를 기점으로 차선 영역을 결정할 수 있다. 또한, 차선 정보 생성부(143) 차선 영역이 시작되는 위치와 차선 영역의 길이를 운전 관련 영상 내 차로 폭(좌측 차선 영역과 우측 차선 영역 사이의 최대 너비)과 카메라의 시야각으로 추정할 수 있다.In addition, the lane information generation unit 143 may detect an area in which a lane can exist as a lane area according to a predetermined camera position or a camera installation angle. For example, the lane information generation unit 143 may determine a lane area based on a position where a lane can start. In addition, the lane information generator 143 may estimate the starting position of the lane area and the length of the lane area as the width of the lane in the driving-related image (the maximum width between the left and right lane areas) and the viewing angle of the camera.

또한, 차선 정보 생성부(143)는 차선 검출 영역에 해당되는 그레이 영상을 에지 영상으로 변환하고, 변환된 에지 영상에서 추출되는 직선 위치에 기초하여 차선 영역을 검출할 수 있다. 보다 구체적으로, 운전 관련 영상은 알려진 다양한 알고리즘을 통해 에지 영상으로 변환될 수 있으며, 에지 영상은 다수의 직선을 나타내는 에지를 포함할 수 있다. 이 때, 차선 정보 생성부(143)는 검출된 직선의 위치를 차선으로 인식할 수 있다. 또한, 차선 정보 생성부(143)는 다수의 직선 후보 중에서 차량의 주행 방향에 대하여 일정한 차선의 폭을 가지는 직선의 위치에 기초하여 차선 영역을 결정할 수 있다.In addition, the lane information generator 143 may convert a gray image corresponding to the lane detection region into an edge image, and detect the lane region based on a straight line position extracted from the converted edge image. More specifically, the driving-related image may be converted into an edge image through various known algorithms, and the edge image may include edges representing a plurality of straight lines. In this case, the lane information generation unit 143 may recognize the position of the detected straight line as a lane. In addition, the lane information generation unit 143 may determine a lane area based on a position of a straight line having a constant lane width with respect to a driving direction of a vehicle among a plurality of straight line candidates.

이후, 차선 영역이 검출되면, 차선 정보 생성부(143)는 차선 영역에 기반하여 차선 종류 관심 영역을 설정할 수 있다(S203). 구체적으로, 차선 정보 생성부(143)는 차선 영역이 검출되면, 검출된 차선 영역을 기준으로 하는 차선 종류 관심 영역(ROI, Region Of interest)을 설정할 수 있다. 차선 종류 관심 영역은, 차선의 선 종류 및 색상을 판단하기 위한 차선 및 그 주변 일정 영역을 포함하는 운전 관련 영상의 부분을 의미할 수 있다.Thereafter, when the lane area is detected, the lane information generation unit 143 may set the lane type interest area based on the lane area (S203). Specifically, when a lane area is detected, the lane information generation unit 143 may set a lane type region of interest (ROI) based on the detected lane area. The lane type ROI may mean a portion of a driving-related image including a lane for determining the line type and color of the lane and a predetermined area around the lane.

이 후, 차선 정보 생성부(143)는 차선 종류 관심 영역에 대해 이진화를 수행하고(S204), 이진화된 부분 그레이 영상을 1차원 영역으로 매핑하며(S205), 시각 연속성 및 속도 중 적어도 하나를 이용하여 선 종류를 식별할 수 있다(S206).After that, the lane information generation unit 143 performs binarization on the lane type region of interest (S204), maps the binarized partial gray image to a one-dimensional region (S205), and uses at least one of visual continuity and speed. Thus, the line type can be identified (S206).

차선 정보 생성부(143)는 변환된 그레이 영상으로부터 차선 종류 관심 영역의 부분 그레이 영상을 추출하고, 부분 그레이 영상에 대해 이진화를 수행할 수 있다. 이진화를 위한 기준값은 관심 영역의 부분 그레이 영상의 평균 휘도 값으로 결정할 수 있다. 이에 따라, 차선 정보 생성부(143)는 부분 그레이 영상으로부터 차선으로 판단되는 부분만을 명확하게 구별할 수 있다.The lane information generator 143 may extract a partial gray image of a lane type ROI from the converted gray image and perform binarization on the partial gray image. The reference value for binarization may be determined as an average luminance value of the partial gray image of the ROI. Accordingly, the lane information generation unit 143 can clearly distinguish only a portion determined as a lane from the partial gray image.

그리고, 차선 정보 생성부(143)는 이진화된 부분 그레이 영상에서 식별되는 각 선을(좌측 및 우측) 1차원 영역으로 매핑할 수 있다. 그리고, 1차원 영역으로 매핑된 각 선의 패턴을 분석함으로써, 선 종류를 식별할 수 있다. In addition, the lane information generation unit 143 may map each line (left and right) identified in the binary partial gray image to a one-dimensional region. And, by analyzing the pattern of each line mapped to the one-dimensional area, the line type can be identified.

보다 구체적으로, 도 7에서는 그레이 영상에서의 차선 종류 관심 영역 이진화 및 1차원 매핑을 나타내고 있다.More specifically, FIG. 7 shows the binarization and one-dimensional mapping of a lane type ROI in a gray image.

도 7에 도시된 바와 같이, 차선 종류 관심 영역에 대한 이진화가 수행되면, 이진화된 영상(700)이 획득될 수 있다. 이진화된 영상(700)에서, 흰색으로 나타나는 부분을 차선으로 식별할 수 있으며, 그 외의 부분은 흑색으로 식별될 수 있다.As shown in FIG. 7, when binarization is performed on a lane type ROI, a binarized image 700 may be obtained. In the binarized image 700, a portion indicated by white may be identified as a lane, and other portions may be identified as black.

그리고, 이진화된 영상(700)에서 식별되는 각 선은 1차원 영역으로 매핑될 수 있다. 차선 정보 생성부(143)는 1차원 영역으로 매핑된 영상(710)을 이용하여 선 종류를 용이하게 판별할 수 있다.In addition, each line identified in the binarized image 700 may be mapped to a one-dimensional region. The lane information generation unit 143 may easily determine a line type by using the image 710 mapped to the 1D area.

예를 들어, 차선 정보 생성부(143)는 1차원으로 매핑된 각 선의 시작점 및 길이 특징에 기초하여 점선 또는 실선 여부를 판단할 수 있다. 또한, 차선 정보 생성부(143)는 1차원으로 매핑된 각 선의 시간에 대한 연속성 및 속도를 이용하여 점선 또는 실선 여부를 판단할 수 있다. 그리고, 차선 정보 생성부(143)는 1차적으로 상기 시작점 및 길이 특징에 따라 점선 또는 실선을 결정한 후, 2차적으로 시간 연속성 및 속도를 이용하여 최종적으로 점선 또는 실선을 결정할 수 있다.For example, the lane information generator 143 may determine whether a dotted line or a solid line is based on a starting point and a length characteristic of each line mapped in one dimension. In addition, the lane information generation unit 143 may determine whether a dotted line or a solid line is made using the continuity and speed of each line mapped in one dimension. In addition, the lane information generator 143 may first determine a dotted line or a solid line according to the starting point and length characteristics, and then secondly determine the dotted line or a solid line using time continuity and speed.

보다 구체적으로, 차선 정보 생성부(143)는 먼저 각 선의 시작점 위치에 따른 선 길이를 비교 판별하여 점선 또는 실선 여부를 결정할 수 있다. 이 경우 차선 정보 생성부(143)는 하나의 영상 프레임만으로도 점선 또는 실선 여부를 판단할 수 있다.More specifically, the lane information generation unit 143 may first determine whether a dotted line or a solid line by comparing and determining the line length according to the starting point position of each line. In this case, the lane information generation unit 143 may determine whether there is a dotted line or a solid line with only one image frame.

또한, 차선 정보 생성부(143)는 각 선이 시간에 따라 연속적으로 형성되는지 여부에 따라 점선인지 실선인지를 보다 명확하게 판단할 수 있다. 예를 들어, 차선 정보 생성부(143)는 영상 내에서의 선 이동 속도에 따른 연속성 정도를 미리 설정하고, 각 선의 연속성이 미리 설정된 연속성 정도 값보다 낮은 경우 점선으로 판별할 수 있다.In addition, the lane information generation unit 143 may more clearly determine whether each line is a dotted line or a solid line depending on whether each line is continuously formed over time. For example, the lane information generation unit 143 may preset a degree of continuity according to a line movement speed in an image, and determine a continuity degree as a dotted line when the continuity of each line is lower than a preset continuity degree value.

따라서, 본 발명의 실시 예에 따르면 하나의 프레임을 통해 점선 또는 실선 여부를 미리 구별하고, 연속되는 프레임을 통해 이를 검증함으로써 최종적인 선 종류를 판단할 수 있다. Accordingly, according to an exemplary embodiment of the present invention, it is possible to determine a final line type by pre-distinguishing whether a dotted line or a solid line is performed through one frame and verifying it through successive frames.

이 후, 차선 정보 생성부(143)는 컬러인 원본 영상 데이터로부터 상기 종류가 식별된 선 부분의 색상을 검출할 수 있다(S207).Thereafter, the lane information generation unit 143 may detect the color of the line portion whose type is identified from the original image data that is color (S207).

차선 정보 생성부(143)는 컬러 영상을 분석하여, 앞서 종류가 식별된 선에 해당하는 부분의 색상을 검출하고, 이를 분류할 수 있다. 예를 들어, 차선 정보 생성부(140)는 검출된 색상을 백색, 황색 또는 청색으로 분류할 수 있다.The lane information generator 143 may analyze a color image, detect a color of a portion corresponding to a line whose type has been previously identified, and classify it. For example, the lane information generation unit 140 may classify the detected color into white, yellow, or blue.

이후, 차선 정보 생성부(143)는 식별된 선 종류 및 분류된 색상에 기초하여 차량이 위치한 차로에 대응되는 차선 정보를 생성할 수 있다(S208).Thereafter, the lane information generation unit 143 may generate lane information corresponding to a lane in which the vehicle is located based on the identified line type and the classified color (S208).

도 8은 본 발명의 일 실시 예에 따른 차로 위치 정보 생성 방법을 구체적으로 나타내는 흐름도 이다. 도 8을 참조하면, 차로 위치 정보 생성부(145)는 지도 데이터로부터 차량이 위치한 도로의 차로 정보를 획득할 수 있다(S301). 여기서, 도로의 차로 정보는, 운전 중인 차량이 현재 위치한 도로의 차로 정보일 수 있고, 차량이 위치한 도로의 차로 개수 정보를 포함할 수 있다. 그리고, 도로의 차로 정보는 전자 장치(100)내의 저장부(110)에 저장된 지도 데이터에서 획득되거나, 전자 장치(100)와 별도의 외부 지도 데이터베이스(DB)에서 획득되거나, 다른 전자 장치(100)로부터 획득될 수 있다. 8 is a detailed flowchart illustrating a method of generating location information on a lane according to an embodiment of the present invention. Referring to FIG. 8, the lane location information generation unit 145 may obtain lane information of a road on which a vehicle is located from map data (S301). Here, the lane information of the road may be information about the lane of the road where the vehicle being driven is currently located, and may include information about the number of lanes of the road where the vehicle is located. In addition, road lane information is obtained from map data stored in the storage unit 110 in the electronic device 100, or from an external map database (DB) separate from the electronic device 100, or other electronic devices 100 Can be obtained from

그리고, 차로 위치 정보 생성부(145)는 생성된 차선 정보를 이용하여 차량이 도로의 첫 번째 차로(1 차로), 또는 마지막 차로(끝 차로)에 위치하는지 여부를 판단할 수 있다(S302). 구체적으로 차로 위치 정보 생성부(145)는 도 9(a)와 같은 차로 판단 테이블에 차량이 위치한 차로에 대응되는 차선 정보를 적용하여 차량이 도로의 1 차로, 또는 끝차로에 위치하는지 여부를 판단할 수 있다. In addition, the lane location information generation unit 145 may determine whether the vehicle is located in the first lane (first lane) or the last lane (end lane) of the road by using the generated lane information (S302). Specifically, the lane location information generation unit 145 determines whether the vehicle is located in the first lane or the last lane of the road by applying the lane information corresponding to the lane where the vehicle is located to the lane determination table as shown in FIG. 9(a). can do.

즉, 차로 판단 테이블은 국가, 좌측선 종류 및 색상, 우측선 종류 및 색상에 따라 결정되는 1 차로, 끝차로를 포함할 수 있다. 여기서, 도 9(a)와 같은 차로 판단 테이블은 예시일 수 있으며, 설정에 따라 국가별 또는 상황별로 다른 값으로 설정될 수 있다.That is, the lane determination table may include a primary lane and an end lane determined according to a country, a left line type and color, and a right line type and color. Here, the lane determination table as shown in FIG. 9A may be an example, and may be set to different values for each country or situation according to the setting.

한편, 차로 위치 정보 생성부(145)는 차량이 첫 번째 또는 마지막 차로에 위치하는 경우, 도로의 차로 정보를 반영하여 차량이 위치한 차로 위치 정보를 생성할 수 있다(S303). 예를 들어, 차량이 마지막 차로에 위치한다고 판단되면, 차로 위치 정보 생성부(145)는 차로 위치 정보를 N 차로로 생성할 수 있다. 그리고, 도로 차로 정보에 대응되는 차로 개수가 5 개인 경우, 이를 반영하여 N 차로를 5 차로로 생성할 수 있다. Meanwhile, when the vehicle is located in the first or last lane, the lane location information generation unit 145 may reflect information on the lane of the road to generate the lane location information in which the vehicle is located (S303). For example, if it is determined that the vehicle is located in the last lane, the lane location information generation unit 145 may generate the lane location information as N lanes. In addition, when the number of lanes corresponding to road lane information is 5, N lanes may be generated as 5 lanes by reflecting this.

그리고, 차로 위치 정보 생성부(145)는 차량의 차로 변경에 따라 차량이 위치한 차로가 첫 번째 또는 마지막 차로의 사이에 위치한 차로로 변경되면, 생성된 차로 위치 정보를 변경된 차로 위치 정보로 갱신할 수 있다(S304). 이 경우, 차로 위치 정보 생성부(145)는 차선 정보를 이용하여 차선 이탈 여부를 판단하고, 이를 기초로 차로 변경 여부를 판단할 수 있다. 예를 들어, 차로 위치 정보 생성부(145)는 차량이 5 차로에 위치하다 좌측 차로로 1 차로 변경하였다고 판단되면, 이를 반영하여 차로 위치 정보를 5 차로에서 4차로로 갱신할 수 있다.In addition, when the lane where the vehicle is located is changed to a lane located between the first or last lane according to the change of the lane of the vehicle, the lane location information generation unit 145 may update the generated lane location information with the changed lane location information. Yes (S304). In this case, the lane location information generation unit 145 may determine whether to deviate from the lane using the lane information, and determine whether to change the lane based on this. For example, when it is determined that the vehicle is located in the 5th lane and changed to the 1st lane to the left lane, for example, the lane location information generation unit 145 may reflect this and update the lane location information from the 5th lane to the 4th lane.

그리고, 차로 위치 정보 생성부(145)는 차량의 차로 변경에 따라 차량이 위치한 차로가 사이에 위치한 차로에서 첫 번째 또는 마지막 차로로 변경되면, 차량이 위치한 도로의 차로 정보를 재획득할 수 있다(S305). 그리고, 재획득된 차로 정보를 반영하여 차량이 위치한 차로 위치 정보를 재생성할 수 있다(S306). 예를 들어, 차량이 4 차로에 위치하다 우측 차로로 1 차로 변경였다고 판단되면, 전에 설정된 마지막 차로인 5차로로 이동하였는 바, 현재 차량이 위치한 도로의 차로 정보를 획득할 수 있다. 그리고, 획득된 차로 정보가 4 차로인 경우, 차량이 위치한 차로 위치 정보를 4 차로로 재생성할 수 있다. In addition, when the lane where the vehicle is located is changed to the first or last lane from the lane located between the lane according to the change of the lane of the vehicle, the lane location information generation unit 145 may re-acquire information about the lane of the road where the vehicle is located ( S305). In addition, the location information of the lane where the vehicle is located may be regenerated by reflecting the reacquired lane information (S306). For example, if it is determined that the vehicle is located in the 4th lane and changed to the 1st lane to the right lane, the vehicle has moved to the 5th lane, which is the last lane set before, and information about the lane of the road where the vehicle is currently located can be obtained. In addition, when the acquired lane information is the fourth lane, the location information of the lane where the vehicle is located may be recreated as the fourth lane.

한편, 본 발명의 일 실시 예에 따른 차로 위치 정보 생성 방법은 상술한 도 8에 한정되는 것은 아니다. 따라서, 다른 실시 예에 따라서 상술한 순서는 일부 변경될 수 있다. 일 예로, 차량이 위치한 도로의 차로 정보를 획득하는 단계는 S304 단계에서 수행될 수 있다. 이 경우, 차로 위치 정보 생성부(145)는 차량이 첫 번째 또는 마지막 차로에 위치하는 경우, 차량이 위치한 차로 위치 정보를 생성할 수 있다(S303). 예를 들어, 차량이 마지막 차로에 위치한다고 판단되면, 차로 위치 정보 생성부(145)는 차로 위치 정보를 N 차로로 생성할 수 있다. Meanwhile, the method of generating lane location information according to an embodiment of the present invention is not limited to the above-described FIG. 8. Accordingly, the above-described order may be partially changed according to other embodiments. For example, the step of acquiring lane information of a road on which the vehicle is located may be performed in step S304. In this case, when the vehicle is located in the first or last lane, the lane location information generator 145 may generate location information of the lane where the vehicle is located (S303). For example, if it is determined that the vehicle is located in the last lane, the lane location information generation unit 145 may generate the lane location information as N lanes.

그리고, 차로 위치 정보 생성부(145)는 차량의 차로 변경에 따라 차량이 위치한 차로가 첫 번째 또는 마지막 차로의 사이에 위치한 차로로 변경되면, 생성된 차로 위치 정보 및 획득된 도로의 차로 정보를 이용하여 차로 위치 정보로 갱신할 수 있다(S304). 예를 들어, 차로 위치 정보 생성부(145)는 차량이 끝차로에 대응되는 N 차로에 위치하다 좌측 차로로 1 차로 변경하였다고 판단되면, N-1 차로에 차로 개수 정보인 N = 5를 반영하여 차로 위치 정보를 4차로로 갱신할 수 있다.In addition, when the lane where the vehicle is located is changed to a lane located between the first or last lane according to the change of the lane of the vehicle, the lane location information generation unit 145 uses the generated lane location information and the obtained lane information of the road. Thus, it is possible to update the vehicle location information (S304). For example, when it is determined that the vehicle is located in the N lane corresponding to the last lane and has changed to the first lane to the left lane, the lane location information generation unit 145 reflects the number of lane information N = 5 in the N-1 lane. Lane location information can be updated to four lanes.

또한, 본 발명의 다른 실시 예에 따르면, 차로 위치 정보 생성부(145)는 도 9(b)와 같은 차로 판단 테이블에 차량이 위치한 차로에 대응되는 차선 정보를 적용하여 차량이 도로의 1 차로, 중앙 차로, 끝차로에 위치하는지 여부를 판단할 수 있다. 다만, 이 경우, 도로의 중앙 차로가 복수 개인 상황(예를 들어, 차로의 개수가 4개 이상인 경우)에서는 복수의 중앙 차로 중 차량이 위치한 차로를 정확하게 알 수 없는 바, 본 발명의 일 실시 예는 바람직하게는 도 8과 같은 방법을 사용할 수 있다. Further, according to another embodiment of the present invention, the lane location information generation unit 145 applies lane information corresponding to the lane where the vehicle is located to the lane determination table as shown in FIG. 9(b), so that the vehicle is the first lane of the road, It is possible to determine whether it is located in the central lane or the end lane. However, in this case, in a situation in which there are multiple central lanes of the road (for example, when the number of lanes is 4 or more), it is not possible to accurately determine the lane in which the vehicle is located among the plurality of central lanes. Preferably, the same method as in FIG. 8 may be used.

한편, 경로 정보 생성부(146)는 지도 데이터, 교통 흐름 관련 정보 등을 이용하여 차량의 운전자가 설정한 지점까지 길 안내를 위한 경로 정보를 생성할 수 있다. Meanwhile, the route information generator 146 may generate route information for guiding a route to a point set by a driver of the vehicle using map data, traffic flow-related information, and the like.

또한, 거리 정보 생성부(147)는 차량의 전방에 위치한 다른 차량 과의 거리 정보를 생성할 수 있다. 일 예로, 거리 정보 생성부(147)는 차량의 운전 관련 영상 데이터에서 전방 차량을 포함하는 관심 영역을 결정하고, 결정된 관심 영역의 영상 데이터를 이용하여 차량의 전방에 위치한 다른 차량 과의 거리 정보를 생성할 수 있다. 다른 예로, 거리 정보 생성부(147)는 차량의 전방에 설치된 거리 감지 센서, 예를 들어, 적외선 센서, 초음파 센서 등에서 생성된 센싱 정보를 수신하여 차량의 전방에 위치한 다른 차량 과의 거리 정보를 생성할 수 있다. In addition, the distance information generation unit 147 may generate distance information from another vehicle located in front of the vehicle. For example, the distance information generation unit 147 determines a region of interest including the vehicle in front from the driving-related image data of the vehicle, and uses the image data of the determined region of interest to obtain distance information from another vehicle located in front of the vehicle. Can be generated. As another example, the distance information generation unit 147 receives sensing information generated from a distance detection sensor installed in front of the vehicle, for example, an infrared sensor, an ultrasonic sensor, etc., and generates distance information from another vehicle located in front of the vehicle. can do.

이에 따라, 안내 관련 정보 생성부(140)는 신호등의 신호 종류 정보, 차량이 위치한 차로에 대한 차선 정보, 차량이 위치한 차로의 위치 정보, 차량의 전방에 위치한 다른 차량 과의 거리 정보, 길 안내를 위한 경로 정보 중 적어도 하나를 포함하는 운전 관련 안내를 수행하기 위한 정보를 생성할 수 있다. Accordingly, the guidance-related information generation unit 140 provides information on signal types of traffic lights, lane information on the lane where the vehicle is located, location information on the lane where the vehicle is located, distance information from other vehicles located in front of the vehicle, and directions. Information for performing driving-related guidance including at least one of route information for may be generated.

도 10은 본 발명의 일 실시 예에 따른 전자 장치의 제어 방법을 구체적으로 나타내는 흐름도 이다. 도 10을 참조하면, 먼저 안내 관련 정보 생성부(140)는 차량의 운전을 보조하는 운전 관련 안내를 수행하기 위한 정보를 생성할 수 있다(S401). 10 is a detailed flowchart illustrating a method of controlling an electronic device according to an embodiment of the present invention. Referring to FIG. 10, first, the guide-related information generation unit 140 may generate information for performing a driving-related guide that assists in driving the vehicle (S401).

그리고, 안내 관련 정보 생성부(140)는 생성된 정보를 이용하여 차량의 운전을 보조하는 차선 이탈 안내, 전방 차량 추돌 방지 안내, 신호등의 신호 변경 안내, 차로 변경 안내, 차선 이탈 안내 중 안내가 필요한 항목을 결정할 수 있다(S402). 설명의 편의를 위하여, 신호 변경 안내를, 일 예로 설명하기로 한다.In addition, the guide-related information generation unit 140 uses the generated information to guide the lane departure to assist the driving of the vehicle, the vehicle collision prevention guidance in front, the signal change guidance of the traffic light, the lane change guidance, the lane departure guidance. The item can be determined (S402). For convenience of explanation, a signal change guide will be described as an example.

교차로에 정차한 차량의 경로 정보가 직진 방향인 상태에서, 신호 종류 정보가 정지 신호에서 좌회전 신호로 변경되면, 안내 관련 정보 생성부(140)는 신호 변경 안내가 불필요하다고 판단할 수 있다. 또는, 교차로에 정차한 차량의 경로 정보가 직진 방향인 상태에서, 생성된 신호 종류 정보가 정지 신호에서 직진 신호로 변경되면, 안내 관련 정보 생성부(140)는 신호 변경 안내가 필요하다고 판단할 수 있다. When the signal type information is changed from a stop signal to a left turn signal in a state in which the route information of the vehicle stopped at the intersection is in a straight direction, the guidance-related information generator 140 may determine that the signal change guidance is unnecessary. Alternatively, when the generated signal type information is changed from a stop signal to a straight signal in a state in which the route information of the vehicle stopped at the intersection is in a straight direction, the guidance-related information generation unit 140 may determine that signal change guidance is necessary. have.

또한, 차로 변경 안내를, 다른 예로 설명하기로 한다.In addition, a lane change guidance will be described as another example.

주행 중인 차량의 경로 정보가 일정 거리 후 좌회전인 상태에서, 차로 위치 정보가 좌회전 차로가 아닌 경우, 안내 관련 정보 생성부(140)는 차로 변경 안내가 필요하다고 판단할 수 있다. 또는, 주행 중인 차량의 경로 정보가 일정 거리 후 좌회전인 상태에서, 차로 위치 정보가 좌회전 차로인 경우, 안내 관련 정보 생성부(140)는 차로 변경 안내가 불필요하다고 판단할 수 있다. In a state in which the route information of the vehicle being driven is a left turn after a certain distance, and the lane location information is not a left turn lane, the guidance-related information generation unit 140 may determine that lane change guidance is necessary. Alternatively, in a state in which the route information of the vehicle being driven is a left turn after a certain distance, and the lane location information is a left turn lane, the guidance-related information generation unit 140 may determine that lane change guidance is unnecessary.

그리고, 인디케이터 생성부(150)는 인디케이터에 포함된 복수의 영역 중 안내가 필요한 항목에 대응되는 영역을 활성화시킨 인디케이터를 생성할 수 있다(S403). 구체적으로 인디케이터 생성부(150)는 안내가 필요한 항목에 대응되는 영역은 활성화시키고, 안내가 불필요한 항목에 대응되는 영역은 비활성화 시킨 인디케이터를 생성할 수 있다. In addition, the indicator generation unit 150 may generate an indicator in which an area corresponding to an item requiring guidance among a plurality of areas included in the indicator is activated (S403). In more detail, the indicator generator 150 may generate an indicator in which an area corresponding to an item requiring guidance is activated and an area corresponding to an item which does not require guidance is deactivated.

그리고, 디스플레이부(131)는 생성된 인디케이터를 길 안내 화면의 소정 영역에 겹쳐서 표시할 수 있다(S404). 구체적으로 디스플레이부(131)는 증강 현실 제공부(160)와 연동하여 운전 중인 차량의 전방을 촬영한 영상에 생성된 인디케이터를 겹쳐서 표시하는 증강 현실 길 안내 화면을 표시할 수 있다. 또한, 디스플레이부(131)는 2D(2-Dimensional) 또는 3D(3-Dimensional)의 지도 데이터에 생성된 인디케이터를 겹쳐서 표시하는 2D(2-Dimensional) 또는 3D(3-Dimensional) 길 안내 화면을 표시할 수 있다. In addition, the display unit 131 may overlap and display the generated indicator on a predetermined area of the road guide screen (S404). In more detail, the display unit 131 may display an augmented reality road guide screen in which the generated indicator is superimposed on an image photographed in front of the driving vehicle in connection with the augmented reality providing unit 160. In addition, the display unit 131 displays a 2D (2-Dimensional) or 3D (3-Dimensional) route guidance screen that superimposes the generated indicator on the 2D (2-Dimensional) or 3D (3-Dimensional) map data. can do.

도 11은 본 발명의 일 실시 예에 따른 전자 장치의 제어 방법을 구체적으로 나타내는 흐름도 이다. 도 11을 참조하면, 먼저 안내 관련 정보 생성부(140)는 차량의 운전을 보조하는 운전 관련 안내를 수행하기 위한 정보를 생성할 수 있다(S501).11 is a detailed flowchart illustrating a method of controlling an electronic device according to an embodiment of the present invention. Referring to FIG. 11, first, the guide-related information generation unit 140 may generate information for performing a driving-related guide that assists in driving the vehicle (S501).

그리고, 인디케이터 생성부(150)는 생성된 정보를 이용하여 운전 관련 안내를 위한 인디케이터를 생성할 수 있다(S502).In addition, the indicator generator 150 may generate an indicator for driving-related guidance by using the generated information (S502).

그리고, 인디케이터 생성부(150)는 차량의 운전 관련 영상 데이터에서 소실점(Vanishing point)을 결정할 수 있다(S503). 구체적으로 인디케이터 생성부(150)는 차량의 운전 중에 카메라에서 촬영된 촬영 영상으로부터 차선을 추출하고, 추출된 차선을 연장하여 서로 교차하게 되는 점을 소실점(Vanishing point)으로 결정할 수 있다. In addition, the indicator generator 150 may determine a vanishing point from image data related to driving of the vehicle (S503). In more detail, the indicator generator 150 may extract lanes from a captured image captured by a camera while driving a vehicle, and determine a point at which the extracted lanes cross each other as a vanishing point.

그리고, 인디케이터 생성부(150)는 차량의 운전 관련 영상 데이터에서 결정된 소실점(Vanishing point)을 기초로 증강 현실 길 안내 화면에서 인디케이터가 표시될 소정 영역을 결정할 수 있다(S504). 구체적으로, 인디케이터 생성부(150)는 결정된 소실점으로부터 소정 거리 위에 위치한 영역을 인디케이터가 표시될 소정 영역으로 결정할 수 있다. 즉, 사용자가 실제로 보고 있는 현실 세계를 담고 있는 화면에 부가 정보를 표시하는 증강 현실에 의하면, 소실점의 하부 영역에는 실제 도로, 실제 전방 차량 등에 대응되는 영상을 표시하지만, 상부 영역에는 실제 신호등에 대응되는 영상을 제외하고 운전 중 필요한 영상을 표시하지 않는다. 따라서, 인디케이터 생성부(150)는 결정된 소실점으로부터 소정 거리 위에 위치한 영역을 인디케이터가 표시될 소정 영역으로 결정할 수 있다. In addition, the indicator generation unit 150 may determine a predetermined area in which the indicator is to be displayed on the augmented reality road guidance screen based on the vanishing point determined from the driving-related image data of the vehicle (S504). Specifically, the indicator generator 150 may determine an area located above a predetermined distance from the determined vanishing point as a predetermined area in which the indicator is to be displayed. In other words, according to augmented reality, which displays additional information on a screen containing the real world that the user is actually seeing, an image corresponding to an actual road or a vehicle in front is displayed in the lower area of the vanishing point, but the upper area corresponds to an actual traffic light. Except for the video that is used, the video required while driving is not displayed. Accordingly, the indicator generator 150 may determine an area located above a predetermined distance from the determined vanishing point as a predetermined area in which the indicator is to be displayed.

그리고, 디스플레이부(131)는 생성된 인디케이터를 증강 현실 길 안내 화면의 소정 영역에 겹쳐서 표시할 수 있다(S505).In addition, the display unit 131 may superimpose and display the generated indicator on a predetermined area of the augmented reality navigation screen (S505).

도 12는 본 발명의 일 실시 예에 따른 인디케이터를 나타내는 도면이다. 도 12는 복수의 안내 영역 모두가 비활성화된 상태의 인디케이터를 나타내는 도면으로, 인디케이터(1200)는 전방 차량 추돌 방지 안내를 수행하는 제1 영역(1230), 상기 제1 영역의 좌우측에 위치하고 차선 이탈 안내를 수행하는 제2 영역(1220-1,1220-2), 상기 제1, 제2 영역의 상단에 위치하고 신호 변경 안내를 수행하는 제3 영역(1210-1,1210-2,1210-3), 상기 제2 영역을 관통하고 상기 차로 변경 안내를 수행하는 제4 영역(1240-1,1240-2)을 포함할 수 있다.12 is a diagram illustrating an indicator according to an embodiment of the present invention. 12 is a diagram showing an indicator in a state in which all of the plurality of guide areas are deactivated. The indicator 1200 is a first area 1230 that performs front vehicle collision prevention guidance, located on the left and right sides of the first area, and guides lane departure A second area (1220-1, 1220-2) performing a signal, a third area (1210-1, 1210-2, 1210-3) located at the top of the first and second areas and performing signal change guidance, It may include fourth regions 1241-1 and 1240-2 penetrating the second region and guiding the lane change.

즉, 인디케이터 내에서 복수의 안내 영역 각각의 위치는 실제 도로 상황에 대응되게 디자인된 형태일 수 있다. That is, the positions of each of the plurality of guide areas within the indicator may be designed to correspond to actual road conditions.

한편, 상술한 도 12와 같은 인디케이터의 형태에 한정되는 아니고, 다른 예에 따라서는, 상기 제1 영역 내지 제4 영역 중 하나 이상이 생략될 수 있고, 또 다른 예에 따라서는, 상기 제1 영역 내지 제4 영역외에 현재 차량이 위치한 차로가 몇차로인지 안내하는차로 안내 등과 같은 안내 영역이 추가될 수 있다. Meanwhile, it is not limited to the shape of the indicator as shown in FIG. 12 described above, and according to another example, one or more of the first to fourth regions may be omitted, and according to another example, the first region In addition to the fourth area, a guide area such as a lane guide or the like for guiding the number of lanes in which the vehicle is currently located may be added.

한편, 복수의 안내 중 안내가 필요한 항목이 결정되면, 인디케이터 생성부(150)는 상기 복수의 영역 중 안내가 필요한 항목에 대응되는 영역을 활성화시킨 인디케이터를 생성할 수 있다. 이에 대해서는 도 13 내지 16을 참조하여 구체적으로 설명하기로 한다.Meanwhile, when an item requiring guidance is determined among the plurality of guides, the indicator generating unit 150 may generate an indicator in which an area corresponding to an item requiring guidance among the plurality of areas is activated. This will be described in detail with reference to FIGS. 13 to 16.

도 13은 본 발명의 일 실시 예에 따른 신호 변경 안내 및 전방 차량 추돌 방지 안내를 위한 인디케이터를 나타내는 도면이다. 구체적으로, 차량의 전방에 위치한 차량과의 거리 정보가 기 설정된 거리 보다 크고, 신호 종류 정보가 정지 신호인 경우, 인디케이터 생성부(150)는, 도 13(a)와 같이, 전방 차량과 거리가 충분함을 안내하는 색으로 제1 영역(1230)을 활성화 시키고, 신호 변경 안내를 수행하는 제3 영역의 정지 신호 영역(1210-1)를 활성화시킨 인디케이터를 생성할 수 있다. 13 is a diagram illustrating an indicator for a signal change guide and a front vehicle collision prevention guide according to an embodiment of the present invention. Specifically, when the distance information from the vehicle located in front of the vehicle is greater than the preset distance and the signal type information is a stop signal, the indicator generation unit 150, as shown in FIG. 13 (a), An indicator in which the first area 1230 is activated with a color indicating sufficientness and the stop signal area 1210-1 in the third area for guiding the signal change is activated may be generated.

그리고, 신호등의 신호 상태가 정지 신호에서 직진 신호로 변경되면, 인디케이터 생성부(150)는, 도 13(b)와 같이, 신호 변경 안내를 수행하는 제3 영역의 직진 신호 영역(1210-3)를 활성화시킨 인디케이터를 생성할 수 있다. And, when the signal state of the traffic light is changed from the stop signal to the straight signal, the indicator generating unit 150, as shown in Fig. 13 (b), the straight signal area 1210-3 of the third area performing the signal change guidance You can create an indicator that activates.

도 14는 본 발명의 일 실시 예에 따른 전방 차량 추돌 방지 안내를 위한 인디케이터를 나타내는 도면이다. 구체적으로 차량의 전방에 위치한 차량과의 거리 정보가 기 설정된 거리 보다 작은 경우, 인디케이터 생성부(150)는, 도 14(a)와 같이, 전방 차량과 거리가 가까움을 안내하는 색으로 제1 영역(1230)을 활성화 시킨 인디케이터를 생성할 수 있다.14 is a diagram illustrating an indicator for guiding a front vehicle collision prevention according to an embodiment of the present invention. Specifically, when the distance information of the vehicle located in front of the vehicle is smaller than the preset distance, the indicator generating unit 150 is a first area with a color guiding the proximity of the vehicle ahead, as shown in FIG. 14(a). You can create an indicator that activates (1230).

그리고, 차량의 전방에 위치한 차량과의 거리 정보가 매우 가까워지면, 인디케이터 생성부(150)는, 도 14(b)와 같이, 전방 차량과 거리가 매우 가까움을 안내하는 색으로 제1 영역(1230)을 활성화 시킨 인디케이터를 생성할 수 있다.And, when the distance information of the vehicle located in front of the vehicle is very close, the indicator generating unit 150, as shown in Fig. 14 (b), the first area 1230 with a color indicating that the distance is very close to the vehicle in front. You can create an indicator that activates ).

도 15는 본 발명의 일 실시 예에 따른 차로 변경 안내를 위한 인디케이터를 나타내는 도면이다. 구체적으로 차량이 현재 차로에서 좌측 차로로 차로 변경해야하는 경우, 인디케이터 생성부(150)는, 도 15(a)와 같이, 좌측 차로로 변경을 안내하는 제4 영역의 좌측 차로 변경 안내 영역(1240-1)를 활성화시킨 인디케이터를 생성할 수 있다. 15 is a diagram illustrating an indicator for guiding a lane change according to an embodiment of the present invention. Specifically, when the vehicle needs to change the lane from the current lane to the left lane, the indicator generation unit 150, as shown in Fig. 15(a), the left lane change guidance area 1240-of the fourth area guiding the change to the left lane. You can create an indicator that activates 1).

그리고, 차량이 현재 차로에서 우측 차로로 차로 변경해야하는 경우, 인디케이터 생성부(150)는, 도 15(b)와 같이, 우측 차로로 변경을 안내하는 제4 영역의 우측 차로 변경 안내 영역(1240-2)를 활성화시킨 인디케이터를 생성할 수 있다. And, when the vehicle needs to change the lane from the current lane to the right lane, the indicator generation unit 150, as shown in Fig. 15(b), the right lane change guidance area 1240-of the fourth area guiding the change to the right lane. You can create an indicator that activates 2).

도 16은 본 발명의 일 실시 예에 따른 차선 이탈 방지 안내 및 전방 차량 추돌 방지 안내를 위한 인디케이터를 나타내는 도면이다. 구체적으로, 차량의 전방에 위치한 차량과의 거리 정보가 기 설정된 거리 보다 크고, 차량이 좌측 차선을 이탈한 경우, 인디케이터 생성부(150)는, 도 16(a)와 같이, 전방 차량과 거리가 충분함을 안내하는 색으로 제1 영역(1230)을 활성화 시키고, 차선 이탈 안내를 수행하는 제2 영역의 좌측 차선 이탈 안내 영역(1220-1)을 활성화시킨 인디케이터를 생성할 수 있다. 16 is a diagram illustrating an indicator for a lane departure prevention guidance and a front vehicle collision prevention guidance according to an embodiment of the present invention. Specifically, when the distance information with the vehicle located in front of the vehicle is greater than the preset distance and the vehicle deviates from the left lane, the indicator generating unit 150, as shown in FIG. An indicator in which the first area 1230 is activated with a color indicating sufficientness, and the left lane departure guide area 1220-1 of the second area for performing the lane departure guide is activated may be generated.

그리고, 차량의 전방에 위치한 차량과의 거리 정보가 기 설정된 거리 보다 크고, 차량이 우측 차선을 이탈한 경우, 인디케이터 생성부(150)는, 도 16(b)와 같이, 전방 차량과 거리가 충분함을 안내하는 색으로 제1 영역(1230)을 활성화 시키고, 차선 이탈 안내를 수행하는 제2 영역의 우측 차선 이탈 안내 영역(1220-2)을 활성화시킨 인디케이터를 생성할 수 있다. And, when the distance information of the vehicle located in front of the vehicle is greater than the preset distance, and the vehicle deviates from the right lane, the indicator generating unit 150 has a sufficient distance to the vehicle in front, as shown in FIG. 16(b). An indicator of activating the first area 1230 with a color guiding the vehicle and activating the right lane departure guide area 1220-2 of the second area performing the lane departure guidance may be generated.

도 17은 본 발명의 일 실시 예에 따른 길 안내 화면을 나타내는 도면이다. 도 17을 참조하면, 길 안내 화면은, 운전 중인 차량의 전방을 촬영한 영상에 생성된 인디케이터(1200)를 겹쳐서 표시하는 증강 현실 길 안내 화면(1710) 및 2D(2-Dimensional) 또는 3D(3-Dimensional)의 지도 데이터에 길 안내를 수행하는 2D(2-Dimensional) 또는 3D(3-Dimensional) 길 안내 화면(1720)을 함께 표시할 수 있다. 17 is a diagram illustrating a route guidance screen according to an embodiment of the present invention. Referring to FIG. 17, the road guide screen includes an augmented reality road guide screen 1710 and a 2-dimensional (2D) or 3D (3D) augmented reality road guide screen 1710 that overlaps and displays an indicator 1200 generated on an image photographed in front of a driving vehicle. A 2-Dimensional (2-Dimensional) or 3-Dimensional (3D) route guidance screen 1720 may be displayed on the map data of -Dimensional).

그리고, 인디케이터(1710)는 차선을 연장하여 서로 교차하게 되는 점인 소실점(Vanishing point)으로부터 소정 거리 위에 위치한 증강 현실 길 안내 화면(1710) 내의 영역에 표시될 수 있다. In addition, the indicator 1710 may be displayed in an area within the augmented reality road guide screen 1710 located above a predetermined distance from a vanishing point, which is a point at which the lanes extend and cross each other.

도 18은 본 발명의 다른 실시 예에 따른 길 안내 화면을 나타내는 도면이다. 도 18을 참조하면, 본 발명의 다른 실시 예에 따른 인디케이터(1300)는 전방 추돌 방지 안내를 수행하는 제1 영역, 제1 영역의 상단에 위치하고 신호 변경 안내를 수행하는 제3 영역, 차로 변경 안내를 수행하는 제4 영역을 포함할 수 있다.18 is a diagram illustrating a road guidance screen according to another embodiment of the present invention. Referring to FIG. 18, an indicator 1300 according to another embodiment of the present invention includes a first area for performing forward collision prevention guidance, a third area for guiding a signal change, and a lane change guidance located at the top of the first area. It may include a fourth area to perform.

이 경우, 차선 이탈 안내를 위한 제2 영역(1830)은 증강 현실 길 안내 화면(1810)의 차선 부분에 위치할 수 있다. 즉, 차량이 좌측 차선을 이탈한 경우, 증강 현실 길 안내 화면(1810)에서 차량이 위치한 차로의 좌측 차선 부분이 활성화될 수 있고, 차량이 우측 차선을 이탈한 경우, 증강 현실 길 안내 화면(1810)에서 차량이 위치한 차로의 우측 차선 부분이 활성화될 수 있다.In this case, the second area 1830 for lane departure guidance may be located in a lane portion of the augmented reality navigation screen 1810. That is, when the vehicle deviates from the left lane, the left lane portion of the lane where the vehicle is located may be activated on the augmented reality navigation screen 1810, and when the vehicle deviates from the right lane, the augmented reality road guidance screen 1810 ), the right lane portion of the lane where the vehicle is located may be activated.

도 19는 본 발명의 일 실시 예에 따른 카메라와 전자 장치가 분리형이 경우 구현 형태를 나타내는 도면이다. 도 19를 참조하면, 차량용 내비게이션(100)과 별도로 마련된 차량용 블랙박스(200)가 유선/무선 통신 방식을 이용하여 본 발명의 일 실시 예에 따른 시스템을 구성할 수 있다. 19 is a diagram illustrating an implementation form when a camera and an electronic device are separated according to an embodiment of the present invention. Referring to FIG. 19, a vehicle black box 200 provided separately from the vehicle navigation 100 may constitute a system according to an embodiment of the present invention using a wired/wireless communication method.

차량용 내비게이션(100)은 내비게이션 하우징(191)의 전면에 마련된 디스플레이부(145)와, 내비게이션 조작키(193)와, 내비게이션 마이크(195)를 포함할 수 있다.The vehicle navigation 100 may include a display unit 145 provided on the front of the navigation housing 191, a navigation operation key 193, and a navigation microphone 195.

차량용 블랙박스(200)는 주행 중 및 정차 중에 차량의 데이터를 획득할 수 있다. 즉, 차량의 주행 중의 영상을 촬영할 수 있음은 물론, 차량이 정차하여 있는 경우에도 영상을 촬영할 수 있다. 차량용 블랙박스(200)를 통하여 획득된 영상의 화질은, 일정하거나 변화될 수 있다. 예를 들어, 사고의 발생을 전후하여서는 영상의 화질을 높게 하고, 통상적인 경우에는 영상의 화질을 낮게 함으로써 요구되는 저장공간을 최소화하면서도 핵심적인 영상을 저장할 수 있다.The vehicle black box 200 may acquire vehicle data while driving and while stopping. In other words, it is possible to capture an image while the vehicle is driving, as well as to capture an image even when the vehicle is stopped. The quality of the image acquired through the vehicle black box 200 may be constant or may be changed. For example, by increasing the image quality before and after the occurrence of an accident, and lowering the image quality in a normal case, it is possible to store essential images while minimizing required storage space.

차량용 블랙박스(200)는 블랙박스 카메라(222)와, 블랙박스 마이크(224)와, 부착부(281)를 포함할 수 있다.The vehicle black box 200 may include a black box camera 222, a black box microphone 224, and an attachment part 281.

한편, 도 19에서는 차량용 내비게이션(100)과 별도로 마련된 차량용 블랙박스(200)가 유/무선 통신 방식을 통하여 연결된 것으로 도시하였으나, 차량용 내비게이션(100)과 차량용 블랙박스(200)는 유/무선 통신 방식을 통하여 연결되지 않을 수도 있다. 이 경우, 블랙 박스(200)의 촬영 영상을 저장하는 저장 매체가 전자 장치(100)에 삽입되면, 전자 장치(100)는 촬영 영상을 입력받을 수 있다. 한편, 차량용 블랙박스(200)가 차량용 내비게이션(100)의 기능을 구비하거나, 차량용 내비게이션(100)이 카메라를 구비하여 일체화되는 경우도 가능하다. 이에 대해서는 도 13을 참조하여 구체적으로 설명하기로 한다.Meanwhile, in FIG. 19, it is shown that the vehicle black box 200 provided separately from the vehicle navigation 100 is connected through a wired/wireless communication method, but the vehicle navigation 100 and the vehicle black box 200 have a wired/wireless communication method. It may not be connected through. In this case, when a storage medium for storing the captured image of the black box 200 is inserted into the electronic device 100, the electronic device 100 may receive the captured image. Meanwhile, the vehicle black box 200 may have the function of the vehicle navigation 100, or the vehicle navigation 100 may be integrated with a camera. This will be described in detail with reference to FIG. 13.

도 20은 본 발명의 일 실시 예에 따른 카메라와 전자 장치가 일체형인 경우 구현 형태를 나타내는 도면이다. 도 20을 참조하면, 전자 장치가 카메라 기능을 내포하는 경우, 사용자는 전자 장치의 카메라 부분이 차량의 전방을 촬영하고, 전자 장치의 디스플레이 부분이 사용자 인식가능하도록 전자 장치를 거치시킬 수 있다. 이에 따라, 본 발명의 일 실시 예에 따른 시스템을 구현할 수 있다. 20 is a diagram illustrating an implementation form when a camera and an electronic device are integrated according to an embodiment of the present invention. Referring to FIG. 20, when the electronic device includes a camera function, a user may mount the electronic device so that the camera part of the electronic device photographs the front of the vehicle and the display part of the electronic device can be recognized by the user. Accordingly, a system according to an embodiment of the present invention can be implemented.

도 21은 본 발명의 일 실시 예에 따른 HUD(Head-Up Display) 및 전자 장치를 이용한 구현 형태를 나타내는 도면이다. 도 21을 참조하면, 전자 장치는 헤드업 디스플레이와 유/무선 통신을 통하여 증강 현실 안내 화면을 헤드업 디스플레이 상에서 표시할 수 있다. 21 is a diagram illustrating an implementation form using a head-up display (HUD) and an electronic device according to an embodiment of the present invention. Referring to FIG. 21, the electronic device may display an augmented reality guide screen on the head-up display through wired/wireless communication with the head-up display.

한편, 상술한 본 발명의 다양한 실시 예들에 따른 전자 장치의 제어 방법은 프로그램 코드로 구현되어 다양한 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장된 상태로 각 서버 또는 기기들에 제공될 수 있다. Meanwhile, the method for controlling an electronic device according to various embodiments of the present disclosure described above may be implemented as a program code and provided to each server or devices while being stored in various non-transitory computer readable media. have.

비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.The non-transitory readable medium refers to a medium that stores data semi-permanently and can be read by a device, not a medium that stores data for a short moment, such as a register, cache, or memory. Specifically, the above-described various applications or programs may be provided by being stored in a non-transitory readable medium such as a CD, DVD, hard disk, Blu-ray disk, USB, memory card, and ROM.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.In addition, although the preferred embodiments of the present invention have been illustrated and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the present invention belongs without departing from the gist of the present invention claimed in the claims. In addition, various modifications are possible by those of ordinary skill in the art, and these modifications should not be individually understood from the technical spirit or prospect of the present invention.

Claims (27)

하나 이상의 프로그램들을 저장하는 컴퓨터 판독 가능 저장 매체(computer readable storage medium)에 있어서,
상기 하나 이상의 프로그램들은,
디스플레이를 가지고, 이동되고 있는 차량(vehicle) 내에 포함된, 전자 장치의 적어도 하나의 프로세서에 의해 실행될 시,
상기 차량의 전방의 환경에 대한 화면 위에 중첩으로, 상기 차량이 이동될 경로를 지시하기(indicate) 위한 시각적 객체를 상기 디스플레이를 통해 표시하고, 여기서, 상기 시각적 객체는, 상기 차량과 상기 차량이 상기 경로를 따라(along) 이동하기 위해 턴을 수행해야 하는 위치 사이의 거리를 지시하기 위한 제1 데이터 및 상기 턴의 유형을 지시하기 위한 제2 데이터를 포함하고,
상기 화면 위에 중첩으로 상기 제1 데이터 및 상기 제2 데이터를 포함하는 상기 시각적 객체를 표시하는 동안 상기 차량과 상기 차량의 전방의 다른(another) 차량 사이의 거리가 지정된 거리 미만임을 식별하는 것에 응답하여, 전방 충돌 경고를 지시하기 위한 제3 데이터를 더(further) 포함하는 상기 시각적 객체를 상기 화면 위에 중첩으로 상기 디스플레이를 통해 표시하고,
상기 화면 위에 중첩으로 상기 제1 데이터 및 상기 제2 데이터를 포함하는 상기 시각적 객체를 표시하는 동안 상기 차량이 상기 시각적 객체의 표시 위치에 대응하는 차로로부터 적어도 일부 이탈함을 식별하는 것에 응답하여, 상기 시각적 객체 옆에(next to) 차선 이탈 경고를 지시하기 위한 다른(another) 시각적 객체를 상기 화면 위에 중첩으로 상기 디스플레이를 통해 표시하도록,
상기 전자 장치를 야기하는 인스트럭션들을 포함하는 컴퓨터 판독 가능 저장 매체.
In a computer readable storage medium storing one or more programs,
The one or more programs,
When executed by at least one processor of an electronic device, contained within the vehicle being moved, with a display,
By superimposing on the screen of the environment in front of the vehicle, a visual object for indicating a path to which the vehicle is to be moved is displayed through the display, wherein the visual object includes the vehicle and the vehicle Including first data for indicating a distance between positions to perform a turn in order to move along a path and second data for indicating a type of the turn,
In response to identifying that the distance between the vehicle and another vehicle in front of the vehicle is less than a specified distance while displaying the visual object including the first data and the second data in an overlapping on the screen , The visual object further including third data for instructing a forward collision warning is displayed through the display in an overlapping manner on the screen,
In response to identifying that the vehicle has at least partially deviated from the lane corresponding to the display position of the visual object while displaying the visual object including the first data and the second data by being superimposed on the screen, the To display through the display by superimposing on the screen another visual object for indicating a lane departure warning next to the visual object,
A computer-readable storage medium containing instructions that cause the electronic device.
청구항 1에 있어서, 상기 화면은,
상기 화면을 통해 제공되는 뷰(view)와 구별되는 다른 뷰를 가지는 전자 지도에 대한 다른(another) 화면과 함께 상기 디스플레이를 통해 표시되고,
상기 하나 이상의 프로그램들은, 상기 전자 장치의 상기 적어도 하나의 프로세서에 의해 실행될 시,
상기 화면 위에 중첩으로 상기 제1 데이터 및 상기 제2 데이터를 포함하는 상기 시각적 객체를 상기 디스플레이를 통해 표시하는 동안, 상기 경로에 대응하는 상기 다른 화면의 부분 영역(partial area)을 강조하여 표시하도록,
상기 전자 장치를 더(further) 야기하는 인스트럭션들을 포함하는 컴퓨터 판독 가능 저장 매체.
The method according to claim 1, wherein the screen,
It is displayed through the display together with another screen for an electronic map having a different view distinguished from the view provided through the screen,
When the one or more programs are executed by the at least one processor of the electronic device,
While displaying the visual object including the first data and the second data through the display by overlapping on the screen, a partial area of the other screen corresponding to the path is highlighted and displayed,
A computer-readable storage medium containing instructions that further cause the electronic device.
청구항 2에 있어서, 상기 다른 화면은,
상기 화면 옆에 표시되는 컴퓨터 판독 가능 저장 매체.
The method according to claim 2, wherein the other screen,
A computer-readable storage medium displayed next to the screen.
청구항 3에 있어서, 상기 하나 이상의 프로그램들은, 상기 전자 장치의 상기 적어도 하나의 프로세서에 의해 실행될 시,
상기 차량과 상기 턴을 수행해야 하는 상기 위치 사이의 거리의 변화에 따라(according to), 상기 화면 위에 중첩으로 상기 디스플레이를 통해 표시된 상기 시각적 객체 내의 상기 제1 데이터의 상태를 변경하도록,
상기 전자 장치를 더(further) 야기하는 인스트럭션들을 포함하는 컴퓨터 판독 가능 저장 매체.
The method of claim 3, wherein the one or more programs are executed by the at least one processor of the electronic device,
To change the state of the first data in the visual object displayed through the display by overlapping on the screen, according to a change in the distance between the vehicle and the position at which the turn is to be performed,
A computer-readable storage medium containing instructions that further cause the electronic device.
청구항 4에 있어서, 상기 화면 위에 중첩으로 표시되는 상기 시각적 객체는,
상기 차로를 구성하는 차선들의 소실점(vanishing point)으로부터 상기 차량을 향해 연장되는(extended) 컴퓨터 판독 가능 저장 매체.
The method according to claim 4, wherein the visual object displayed in an overlapping manner on the screen,
A computer-readable storage medium extending toward the vehicle from a vanishing point of lanes constituting the lane.
청구항 5에 있어서, 상기 하나 이상의 프로그램들은, 상기 전자 장치의 상기 적어도 하나의 프로세서에 의해 실행될 시,
상기 전자 장치와 관련된 카메라를 통해 획득되고, 상기 화면을 표시하기 위해 이용되는, 이미지로부터 상기 차로를 구성하는 상기 차선들을 인식하고,
상기 차선들의 상기 소실점을 기준으로, 상기 시각적 객체의 표시 위치를 식별하고,
상기 화면 위에 중첩으로, 상기 식별된 표시 위치에서, 상기 시각적 객체를 상기 디스플레이를 통해 표시하도록,
상기 전자 장치를 야기하는 인스트럭션들을 포함하는 컴퓨터 판독 가능 저장 매체.
The method of claim 5, wherein the one or more programs are executed by the at least one processor of the electronic device,
Recognizing the lanes constituting the lane from an image acquired through a camera associated with the electronic device and used to display the screen,
Identifying the display position of the visual object based on the vanishing point of the lanes,
Superimposed on the screen to display the visual object through the display at the identified display position,
A computer-readable storage medium containing instructions that cause the electronic device.
청구항 4에 있어서, 상기 시각적 객체는,
상기 화면 내의 상기 차로를 완전히(fully) 덮음으로써(cover), 상기 화면 위에 중첩되는, 컴퓨터 판독 가능 저장 매체.
The method of claim 4, wherein the visual object,
A computer-readable storage medium superimposed on the screen by completely covering the lane within the screen.
청구항 4에 있어서, 상기 하나 이상의 프로그램들은, 상기 전자 장치의 상기 적어도 하나의 프로세서에 의해 실행될 시,
상기 화면 위에 중첩으로 상기 제1 데이터 및 상기 제2 데이터를 포함하는 상기 시각적 객체를 표시하는 동안 상기 차량이 상기 턴을 수행하기 위해 상기 차로를 다른(another) 차로로 변경하는 것을 요구함을 식별하는 것에 응답하여, 상기 화면 내의 상기 차로로부터 상기 화면 내의 상기 다른 차로로 연장되는 다른(another) 시각적 객체를 상기 화면 위에 중첩으로 상기 디스플레이를 통해 표시하도록,
상기 전자 장치를 더(further) 야기하는 인스트럭션들을 포함하는 컴퓨터 판독 가능 저장 매체.
The method of claim 4, wherein the one or more programs are executed by the at least one processor of the electronic device,
While displaying the visual object including the first data and the second data in superimposition on the screen, identifying that the vehicle requires changing the lane to another lane to perform the turn In response, another visual object extending from the lane in the screen to the other lane in the screen is displayed through the display in an overlapping manner on the screen,
A computer-readable storage medium containing instructions that further cause the electronic device.
청구항 4에 있어서, 상기 제1 데이터는,
텍스트로 구성되고,
상기 제2 데이터는,
화살표로 구성되는 컴퓨터 판독 가능 저장 매체.
The method of claim 4, wherein the first data,
Consists of text,
The second data,
Computer-readable storage medium consisting of arrows.
디스플레이를 가지고, 차량 내에 포함된, 전자 장치를 동작하기 위한 방법에 있어서,
상기 차량의 전방의 환경에 대한 화면 위에 중첩으로, 상기 차량이 이동될 경로를 지시하기(indicate) 위한 시각적 객체를 상기 디스플레이를 통해 표시하는 동작과, 여기서, 상기 시각적 객체는, 상기 차량과 상기 차량이 상기 경로를 따라(along) 이동하기 위해 턴을 수행해야 하는 위치 사이의 거리를 지시하기 위한 제1 데이터 및 상기 턴의 유형을 지시하기 위한 제2 데이터를 포함하고,
상기 화면 위에 중첩으로 상기 제1 데이터 및 상기 제2 데이터를 포함하는 상기 시각적 객체를 표시하는 동안 상기 차량과 상기 차량의 전방의 다른(another) 차량 사이의 거리가 지정된 거리 미만임을 식별하는 것에 응답하여, 전방 충돌 경고를 지시하기 위한 제3 데이터를 더 포함하는 상기 시각적 객체를 상기 화면 위에 중첩으로 상기 디스플레이를 통해 표시하는 동작과,
상기 화면 위에 중첩으로 상기 제1 데이터 및 상기 제2 데이터를 포함하는 상기 시각적 객체를 표시하는 동안 상기 차량이 상기 시각적 객체의 표시 위치에 대응하는 차로로부터 적어도 일부 이탈함을 식별하는 것에 응답하여, 상기 시각적 객체 옆에 차선 이탈 경고를 지시하기 위한 다른(another) 시각적 객체를 상기 화면 위에 중첩으로 상기 디스플레이를 통해 표시하는 동작을 포함하는 방법.
In a method for operating an electronic device with a display, contained in a vehicle,
Displaying a visual object through the display to indicate a path to which the vehicle is to be moved by superimposing on the screen of the environment in front of the vehicle, wherein the visual object is the vehicle and the vehicle First data for indicating a distance between positions at which a turn should be performed to move along the path and second data for indicating the type of turn,
In response to identifying that the distance between the vehicle and another vehicle in front of the vehicle is less than a specified distance while displaying the visual object including the first data and the second data in an overlapping on the screen , Displaying the visual object further including third data for instructing a forward collision warning through the display in an overlapping manner on the screen,
In response to identifying that the vehicle has at least partially deviated from the lane corresponding to the display position of the visual object while displaying the visual object including the first data and the second data by being superimposed on the screen, the And displaying through the display another visual object for indicating a lane departure warning next to the visual object in an overlapping manner on the screen.
청구항 10에 있어서, 상기 화면은,
상기 화면을 통해 제공되는 뷰(view)와 구별되는 다른 뷰를 가지는 전자 지도에 대한 다른(another) 화면과 함께 상기 디스플레이를 통해 표시되고,
상기 방법은,
상기 화면 위에 중첩으로 상기 제1 데이터 및 상기 제2 데이터를 포함하는 상기 시각적 객체를 상기 디스플레이를 통해 표시하는 동안, 상기 경로에 대응하는 상기 다른 화면의 부분 영역(partial area)을 강조하여 표시하는 동작을 더 포함하는 방법.
The method of claim 10, wherein the screen,
It is displayed through the display together with another screen for an electronic map having a different view distinguished from the view provided through the screen,
The above method,
An operation of highlighting and displaying a partial area of the other screen corresponding to the path while the visual object including the first data and the second data is displayed through the display by being superimposed on the screen How to further include.
청구항 11에 있어서, 상기 다른 화면은,
상기 화면 옆에 표시되는 방법.
The method of claim 11, wherein the other screen,
How to be displayed next to the screen.
청구항 12에 있어서,
상기 차량과 상기 턴을 수행해야 하는 상기 위치 사이의 거리의 변화에 따라(according to), 상기 화면 위에 중첩으로 상기 디스플레이를 통해 표시된 상기 시각적 객체 내의 상기 제1 데이터의 상태를 변경하는 동작을 더 포함하는 방법.
The method of claim 12,
According to a change in the distance between the vehicle and the position at which the turn is to be performed (according to), changing the state of the first data in the visual object displayed through the display by superimposing on the screen How to.
청구항 13에 있어서, 상기 화면 위에 중첩으로 표시되는 상기 시각적 객체는,
상기 차로를 구성하는 차선들의 소실점(vanishing point)으로부터 상기 차량을 향해 연장되는(extended), 방법.
The method of claim 13, wherein the visual object displayed in an overlapping manner on the screen,
And extending from a vanishing point of lanes constituting the lane toward the vehicle.
청구항 14에 있어서, 상기 시각적 객체를 상기 화면 위에 중첩으로 표시하는 동작은,
상기 전자 장치와 관련된 카메라를 통해 획득되고, 상기 화면을 표시하기 위해 이용되는, 이미지로부터 상기 차로를 구성하는 상기 차선들을 인식하는 동작과,
상기 차선들의 상기 소실점을 기준으로, 상기 시각적 객체의 표시 위치를 식별하는 동작과,
상기 화면 위에 중첩으로, 상기 식별된 표시 위치에서, 상기 시각적 객체를 상기 디스플레이를 통해 표시하는 동작을 더 포함하는 방법.
The method of claim 14, wherein the operation of displaying the visual object in an overlapping manner on the screen,
Recognizing the lanes constituting the lane from an image acquired through a camera related to the electronic device and used to display the screen,
An operation of identifying a display position of the visual object based on the vanishing point of the lanes,
And displaying the visual object through the display at the identified display position by superimposing on the screen.
청구항 13에 있어서, 상기 시각적 객체는,
상기 화면 내의 상기 차로를 완전히(fully) 덮음으로써(cover), 상기 화면 위에 중첩되는, 방법.
The method of claim 13, wherein the visual object,
Superimposed on the screen by completely covering the lane within the screen.
청구항 13에 있어서,
상기 화면 위에 중첩으로 상기 제1 데이터 및 상기 제2 데이터를 포함하는 상기 시각적 객체를 표시하는 동안 상기 차량이 상기 턴을 수행하기 위해 상기 차로를 다른(another) 차로로 변경하는 것을 요구함을 식별하는 것에 응답하여, 상기 화면 내의 상기 차로로부터 상기 화면 내의 상기 다른 차로로 연장되는 다른(another) 시각적 객체를 상기 화면 위에 중첩으로 상기 디스플레이를 통해 표시하는 동작을 더 포함하는 방법.
The method of claim 13,
While displaying the visual object including the first data and the second data in superimposition on the screen, identifying that the vehicle requires changing the lane to another lane to perform the turn In response, the method further comprising displaying another visual object extending from the lane in the screen to the other lane in the screen in an overlapping manner on the screen through the display.
청구항 13에 있어서, 상기 제1 데이터는,
텍스트로 구성되고,
상기 제2 데이터는,
화살표로 구성되는 방법.
The method of claim 13, wherein the first data,
Consists of text,
The second data,
How it is made up of arrows.
차량 내에 포함된 전자 장치에 있어서,
인스트럭션들을 저장하도록 구성된 메모리;
디스플레이; 및
프로세서를 포함하고, 상기 프로세서는, 상기 인스트럭션들을 실행할 시,
상기 차량의 전방의 환경에 대한 화면 위에 중첩으로, 상기 차량이 이동될 경로를 지시하기(indicate) 위한 시각적 객체를 상기 디스플레이를 통해 표시하고, 여기서, 상기 시각적 객체는, 상기 차량과 상기 차량이 상기 경로를 따라(along) 이동하기 위해 턴을 수행해야 하는 위치 사이의 거리를 지시하기 위한 제1 데이터 및 상기 턴의 유형을 지시하기 위한 제2 데이터를 포함하고,
상기 화면 위에 중첩으로 상기 제1 데이터 및 상기 제2 데이터를 포함하는 상기 시각적 객체를 표시하는 동안 상기 차량과 상기 차량의 전방의 다른(another) 차량 사이의 거리가 지정된 거리 미만임을 식별하는 것에 응답하여, 전방 충돌 경고를 지시하기 위한 제3 데이터를 더 포함하는 상기 시각적 객체를 상기 화면 위에 중첩으로 상기 디스플레이를 통해 표시하고,
상기 화면 위에 중첩으로 상기 제1 데이터 및 상기 제2 데이터를 포함하는 상기 시각적 객체를 표시하는 동안 상기 차량이 상기 시각적 객체의 표시 위치에 대응하는 차로로부터 적어도 일부 이탈함을 식별하는 것에 응답하여, 상기 시각적 객체 옆에 차선 이탈 경고를 지시하기 위한 다른(another) 시각적 객체를 상기 화면 위에 중첩으로 상기 디스플레이를 통해 표시하도록,
구성되는 전자 장치.
In the electronic device included in the vehicle,
A memory configured to store instructions;
display; And
A processor, wherein the processor, when executing the instructions,
By superimposing on the screen of the environment in front of the vehicle, a visual object for indicating a path to which the vehicle is to be moved is displayed through the display, wherein the visual object includes the vehicle and the vehicle Including first data for indicating a distance between positions to perform a turn in order to move along a path and second data for indicating a type of the turn,
In response to identifying that the distance between the vehicle and another vehicle in front of the vehicle is less than a specified distance while displaying the visual object including the first data and the second data in an overlapping on the screen , Displaying the visual object further comprising third data for instructing a forward collision warning through the display in an overlapping manner on the screen,
In response to identifying that the vehicle has at least partially deviated from the lane corresponding to the display position of the visual object while displaying the visual object including the first data and the second data by being superimposed on the screen, the To display through the display another visual object for indicating a lane departure warning next to the visual object in superimposition on the screen,
Electronic device configured.
청구항 19에 있어서, 상기 화면은,
상기 화면을 통해 제공되는 뷰(view)와 구별되는 다른 뷰를 가지는 전자 지도에 대한 다른(another) 화면과 함께 상기 디스플레이를 통해 표시되고,
상기 프로세서는, 상기 인스트럭션들을 실행할 시,
상기 화면 위에 중첩으로 상기 제1 데이터 및 상기 제2 데이터를 포함하는 상기 시각적 객체를 상기 디스플레이를 통해 표시하는 동안, 상기 경로에 대응하는 상기 다른 화면의 부분 영역(partial area)을 강조하여 표시하도록,
더 구성되는 전자 장치.
The method of claim 19, wherein the screen,
It is displayed through the display together with another screen for an electronic map having a different view distinguished from the view provided through the screen,
The processor, when executing the instructions,
While displaying the visual object including the first data and the second data through the display by overlapping on the screen, a partial area of the other screen corresponding to the path is highlighted and displayed,
Electronic device further configured.
청구항 20에 있어서, 상기 다른 화면은,
상기 화면 옆에 표시되는 전자 장치.
The method of claim 20, wherein the other screen,
An electronic device displayed next to the screen.
청구항 21에 있어서, 상기 프로세서는, 상기 인스트럭션들을 실행할 시,
상기 차량과 상기 턴을 수행해야 하는 상기 위치 사이의 거리의 변화에 따라(according to), 상기 화면 위에 중첩으로 상기 디스플레이를 통해 표시된 상기 시각적 객체 내의 상기 제1 데이터의 상태를 변경하도록,
더 구성되는 전자 장치.
The method of claim 21, wherein the processor, when executing the instructions,
To change the state of the first data in the visual object displayed through the display by overlapping on the screen, according to a change in the distance between the vehicle and the position at which the turn is to be performed,
Electronic device further configured.
청구항 22에 있어서, 상기 화면 위에 중첩으로 표시되는 상기 시각적 객체는,
상기 차로를 구성하는 차선들의 소실점(vanishing point)으로부터 상기 차량을 향해 연장되는(extended) 전자 장치.
The method of claim 22, wherein the visual object displayed in an overlapping manner on the screen,
An electronic device extending toward the vehicle from a vanishing point of lanes constituting the lane.
청구항 23에 있어서, 상기 프로세서는, 상기 인스트럭션들을 실행할 시,
상기 전자 장치와 관련된 카메라를 통해 획득되고, 상기 화면을 표시하기 위해 이용되는, 이미지로부터 상기 차로를 구성하는 상기 차선들을 인식하고,
상기 차선들의 상기 소실점을 기준으로, 상기 시각적 객체의 표시 위치를 식별하고,
상기 화면 위에 중첩으로, 상기 식별된 표시 위치에서, 상기 시각적 객체를 상기 디스플레이를 통해 표시하도록,
구성되는 전자 장치.
The method of claim 23, wherein the processor, when executing the instructions,
Recognizing the lanes constituting the lane from an image acquired through a camera associated with the electronic device and used to display the screen,
Identifying the display position of the visual object based on the vanishing point of the lanes,
Superimposed on the screen to display the visual object through the display at the identified display position,
Electronic device configured.
청구항 22에 있어서, 상기 시각적 객체는,
상기 화면 내의 상기 차로를 완전히(fully) 덮음으로써(cover), 상기 화면 위에 중첩되는, 전자 장치.
The method of claim 22, wherein the visual object,
The electronic device, which is superimposed on the screen by completely covering the lane within the screen.
청구항 22에 있어서, 상기 프로세서는, 상기 인스트럭션들을 실행할 시,
상기 화면 위에 중첩으로 상기 제1 데이터 및 상기 제2 데이터를 포함하는 상기 시각적 객체를 표시하는 동안 상기 차량이 상기 턴을 수행하기 위해 상기 차로를 다른(another) 차로로 변경하는 것을 요구함을 식별하는 것에 응답하여, 상기 화면 내의 상기 차로로부터 상기 화면 내의 상기 다른 차로로 연장되는 다른(another) 시각적 객체를 상기 화면 위에 중첩으로 상기 디스플레이를 통해 표시하도록,
더 구성되는 전자 장치.
The method of claim 22, wherein the processor, when executing the instructions,
While displaying the visual object including the first data and the second data in superimposition on the screen, identifying that the vehicle requires changing the lane to another lane to perform the turn In response, another visual object extending from the lane in the screen to the other lane in the screen is displayed through the display in an overlapping manner on the screen,
Electronic device further configured.
청구항 22에 있어서, 상기 제1 데이터는,
텍스트로 구성되고,
상기 제2 데이터는,
화살표로 구성되는 전자 장치.
The method of claim 22, wherein the first data,
Consists of text,
The second data,
Electronic device consisting of arrows.
KR1020210001357A 2014-06-05 2021-01-06 Electronic apparatus, control method of electronic apparatus and computer readable recording medium KR102299501B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210001357A KR102299501B1 (en) 2014-06-05 2021-01-06 Electronic apparatus, control method of electronic apparatus and computer readable recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020140068239A KR20150140449A (en) 2014-06-05 2014-06-05 Electronic apparatus, control method of electronic apparatus and computer readable recording medium
KR1020210001357A KR102299501B1 (en) 2014-06-05 2021-01-06 Electronic apparatus, control method of electronic apparatus and computer readable recording medium

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020140068239A Division KR20150140449A (en) 2014-06-05 2014-06-05 Electronic apparatus, control method of electronic apparatus and computer readable recording medium

Publications (2)

Publication Number Publication Date
KR20210010935A true KR20210010935A (en) 2021-01-28
KR102299501B1 KR102299501B1 (en) 2021-09-09

Family

ID=74239229

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210001357A KR102299501B1 (en) 2014-06-05 2021-01-06 Electronic apparatus, control method of electronic apparatus and computer readable recording medium

Country Status (1)

Country Link
KR (1) KR102299501B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100815153B1 (en) * 2006-11-08 2008-03-19 한국전자통신연구원 Apparatus and method for guiding a cross road of car navigation using a camera
JP2009229172A (en) * 2008-03-21 2009-10-08 Alpine Electronics Inc Information-providing system and information-providing method
KR101252015B1 (en) * 2012-08-16 2013-04-09 주식회사 피엘케이 테크놀로지 Navigation system for judging route change of vehicle
KR20130120041A (en) * 2012-04-25 2013-11-04 (주)아이머큐리 Apparatus and method for detecting traffic lane
KR20140055353A (en) * 2012-10-31 2014-05-09 현대자동차주식회사 Apparatus and method for position tracking of peripheral vehicle

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100815153B1 (en) * 2006-11-08 2008-03-19 한국전자통신연구원 Apparatus and method for guiding a cross road of car navigation using a camera
JP2009229172A (en) * 2008-03-21 2009-10-08 Alpine Electronics Inc Information-providing system and information-providing method
KR20130120041A (en) * 2012-04-25 2013-11-04 (주)아이머큐리 Apparatus and method for detecting traffic lane
KR101252015B1 (en) * 2012-08-16 2013-04-09 주식회사 피엘케이 테크놀로지 Navigation system for judging route change of vehicle
KR20140055353A (en) * 2012-10-31 2014-05-09 현대자동차주식회사 Apparatus and method for position tracking of peripheral vehicle

Also Published As

Publication number Publication date
KR102299501B1 (en) 2021-09-09

Similar Documents

Publication Publication Date Title
CN108680173B (en) Electronic device, control method of electronic device, and computer-readable recording medium
KR102348127B1 (en) Electronic apparatus and control method thereof
US20200333154A1 (en) Electronic apparatus and control method thereof
US11030816B2 (en) Electronic apparatus, control method thereof, computer program, and computer-readable recording medium
CN110091798B (en) Electronic device, control method of electronic device, and computer-readable storage medium
KR102233391B1 (en) Electronic apparatus, control method of electronic apparatus and computer readable recording medium
CN110260877B (en) Driving related guidance providing method and apparatus, and computer readable recording medium
KR102406490B1 (en) Electronic apparatus, control method of electronic apparatus, computer program and computer readable recording medium
KR102158167B1 (en) Electronic apparatus, control method of electronic apparatus and computer readable recording medium
KR102299501B1 (en) Electronic apparatus, control method of electronic apparatus and computer readable recording medium
KR102276082B1 (en) Navigation device, black-box and control method thereof
KR102371620B1 (en) Electronic apparatus, control method of electronic apparatus and computer readable recording medium
KR102299499B1 (en) Electronic apparatus and control method thereof
KR102299500B1 (en) Electronic apparatus and control method thereof

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant