KR102348127B1 - Electronic apparatus and control method thereof - Google Patents
Electronic apparatus and control method thereof Download PDFInfo
- Publication number
- KR102348127B1 KR102348127B1 KR1020210063573A KR20210063573A KR102348127B1 KR 102348127 B1 KR102348127 B1 KR 102348127B1 KR 1020210063573 A KR1020210063573 A KR 1020210063573A KR 20210063573 A KR20210063573 A KR 20210063573A KR 102348127 B1 KR102348127 B1 KR 102348127B1
- Authority
- KR
- South Korea
- Prior art keywords
- lane
- vehicle
- guide line
- unit
- route
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 53
- 230000003190 augmentative effect Effects 0.000 claims abstract description 47
- 238000013507 mapping Methods 0.000 claims abstract description 19
- 230000008859 change Effects 0.000 claims description 27
- 238000012545 processing Methods 0.000 claims description 19
- 238000006073 displacement reaction Methods 0.000 claims description 8
- 238000012937 correction Methods 0.000 claims description 5
- 238000004891 communication Methods 0.000 description 34
- 238000010586 diagram Methods 0.000 description 23
- 230000006870 function Effects 0.000 description 17
- 238000001514 detection method Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000010295 mobile communication Methods 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 235000000332 black box Nutrition 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000001172 regenerating effect Effects 0.000 description 1
- 238000009751 slip forming Methods 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3658—Lane guidance
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/21—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
- B60K35/22—Display screens
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/28—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/10—Path keeping
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
- B60W40/072—Curvature of the road
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
- B60W40/105—Speed
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3647—Guidance involving output of stored or live camera images or video streams
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/20—Optical features of instruments
- B60K2360/21—Optical features of instruments using cameras
-
- B60K2370/166—
-
- B60K2370/177—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0002—Automatic control, details of type of controller or control system architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B60W2420/42—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/10—Longitudinal speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
- B60W2556/50—External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2300/00—Purposes or special features of road vehicle drive control systems
- B60Y2300/10—Path keeping
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
- Instructional Devices (AREA)
Abstract
전자 장치의 제어 방법이 개시된다. 본 제어 방법은, 경로 안내를 요청하는 사용자 입력을 수신하는 단계, 요청에 대응되는 목적지 정보를 기초로 경로 안내선을 생성하는 단계, 실제 주행 차량의 주행 궤적 반경을 반영하여 생성된 경로 안내선의 보정을 수행하는 단계, 보정된 경로 안내선을 자차와의 거리에 따라 높이를 달리하여 가변 입체화를 수행하는 단계, 가변 입체화에 따라 생성된 입체 데이터에 텍스처를 매핑하여 경로 안내 인디케이터를 생성하는 단계 및 경로 안내 인디케이터를 증강 현실을 통해 화면에 출력하는 단계를 포함한다.A method of controlling an electronic device is disclosed. This control method includes the steps of receiving a user input requesting route guidance, generating a route guide line based on destination information corresponding to the request, and correcting the route guide line generated by reflecting the radius of the driving trajectory of the actual driving vehicle. performing variable three-dimensionalization by varying the height of the corrected route guide line according to the distance from the host vehicle, mapping the texture to the three-dimensional data generated according to the variable three-dimensionalization to generate a route guide indicator, and route guide indicator and outputting it to the screen through augmented reality.
Description
본 발명은 전자 장치 및 그의 제어 방법에 관한 것으로, 보다 상세하게는 차량이 위치한 차로 위치 인식 및 이를 기초로 운전 관련 안내를 수행할 수 있는 전자 장치 및 그의 제어 방법에 관한 것이다. The present invention relates to an electronic device and a control method thereof, and more particularly, to an electronic device capable of recognizing a location of a lane in which a vehicle is located and performing driving-related guidance based thereon, and a control method thereof.
차량의 주행 시 가장 중요한 것은 안전 주행 및 교통 사고의 예방이며, 이를 위해 차량의 자세 제어, 차량 구성장치들의 기능 제어 등을 수행하는 다양한 보조장치 및 안전 벨트, 에어백 등의 안전장치가 차량에 장착되어 있다.The most important thing when driving a vehicle is safe driving and prevention of traffic accidents. have.
뿐만 아니라, 최근에는 블랙박스 등과 같이 차량에 위치하여 차량의 주행 영상 및 각종 센서들로부터 전송되는 데이터를 저장함으로써, 차량이 사고 발생시 차량의 사고 원인을 규명하는 장치들도 차량에 구비되는 추세이다. 스마트폰, 태블릿과 같은 휴대용 단말기들도 블랙박스 또는 네비게이션 어플리케이션 등이 탑재 가능하여 이와 같은 차량용 장치로 활용되고 있는 실정이다.In addition, recently, devices such as a black box are located in a vehicle to store driving images of the vehicle and data transmitted from various sensors, thereby identifying the cause of the vehicle accident when the vehicle is in an accident. Portable terminals such as smartphones and tablets can also be equipped with a black box or a navigation application, and thus are being used as such vehicle devices.
그러나, 현재 이와 같은 차량용 장치들에서의 주행 영상 활용도는 낮은 실정이다. 보다 구체적으로 현재 차량에 장착된 카메라와 같은 비젼 센서를 통해 차량의 주행 영상을 획득하더라도 차량의 전자 장치는 이를 단순히 표시, 전송하거나, 차선 이탈 여부 등과 같은 간단한 주변 알림 정보만을 생성하는데 그치고 있다.However, the current utilization of driving images in such vehicle devices is low. More specifically, even if a driving image of a vehicle is acquired through a vision sensor such as a camera mounted on a current vehicle, the electronic device of the vehicle simply displays and transmits it, or generates only simple surrounding notification information such as lane departure.
또한, 현재 새로이 대두되는 차량의 전자 장치로서 HUD(Head Up Display)나, 증강 현실 인터페이스도 제안되고 있으나 여기에서도 차량의 주행 영상의 활용도는 단순 디스플레이 또는 간단한 알림 정보 생성에 그치고 있다.In addition, although a head-up display (HUD) or an augmented reality interface has been proposed as an electronic device for a vehicle that is newly emerging, the utilization of the driving image of the vehicle is limited to a simple display or simple notification information generation here.
본 발명의 상술한 문제점을 해결하기 위해 안출된 것으로, 본 발명의 목적은 차량의 운전 관련 영상 데이터를 이용하여 차량이 위치한 차로 위치 정보를 생성하고, 이를 기초로 운전 관련 안내를 수행할 수 있는 전자 장치 및 그의 제어 방법을 제공함에 있다. The present invention has been devised to solve the above-described problems, and an object of the present invention is to generate location information on the lane in which the vehicle is located by using driving-related image data of the vehicle, and based on this, an electronic device capable of providing driving-related guidance To provide an apparatus and a method for controlling the same.
또한, 본 발명의 다른 목적은 증강 현실을 기반으로 효과적으로 운전 관련 안내를 수행할 수 있는 전자 장치 및 그의 제어 방법을 제공함에 있다. Another object of the present invention is to provide an electronic device capable of effectively performing driving-related guidance based on augmented reality and a control method thereof.
상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 전자 장치의 제어 방법은, 차량의 운전 관련 영상 데이터로부터 차선 영역을 식별하는 단계, 상기 식별된 차선 영역 부분의 영상 데이터로부터 상기 차량이 위치한 차로에 대응되는 차선 정보를 생성하는 단계, 상기 생성된 차선 정보 및 상기 차량이 위치한 도로의 차로 정보 중 적어도 하나를 이용하여 상기 차량이 위치한 차로 위치 정보를 생성하는 단계 및 상기 생성된 차로 위치 정보를 이용하여 상기 차량의 운전 관련 안내를 수행하는 단계를 포함한다.A method of controlling an electronic device according to an embodiment of the present invention for achieving the above object includes: identifying a lane area from driving-related image data of a vehicle; generating lane information corresponding to the lane; generating lane location information on the lane on which the vehicle is located using at least one of the generated lane information and lane information on the road on which the vehicle is located; and using the generated lane location information and performing driving-related guidance of the vehicle using the .
그리고, 상기 차선 정보는, 상기 차량이 위치한 차로를 기준으로 양측에 위치한 각 차선에 대응되는 차선 종류 정보, 차선 색상 정보를 포함할 수 있다.In addition, the lane information may include lane type information and lane color information corresponding to each lane located on both sides of the lane in which the vehicle is located.
또한, 상기 차로 위치 정보를 생성하는 단계는, 지도 데이터로부터 상기 차량이 위치한 도로의 차로 정보를 획득하는 단계, 상기 생성된 차선 정보를 이용하여 상기 차량이 상기 도로의 첫 번째 차로, 또는 마지막 차로에 위치하는지 여부를 판단하는 단계, 상기 차량이 상기 첫 번째 또는 마지막 차로에 위치하는 경우, 상기 도로의 차로 정보를 반영하여 상기 차량이 위치한 차로 위치 정보를 생성하는 단계를 포함할 수 있다.In addition, the generating of the lane location information includes: obtaining lane information of a road on which the vehicle is located from map data; The method may include determining whether the vehicle is located, and when the vehicle is located on the first or last lane, generating information about the lane on which the vehicle is located by reflecting information on the lane of the road.
그리고, 상기 차로 위치 정보를 생성하는 단계는, 상기 차량의 차로 변경에 따라 상기 차량이 위치한 차로가 상기 첫 번째 또는 마지막 차로의 사이에 위치한 차로로 변경되면, 상기 생성된 차로 위치 정보를 상기 변경된 차로 위치 정보로 갱신하는 단계를 더 포함할 수 있다.In the generating of the lane location information, when the lane in which the vehicle is located is changed to a lane located between the first or last lanes according to the lane change of the vehicle, the generated lane location information is converted into the changed lane. The method may further include updating the location information.
또한, 상기 차량의 차로 변경에 따라 상기 차량이 위치한 차로가 상기 사이에 위치한 차로에서 상기 첫 번째 또는 마지막 차로로 변경되면, 상기 차량이 위치한 도로의 차로 정보를 반영하여 상기 차량이 위치한 차로 위치 정보를 재생성하는 단계를 더 포함할 수 있다.In addition, when the lane on which the vehicle is located is changed from the lane located between the lanes to the first or last lane according to the lane change of the vehicle, the lane location information on the lane on which the vehicle is located is reflected by reflecting the lane information of the road on which the vehicle is located It may further include the step of regenerating.
그리고, 상기 차량의 운전 관련 안내를 수행하는 단계는, 상기 차량의 내비게이션 경로와 상기 차로 위치 정보를 이용하여 차로 변경 안내를 출력하는 단계를 포함할 수 있다.In addition, the performing driving-related guidance of the vehicle may include outputting a lane change guidance using a navigation route of the vehicle and the lane location information.
또한, 상기 차량의 운전 관련 안내를 수행하는 단계는, 상기 차로 위치 정보를 이용하여 상기 차량이 위치한 차로 안내를 출력하는 단계를 포함할 수 있다.In addition, the step of performing the driving-related guidance of the vehicle may include outputting a guidance on a lane in which the vehicle is located by using the lane location information.
그리고, 상기 차선 정보에 기초하여 식별되는 차량이 위치한 차로 양측 차선의 종류에 따라, 적절한 차선 이탈 안내를 선택하여 출력하는 단계를 더 포함할 수 있다.The method may further include the step of selecting and outputting an appropriate lane departure guide according to the types of both lanes of the lane in which the vehicle identified based on the lane information is located.
또한, 상기 출력하는 단계는, 상기 운전 관련 안내를 수행하기 위한 인디케이터를 생성하는 단계 및 상기 생성된 인디케이터를 증강 현실을 통해 출력하는 단계를 포함할 수 있다.Also, the outputting may include generating an indicator for performing the driving-related guidance and outputting the generated indicator through augmented reality.
한편, 상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 전자 장치는, 차량의 운전 관련 영상 데이터로부터 차선 영역을 식별하고, 상기 식별된 차선 영역 부분의 영상 데이터로부터 상기 차량이 위치한 차로에 대응되는 차선 정보를 생성하는 차선 정보 생성부, 상기 생성된 차선 정보 및 상기 차량이 위치한 도로의 차로 정보 중 적어도 하나를 이용하여 상기 차량이 위치한 차로 위치 정보를 생성하는 차로 위치 정보 생성부 및 상기 생성된 차로 위치 정보를 이용하여 상기 차량의 운전 관련 안내를 수행하는 제어부를 포함한다.On the other hand, an electronic device according to an embodiment of the present invention for achieving the above object identifies a lane area from driving-related image data of a vehicle, and from the image data of the identified lane area part to a lane in which the vehicle is located A lane information generation unit generating corresponding lane information, a lane location information generation unit generating location information on a lane in which the vehicle is located by using at least one of the generated lane information and lane information of a road on which the vehicle is located, and the generation unit and a controller configured to provide driving-related guidance of the vehicle by using the obtained lane location information.
그리고, 상기 차선 정보는, 상기 차량이 위치한 차로를 기준으로 양측에 위치한 각 차선에 대응되는 차선 종류 정보, 차선 색상 정보를 포함할 수 있다.In addition, the lane information may include lane type information and lane color information corresponding to each lane located on both sides of the lane in which the vehicle is located.
또한, 상기 차로 위치 정보 생성부는, 지도 데이터로부터 상기 차량이 위치한 도로의 차로 정보를 획득하고, 상기 생성된 차선 정보를 이용하여 상기 차량이 상기 도로의 첫 번째 차로, 또는 마지막 차로에 위치하는지 여부를 판단하며, 상기 차량이 상기 첫 번째 또는 마지막 차로에 위치하는 경우, 상기 도로의 차로 정보를 반영하여 상기 차량이 위치한 차로 위치 정보를 생성할 수 있다In addition, the lane location information generating unit obtains lane information of the road on which the vehicle is located from map data, and determines whether the vehicle is located on the first lane or the last lane of the road using the generated lane information. and if the vehicle is located on the first or last lane, lane location information on which the vehicle is located may be generated by reflecting lane information of the road
그리고, 상기 차로 위치 정보 생성부는, 상기 차량의 차로 변경에 따라 상기 차량이 위치한 차로가 상기 첫 번째 또는 마지막 차로의 사이에 위치한 차로로 변경되면, 상기 생성된 차로 위치 정보를 상기 변경된 차로 위치 정보로 갱신할 수 있다.The lane location information generating unit may be configured to convert the generated lane location information into the changed lane location information when the lane on which the vehicle is located is changed to a lane located between the first or last lanes according to the lane change of the vehicle. Can be updated.
또한, 상기 차로 위치 정보 생성부는, 상기 차량의 차로 변경에 따라 상기 차량이 위치한 차로가 상기 사이에 위치한 차로에서 상기 첫 번째 또는 마지막 차로로 변경되면, 상기 차량이 위치한 도로의 차로 정보를 반영하여 상기 차량이 위치한 차로 위치 정보를 재생성할 수 있다.In addition, the lane location information generating unit may be configured to reflect the lane information of the road on which the vehicle is located when the lane on which the vehicle is located is changed from a lane located between the lanes to the first or last lane according to the lane change of the vehicle. It is possible to regenerate the location information of the vehicle in which the vehicle is located.
그리고, 상기 제어부는, 상기 차량의 내비게이션 경로와 상기 차로 위치 정보를 이용하여 차로 변경 안내를 출력하도록 출력부를 제어할 수 있다.In addition, the controller may control the output unit to output a lane change guide using the navigation route of the vehicle and the lane location information.
또한, 상기 제어부는, 상기 차로 위치 정보를 이용하여 상기 차량이 위치한 차로 안내를 출력하도록 출력부를 제어할 수 있다.Also, the controller may control the output unit to output a guide to a lane in which the vehicle is located by using the lane location information.
그리고, 상기 제어부는, 상기 차선 정보에 기초하여 식별되는 차량이 위치한 차로 양측 차선의 종류에 따라, 적절한 차선 이탈 안내를 선택하여 출력하도록 출력부를 제어할 수 있다.In addition, the controller may control the output unit to select and output an appropriate lane departure guide according to types of lanes on both sides of the lane in which the vehicle identified based on the lane information is located.
또한, 상기 제어부는, 상기 운전 관련 안내를 수행하기 위한 인디케이터를 생성하고, 상기 생성된 인디케이터를 증강 현실을 통해 출력하도록 출력부를 제어할 수 있다.Also, the controller may generate an indicator for performing the driving-related guidance and control the output unit to output the generated indicator through augmented reality.
한편, 상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 전자 장치의 제어 방법은, 경로 안내를 요청하는 사용자 입력을 수신하는 단계 상기 요청에 대응되는 목적지 정보를 기초로 경로 안내선을 생성하는 단계, 실제 주행 차량의 주행 궤적 반경을 반영하여 생성된 경로 안내선의 보정을 수행하는 단계, 상기 보정된 경로 안내선을 자차의 거리에 따라 높이를 달리하여 가변 입체화를 수행하는 단계, 상기 입체에 텍스처를 매핑하여 경로 안내 인디케이터를 생성하는 단계, 및 상기 경로 안내 인디케이터를 증강 현실을 통해 화면에 출력하는 단계를 포함한다.On the other hand, to achieve the above object, the control method of the electronic device according to an embodiment of the present invention for achieving the above object, the step of receiving a user input requesting a route guide generating a route guide line based on destination information corresponding to the request Step, performing correction of the generated path guide line by reflecting the radius of the driving trajectory of the actual driving vehicle, performing variable three-dimensionalization by varying the height of the corrected path guide line according to the distance of the own vehicle, and applying a texture to the three-dimensional Creating a route guidance indicator by mapping, and outputting the route guidance indicator to a screen through augmented reality.
그리고, 상기 경로 안내선의 보정을 수행하는 단계는, 자차 앞 경로 안내선의 직선을 유지하기 위한 버텍스들을 추가하는 단계, 경로 안내선의 커브 구간에 커브 구간의 곡선화를 위한 버텍스들을 추가하는 단계 및 추가된 버텍스들을 이용하여 실제 주행 차량의 주행 궤적 반경을 반영한 경로 안내선을 생성하는 단계를 포함할 수 있다.And, performing the correction of the path guide line includes the steps of adding vertices for maintaining a straight line of the path guide line in front of the own vehicle, adding vertices for curving the curve section to the curve section of the path guide line, and the added The method may include generating a path guide line reflecting the radius of the driving trajectory of the actual driving vehicle by using the vertices.
그리고, 상기 가변 입체화를 수행하는 단계는, 상기 보정된 경로 안내선 양 쪽에 가상의 경로 안내선을 생성하는 단계, 상기 보정된 경로 안내선에 포함된 버텍스들의 높이 값이 자차의 거리에 비례하여 증가하도록 높이 값을 산출하는 단계 및 상기 높이 값이 산출된 경로 안내선의 버텍스들과 상기 가상의 경로 안내선 각각에 포함된 버텍스들을 폴리곤을 통해 입체화를 수행하는 단계;를 포함할 수 있다.And, performing the variable stereoscopicization includes generating virtual path guide lines on both sides of the corrected path guide line, and a height value such that the height values of vertices included in the corrected path guide line increase in proportion to the distance of the own vehicle. and performing three-dimensionalization of vertices of the path guide line for which the height value is calculated and vertices included in each of the virtual path guide lines through polygons.
또한, 상기 경로 안내 인디케이터를 생성하는 단계는, 상기 입체에 차량 속도에 따라 변위를 가진 텍스처를 매핑하여 경로 안내 인디케이터를 생성할 수 있다.In addition, the generating of the route guide indicator may include mapping a texture having a displacement according to a vehicle speed to the three-dimensional object to generate the route guide indicator.
그리고, 카메라에서 촬영된 촬영 영상으로부터 카메라에 해당되는 카메라 파라미터를 추정하기 위한 캘리브레이션(Calibration)을 수행하는 단계 및 카메라 파라미터를 기초로 카메라가 촬영한 영상으로부터 가상 3D 공간을 생성하는 단계를 더 포함하고, 상기 출력하는 단계는, 생성된 가상 3D 공간에 생성된 경로 안내 인디케이터를 결합하여 출력할 수 있다.And, performing calibration for estimating a camera parameter corresponding to the camera from the captured image taken by the camera and generating a virtual 3D space from the image captured by the camera based on the camera parameter, and , the outputting may be output by combining the generated path guide indicator in the generated virtual 3D space.
한편, 상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 전자 장치는, 경로 안내를 요청하는 사용자 입력을 수신하는 입력부, 상기 요청에 대응되는 목적지 정보를 기초로 경로 안내선을 생성하는 경로 안내선 생성부, 상기 생성된 경로 안내선을 이용하여 증강 현실 상에서 경로 안내를 위한 경로 안내 인디케이터를 생성하는 경로 안내 인디케이터 생성부 및 상기 생성된 경로 안내 인디케이터를 증강 현실을 통해 화면에 출력하는 디스플레이부를 포함하고, 상기 경로 안내 인디케이터 생성부는, 실제 주행 차량의 주행 궤적 반경을 반영하여 생성된 경로 안내선의 보정을 수행하는 경로 안내선 처리부, 상기 보정된 경로 안내선을 자차의 거리에 따라 높이를 달리하여 가변 입체화를 수행하는 경로 안내선 입체화부 및 상기 입체에 텍스처를 매핑하여 경로 안내 인디케이터를 생성하는 텍스처 매핑부를 포함할 수 있다. Meanwhile, in an electronic device according to an embodiment of the present invention for achieving the above object, an input unit for receiving a user input requesting a route guide, and a route guide line for generating a route guide line based on destination information corresponding to the request A generator, a route guide indicator generator for generating a route guide indicator for route guidance in augmented reality using the generated route guide line, and a display unit for outputting the generated route guide indicator to a screen through augmented reality, The path guide indicator generation unit includes a path guide line processing unit that corrects a path guide line generated by reflecting the radius of the driving trajectory of the actual driving vehicle, and performs variable three-dimensionalization by varying the height of the corrected path guide line according to the distance of the vehicle It may include a path guide line three-dimensionalization unit and a texture mapping unit generating a path guide indicator by mapping a texture to the solid.
그리고, 상기 경로 안내선 처리부는, 자차 앞 경로 안내선의 직선을 유지하기 위한 버텍스들을 추가하고, 경로 안내선의 커브 구간에 커브 구간의 곡선화를 위한 버텍스들을 추가하며, 추가된 버텍스들을 이용하여 실제 주행 차량의 주행 궤적 반경을 반영한 경로 안내선을 생성할 수 있다.그리고, 상기 경로 안내선 입체화부는, 상기 보정된 경로 안내선 양 쪽에 가상의 경로 안내선을 생성하고, 상기 보정된 경로 안내선에 포함된 버텍스들의 높이 값이 자차의 거리에 비례하여 증가하도록 높이 값을 산출하며, 상기 높이 값이 산출된 경로 안내선의 버텍스들과 상기 가상의 경로 안내선 각각에 포함된 버텍스들을 폴리곤을 통해 입체화를 수행할 수 있다.And, the route guide line processing unit adds vertices for maintaining a straight line of the route guide line in front of the own vehicle, adds vertices for curving the curve section to the curve section of the route guide line, and uses the added vertices to actually drive the vehicle It is possible to generate a path guide line reflecting the radius of the driving trajectory of . The path guide line stereoscopic unit generates virtual path guide lines on both sides of the corrected path guide line, and height values of vertices included in the corrected path guide line are A height value may be calculated to increase in proportion to the distance of the host vehicle, and vertices of the path guide line for which the height value is calculated and vertices included in each of the virtual path guide lines may be three-dimensionalized through polygons.
또한, 상기 텍스처 맵핑부는, 상기 입체에 차량 속도에 따라 변위를 가진 텍스처를 매핑하여 경로 안내 인디케이터를 생성할 수 있다.Also, the texture mapping unit may generate a route guidance indicator by mapping a texture having a displacement according to a vehicle speed to the three-dimensional object.
그리고, 카메라에서 촬영된 촬영 영상으로부터 카메라에 해당되는 카메라 파라미터를 추정하기 위한 캘리브레이션(Calibration)을 수행하는 캘리브레이션부; 및 카메라 파라미터를 기초로 카메라가 촬영한 영상으로부터 가상 3D 공간을 생성하는 3D 공간 생성부를 더 포함하고, 상기 디스플레이부는, 생성된 가상 3D 공간에 상기 생성된 경로 안내 인디케이터를 결합하여 출력할 수 있다.In addition, the calibration unit for performing calibration (Calibration) for estimating a camera parameter corresponding to the camera from the captured image taken by the camera; and a 3D space generating unit generating a virtual 3D space from an image captured by the camera based on the camera parameters, wherein the display unit may output the generated path guide indicator by combining the generated virtual 3D space.
한편, 상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 기록 매체는, 상술한 제어 방법을 컴퓨터에서 실행시키기 위한 프로그램 코드가 기록될 수 있다.Meanwhile, in the recording medium according to an embodiment of the present invention for achieving the above object, a program code for executing the above-described control method in a computer may be recorded.
상술한 본 발명의 다양한 실시 예에 따르면, 차선 영역 부분의 영상 데이터로부터 차량이 위치한 차로에 대응되는 차선 정보를 생성하고, 필요한 처리를 수행할 수 있다. 이에 따라, 차선 정보를 이용한 차선 인터페이스 출력 및 증강 현실 인터페이스 생성을 포함하는 다양한 정보 처리를 수행할 수 있다.According to various embodiments of the present disclosure described above, lane information corresponding to a lane in which a vehicle is located may be generated from image data of a lane area portion, and necessary processing may be performed. Accordingly, various information processing including outputting a lane interface using lane information and generating an augmented reality interface may be performed.
또한, 본 발명의 다양한 실시 예에 따르면, 도로의 중앙 차로가 복수 개인 상황(예를 들어, 차로의 개수가 4개 이상인 경우)에서 복수의 중앙 차로 중 차량이 위치한 차로를 정확하게 알 수 있다.Also, according to various embodiments of the present disclosure, in a situation in which there are a plurality of center lanes of a road (eg, when the number of lanes is 4 or more), a lane in which the vehicle is located among a plurality of center lanes may be accurately known.
또한, 본 발명의 다양한 실시 예에 따르면, 차량이 위치한 차로를 판단하여 운전자에게 안내함으로써 운전자 보조 역할을 수행하게 할 수 있다.Also, according to various embodiments of the present disclosure, it is possible to determine a lane in which the vehicle is located and guide the driver to the driver assistance role.
또한, 본 발명의 다양한 실시 예에 따르면, 내비게이션의 경로 정보와 차량이 위치한 차로를 이용하여 정확한 차로 변경 알림을 수행함으로써, 사용자 편의성을 도모할 수 있다.In addition, according to various embodiments of the present disclosure, user convenience can be promoted by performing accurate lane change notification using route information of navigation and the lane in which the vehicle is located.
또한, 본 발명의 다양한 실시 예에 따르면, 차선 정보를 이용하여 주행 중인 차로의 양측 차선 종류에 따라 적절한 차로 변경 알림을 선택적으로 수행할 수 있어 차로 변경 알림의 성능을 향상시키고, 풍부한 정보를 제공할 수 있다.In addition, according to various embodiments of the present disclosure, an appropriate lane change notification can be selectively performed according to the types of lanes on both sides of the driving lane using lane information, thereby improving the performance of the lane change notification and providing rich information. can
또한, 본 발명의 다양한 실시 예에 따르면, 경로 안내선의 입체화 처리를 통하여 증강 현실에 적합한 경로 안내 인디케이터를 실시간으로 구축하여, 2차원의 카메라 영상 위에 3차원의 경로 안내 인디케이터를 사실적이고 효과적으로 표시할 수 있다. 즉, 종래의 증강 현실 내비게이션에서와 같은 단순한 형태의 경로 안내선의 표출이 아닌, 마치 실제 도로에 경로 안내선이 위치하는 것과 같이 표시할 수 있다.In addition, according to various embodiments of the present disclosure, it is possible to realistically and effectively display a three-dimensional route guide indicator on a two-dimensional camera image by building a route guide indicator suitable for augmented reality through three-dimensional processing of route guide lines in real time. have. That is, instead of displaying a simple route guide line as in the conventional augmented reality navigation, it may be displayed as if the route guide line is located on an actual road.
도 1은 본 발명의 일 실시 예에 따른 전자 장치를 나타내는 블록도 이다.
도 2는 본 발명의 일 실시 예에 따른 전자 장치와 연결된 시스템 네트워크를 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시 예에 따른 전자 장치의 차선 정보 생성 방법을 나타내는 흐름도 이다.
도 4는 본 발명의 일 실시 예에 따른 전자 장치의 차선 정보 생성 방법을 구체적으로 나타내는 흐름도 이다.
도 5는 본 발명의 일 실시 예에 따른 그레이 영상 변환 및 차선 영역 검출 과정을 나타내는 도면이다.
도 6은 본 발명의 일 실시 예에 따른 그레이 영상에서의 차선 종류 관심 영역을 나타내는 도면이다.
도 7은 본 발명의 일 실시 예에 따른 그레이 영상에서의 차선 종류 관심 영역 이진화 및 1차원 매핑을 나타내는 도면이다.
도 8은 본 발명의 일 실시 예에 따른 차로 위치 정보 생성 방법을 구체적으로 나타내는 흐름도 이다.
도 9는 본 발명의 일 실시 예에 따른 차로 판단 테이블을 나타내는 도면이다.
도 10은 본 발명의 다른 실시 예에 따른 차로 판단 테이블을 나타내는 도면이다.
도 11은 본 발명의 일 실시 예에 따른 제어 방법을 나타내는 흐름도 이다.
도 12는 본 발명의 일 실시 예에 따른 증강 현실 제공부를 구체적으로 나타내는 블록도 이다.
도 13은 경로 안내선의 처리 전 후를 비교한 도면이다.
도 14는 본 발명의 일 실시 예에 따른 경로 안내선 입체화 과정을 나타내는 도면이다.
도 15는 본 발명의 일 실시 예에 따른 증강 현실 경로 안내 방법을 나타내는 흐름도 이다.
도 16은 본 발명의 일 실시 예에 따른 경로 안내 화면을 나타내는 도면이다.
도 17은 본 발명의 일 실시 예에 따른 카메라와 전자 장치가 분리형이 경우 구현 형태를 나타내는 도면이다.
도 18은 본 발명의 일 실시 예에 따른 카메라와 전자 장치가 일체형인 경우 구현 형태를 나타내는 도면이다.
도 19는 본 발명의 일 실시 예에 따른 HUD(Head-Up Display) 및 전자 장치를 이용한 구현 형태를 나타내는 도면이다. 1 is a block diagram illustrating an electronic device according to an embodiment of the present invention.
2 is a diagram for explaining a system network connected to an electronic device according to an embodiment of the present invention.
3 is a flowchart illustrating a method of generating lane information of an electronic device according to an embodiment of the present invention.
4 is a flowchart specifically illustrating a method for generating lane information of an electronic device according to an embodiment of the present invention.
5 is a diagram illustrating a gray image conversion and lane area detection process according to an embodiment of the present invention.
6 is a diagram illustrating a lane type ROI in a gray image according to an embodiment of the present invention.
7 is a diagram illustrating binarization and one-dimensional mapping of a lane type region of interest in a gray image according to an embodiment of the present invention.
8 is a flowchart specifically illustrating a method for generating lane location information according to an embodiment of the present invention.
9 is a diagram illustrating a lane determination table according to an embodiment of the present invention.
10 is a diagram illustrating a lane determination table according to another embodiment of the present invention.
11 is a flowchart illustrating a control method according to an embodiment of the present invention.
12 is a block diagram specifically illustrating an augmented reality providing unit according to an embodiment of the present invention.
13 is a diagram comparing before and after processing of a route guide line.
14 is a diagram illustrating a process of three-dimensionalizing a route guide line according to an embodiment of the present invention.
15 is a flowchart illustrating an augmented reality route guidance method according to an embodiment of the present invention.
16 is a diagram illustrating a route guidance screen according to an embodiment of the present invention.
17 is a diagram illustrating an implementation form when a camera and an electronic device are separated according to an embodiment of the present invention.
18 is a diagram illustrating an implementation form when a camera and an electronic device are integrated according to an embodiment of the present invention.
19 is a diagram illustrating an implementation form using a Head-Up Display (HUD) and an electronic device according to an embodiment of the present invention.
이하의 내용은 단지 본 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만 본 발명의 원리를 구현하고 본 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시 예들은 원칙적으로, 본 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시 예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다.The following is merely illustrative of the principles of the invention. Therefore, those skilled in the art will be able to devise various devices that, although not explicitly described or shown herein, embody the principles of the present invention and are included within the spirit and scope of the present invention. In addition, all conditional terms and examples listed herein are, in principle, expressly intended only for the purpose of understanding the concept of the present invention, and it should be understood that they are not limited to the specifically enumerated embodiments and states as such. do.
또한, 본 발명의 원리, 관점 및 실시 예들 뿐만 아니라 특정 실시 예를 열거하는 모든 상세한 설명은 이러한 사항의 구조적 및 기능적 균등물을 포함하도록 의도되는 것으로 이해되어야 한다. 또한 이러한 균등물들은 현재 공지된 균등물뿐만 아니라 장래에 개발될 균등물 즉 구조와 무관하게 동일한 기능을 수행하도록 발명된 모든 소자를 포함하는 것으로 이해되어야 한다.Moreover, it is to be understood that all detailed description reciting specific embodiments, as well as principles, aspects, and embodiments of the invention, are intended to include structural and functional equivalents of such matters. It should also be understood that such equivalents include not only currently known equivalents, but also equivalents developed in the future, i.e., all devices invented to perform the same function, regardless of structure.
따라서, 예를 들어, 본 명세서의 블럭도는 본 발명의 원리를 구체화하는 예시적인 회로의 개념적인 관점을 나타내는 것으로 이해되어야 한다. 이와 유사하게, 모든 흐름도, 상태 변환도, 의사 코드 등은 컴퓨터가 판독 가능한 매체에 실질적으로 나타낼 수 있고 컴퓨터 또는 프로세서가 명백히 도시되었는지 여부를 불문하고 컴퓨터 또는 프로세서에 의해 수행되는 다양한 프로세스를 나타내는 것으로 이해되어야 한다.Thus, for example, the block diagrams herein are to be understood as representing conceptual views of illustrative circuitry embodying the principles of the present invention. Similarly, all flowcharts, state transition diagrams, pseudo code, etc. may be tangibly embodied on computer-readable media and be understood to represent various processes performed by a computer or processor, whether or not a computer or processor is explicitly shown. should be
프로세서 또는 이와 유사한 개념으로 표시된 기능 블럭을 포함하는 도면에 도시된 다양한 소자의 기능은 전용 하드웨어뿐만 아니라 적절한 소프트웨어와 관련하여 소프트웨어를 실행할 능력을 가진 하드웨어의 사용으로 제공될 수 있다. 프로세서에 의해 제공될 때, 상기 기능은 단일 전용 프로세서, 단일 공유 프로세서 또는 복수의 개별적 프로세서에 의해 제공될 수 있고, 이들 중 일부는 공유될 수 있다.The functions of the various elements shown in the drawings including a processor or functional blocks represented by similar concepts may be provided by the use of dedicated hardware as well as hardware having the ability to execute software in association with appropriate software. When provided by a processor, the functionality may be provided by a single dedicated processor, a single shared processor, or a plurality of separate processors, some of which may be shared.
또한 프로세서, 제어 또는 이와 유사한 개념으로 제시되는 용어의 명확한 사용은 소프트웨어를 실행할 능력을 가진 하드웨어를 배타적으로 인용하여 해석되어서는 아니되고, 제한 없이 디지털 신호 프로세서(DSP) 하드웨어, 소프트웨어를 저장하기 위한 롬(ROM), 램(RAM) 및 비 휘발성 메모리를 암시적으로 포함하는 것으로 이해되어야 한다. 주지관용의 다른 하드웨어도 포함될 수 있다.In addition, the clear use of terms presented as processor, control, or similar concepts should not be construed as exclusively referring to hardware having the ability to execute software, and without limitation, digital signal processor (DSP) hardware, ROM for storing software. It should be understood to implicitly include (ROM), RAM (RAM) and non-volatile memory. Other common hardware may also be included.
본 명세서의 청구범위에서, 상세한 설명에 기재된 기능을 수행하기 위한 수단으로 표현된 구성요소는 예를 들어 상기 기능을 수행하는 회로 소자의 조합 또는 펌웨어/마이크로 코드 등을 포함하는 모든 형식의 소프트웨어를 포함하는 기능을 수행하는 모든 방법을 포함하는 것으로 의도되었으며, 상기 기능을 수행하도록 상기 소프트웨어를 실행하기 위한 적절한 회로와 결합된다. 이러한 청구범위에 의해 정의되는 본 발명은 다양하게 열거된 수단에 의해 제공되는 기능들이 결합되고 청구항이 요구하는 방식과 결합되기 때문에 상기 기능을 제공할 수 있는 어떠한 수단도 본 명세서로부터 파악되는 것과 균등한 것으로 이해되어야 한다.In the claims of the present specification, a component expressed as a means for performing the function described in the detailed description includes, for example, a combination of circuit elements that perform the function or software in any form including firmware/microcode, etc. It is intended to include all methods of performing the functions of the device, coupled with suitable circuitry for executing the software to perform the functions. Since the present invention defined by these claims is combined with the functions provided by the various enumerated means and in a manner required by the claims, any means capable of providing the functions are equivalent to those contemplated from the present specification. should be understood as
상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해질 것이며, 그에 따라 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. The above objects, features and advantages will become more apparent through the following detailed description in relation to the accompanying drawings, and accordingly, those of ordinary skill in the art to which the present invention pertains can easily implement the technical idea of the present invention. There will be. In addition, in the description of the present invention, if it is determined that a detailed description of a known technology related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted.
이하, 첨부된 도면을 참조하여 본 발명의 다양한 실시 예를 상세히 설명하기로 한다.Hereinafter, various embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일 실시 예에 따른 전자 장치를 나타내는 블록도 이다. 도 1을 참조하면, 전자 장치(100)는 저장부(110), 입력부(120), 출력부(130), 차선 정보 생성부(140), 차로 위치 정보 생성부(150), 증강 현실 제공부(160), 제어부(170), 통신부(180), 센싱부(190)의 전부 또는 일부를 포함한다.1 is a block diagram illustrating an electronic device according to an embodiment of the present invention. Referring to FIG. 1 , the
여기서, 전자 장치(100)는 차량 운전자에게 운전 관련 안내를 제공할 수 있는 스마트 폰, 태블릿 컴퓨터, 노트북 컴퓨터, PDA(personal digital assistant), PMP(portable multimedia player), 스마트 글래스, 프로젝트 글래스, 내비게이션(navigation), 블랙 박스(Black-box) 등과 같은 다양한 장치로 구현될 수 있다. Here, the
여기서, 차량의 운전 상태는, 차량의 정차 상태, 차량의 주행 상태, 차량의 주차 상태 등과 같이 차량이 운전자에 의하여 운전되고 있는 다양한 상태를 포함할 수 있다. Here, the driving state of the vehicle may include various states in which the vehicle is being driven by the driver, such as a stopped state of the vehicle, a running state of the vehicle, and a parking state of the vehicle.
운전 관련 안내는 경로 안내, 차선 이탈 안내, 전방 차량 출발 안내, 신호등 변경 안내, 전방 차량 추돌 방지 안내, 차로 변경 안내, 차로 안내 등과 같이 차량 운전자의 운전을 보조하기 위한 다양한 안내를 포함할 수 있다. The driving-related guidance may include various guidance for assisting the driver in driving, such as route guidance, lane departure guidance, forward vehicle departure guidance, traffic light change guidance, forward collision avoidance guidance, lane change guidance, lane guidance, and the like.
여기서, 경로 안내는, 운전 중인 차량의 전방을 촬영한 영상에 사용자의 위치, 방향 등과 같은 각종 정보를 결합하여 경로 안내를 수행하는 증강 현실 경로 안내, 및 2D(2-Dimensional) 또는 3D(3-Dimensional)의 지도 데이터에 사용자의 위치, 방향 등과 같은 각종 정보를 결합하여 경로 안내를 수행하는 2D(2-Dimensional) 또는 3D(3-Dimensional) 경로 안내를 포함할 수 있다. 여기서, 경로 안내는, 사용자가 차량에 탑승하여 운전하는 경우 뿐만 아니라, 사용자가 걷거나 뛰어서 이동하는 경우의 경로 안내도 포함하는 개념으로 해석될 수 있다. Here, the route guidance includes augmented reality route guidance that performs route guidance by combining various information such as the location and direction of the user with an image taken in front of the vehicle being driven, and 2D (2-Dimensional) or 3D (3-D) 2D (2-Dimensional) or 3D (3-Dimensional) route guidance for performing route guidance by combining various types of information such as a user's location and direction with map data of Dimensional) may be included. Here, the route guidance may be interpreted as a concept including route guidance when the user moves while walking or running as well as when the user rides and drives in a vehicle.
또한, 차선 이탈 안내는, 주행 중인 차량이 차선을 이탈하였는지 여부를 안내하는 것일 수 있다. In addition, the lane departure guidance may be guiding whether the driving vehicle has departed from a lane.
또한, 전방 차량 출발 안내는, 정차 중인 차량의 전방에 위치한 차량의 출발 여부를 안내하는 것일 수 있다. In addition, the front vehicle departure guidance may indicate whether a vehicle located in front of a stopped vehicle departs.
또한, 신호등 변경 안내는, 정차 중인 차량의 전방에 위치한 신호등의 변경 여부를 안내하는 것일 수 있다. 일 예로, 정지 신호를 나타내는 빨간등이 켜진 상태에서 출발 신호를 나타내는 파란등으로 변경되면, 이를 안내하는 것 일 수 있다. Also, the traffic light change guidance may be to guide whether a traffic light positioned in front of a stopped vehicle is changed. As an example, when a red light indicating a stop signal is turned on to a blue light indicating a departure signal, this may be guiding.
또한, 전방 차량 추돌 방지 안내는 정차 또는 주행 중인 차량의 전방에 위치한 차량과의 거리가 일정 거리 이내가 되면 전방 차량과 추돌을 방지하기 위해 이를 안내하는 것일 수 있다. In addition, the front vehicle collision avoidance guidance may be to guide the vehicle in front of a stopped or driving vehicle to prevent a collision with the vehicle in front when the distance to the vehicle located in front is within a predetermined distance.
또한, 차로 변경 안내는 목적지까지의 경로 안내를 위하여 차량이 위치한 차로에서 다른 차로로 변경을 안내하는 것일 수 있다. In addition, the lane change guidance may indicate a change from a lane in which the vehicle is located to another lane in order to guide a route to a destination.
또한, 차로 안내는 차량이 현재 위치한 차로를 안내하는 것일 수 있다. Also, the lane guidance may indicate a lane in which the vehicle is currently located.
이러한, 다양한 안내의 제공을 가능하게 하는 차량의 전방 영상과 같은 운전 관련 영상은 차량에 거치된 카메라에서 촬영될 수 있다. 여기서 카메라는 차량에 거치된 전자 장치(100)와 일체로 형성되어 차량의 전방을 촬영하는 카메라일 수 있다. 이 경우, 카메라는 스마트 폰, 내비게이션, 또는 블랙 박스와 일체로 형성될 수 있고, 전자 장치(100)는 일체로 형성된 카메라에서 촬영된 영상을 입력받을 수 있다.A driving-related image, such as a front image of a vehicle that enables the provision of various guidance, may be captured by a camera mounted on the vehicle. Here, the camera may be a camera integrally formed with the
다른 예로, 카메라는 전자 장치(100)와 별개로 차량에 거치되어 차량의 전방을 촬영하는 카메라일 수 있다. 이 경우, 카메라는 차량의 전방을 향하여 거치된 별도의 블랙 박스일 수 있고, 전자 장치(100)는 별도로 거치된 블랙박스와 유/무선 통신을 통하여 촬영 영상을 입력받거나, 블랙 박스의 촬영 영상을 저장하는 저장 매체가 전자 장치(100)에 삽입되면, 전자 장치(100)는 촬영 영상을 입력받을 수 있다. As another example, the camera may be mounted on a vehicle separately from the
이하에서는, 상술한 내용을 기초로 본 발명의 일 실시 예에 따른 전자 장치(100)에 대해서 보다 구체적으로 설명하기로 한다.Hereinafter, the
저장부(110)는 전자 장치(100)의 동작에 필요한 다양한 데이터 및 어플리케이션을 저장하는 기능을 한다. 특히, 저장부(110)는 전자 장치(100)의 동작에 필요한 데이터, 예를 들어, OS, 경로 탐색 어플리케이션, 지도 데이터 등을 저장할 수 있다. 또한, 저장부(110)는 전자 장치(100)의 동작에 의하여 생성된 데이터, 예를 들어, 탐색된 경로 데이터, 수신한 영상 등을 저장할 수 있다. 또한, 저장부(110)는 차로 판단 테이블 등을 저장할 수 있다. The
여기서 저장부(110)는 RAM(Random Access Memory), 플레시메모리, ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electronically Erasable and Programmable ROM), 레지스터, 하드디스크, 리무버블 디스크, 메모리 카드, USIM(Universal Subscriber Identity Module)등과 같은 내장된 형태의 저장소자는 물론, USB 메모리 등과 같은 착탈가능한 형태의 저장소자로 구현될 수도 있다.Here, the
입력부(120)는 전자 장치(100)의 외부로부터의 물리적 입력을 특정한 전기 신호로 변환하는 기능을 한다. 여기서, 입력부(120)는 사용자 입력부(121)와 마이크부(123)의 전부 또는 일부를 포함할 수 있다.The
사용자 입력부(121)는 터치, 푸쉬동작 등과 같은 사용자 입력을 수신할 수 있다. 여기서 사용자 입력부(120)는 다양한 버튼의 형태, 터치 입력을 수신하는 터치 센서, 접근하는 모션을 수신하는 근접 센서 중 적어도 하나를 이용하여 구현될 수 있다. The
마이크부(123)는 사용자의 음성 및 차량의 내외부에서 발생한 음향을 수신할 수 있다.The
출력부(130)는 전자 장치(100)의 데이터를 출력하는 장치이다. 여기서, 출력부(130)는 디스플레이부(131)와 오디오 출력부(133)의 전부 또는 일부를 포함할 수 있다.The
디스플레이부(131)는 전자 장치(100)이 시각적으로 인식될 수 있는 데이터를 출력하는 장치이다. 디스플레이부(131)는 전자 장치(100)의 하우징 전면(前面)에 마련된 디스플레이부로 구현될 수 있다. 여기서 디스플레이부(131)는 전자 장치(100)와 일체로 형성되어 시각적 인식 데이터를 출력할 수 있고, HUD(Head Up Display)와 같이 전자 장치(100)와 별개로 설치되어 시각적 인식 데이터를 출력할 수도 있다. The
오디오 출력부(133)는 전자 장치(100)가 청각적으로 인식될 수 있는 데이터를 출력하는 장치이다. 오디오 출력부(133)는 전자 장치(100)의 사용자에게 알려야 할 데이터를 소리를 표현하는 스피커로 구현될 수 있다.The
통신부(180)는 전자 장치(100)가 다른 디바이스와 통신하기 위하여 마련될 수 있다. 통신부(180)는, 위치 데이터부(181)과, 무선 인터넷부(183)과, 방송 송수신부(185), 이동 통신부(186), 근거리 통신부(187), 유선 통신부(189)의 전부 또는 일부를 포함할 수 있다. The
위치 데이터부(181)는 GNSS(Global Navigation Satellite System)를 통하여 위치 데이터를 획득하는 장치이다. GNSS는 인공위성으로부터 수신한 전파신호를 이용하여 수신 단말기의 위치를 산출할 수 있는 항법 시스템을 의미한다. GNSS의 구체적인 예로는, 그 운영 주체에 따라서 GPS(Global Positioning System), Galileo, GLONASS(Global Orbiting Navigational Satellite System), COMPASS, IRNSS(Indian Regional Navigational Satellite System), QZSS(Quasi-Zenith Satellite System) 등 일 수 있다. 본 발명의 일 실시예에 따른 전자 장치(100)의위치 데이터부(181)는, 전자 장치(100)가 사용되는 지역에서 서비스하는 GNSS 신호를 수신하여 위치 데이터를 획득할 수 있다.The
무선 인터넷부(183)는 무선 인터넷에 접속하여 데이터를 획득하거나 송신하는 장치이다. 무선 인터넷부(183)를 통하여 접속할 수 있는 무선 인터넷은, WLAN(Wireless LAN), Wibro(Wireless broadband), Wimax(World interoperability for microwave access), HSDPA(High Speed Downlink Packet Access) 등 일 수 있다.The
방송 송수신부(185)는 각종 방송 시스템을 통하여 방송 신호를 송수신하는 장치이다. 방송 송수신부(185)를 통하여 송수신할 수 있는 방송 시스템은, DMBT(Digital Multimedia Broadcasting Terrestrial), DMBS(Digital Multimedia Broadcasting Satellite), MediaFLO(Media Forward Link Only), DVBH(Digital Video Broadcast Handheld), ISDBT(Integrated Services Digital Broadcast Terrestrial) 등일 수 있다. 방송 송수신부(185)를 통하여 송수신되는 방송 신호에는 교통 데이터, 생활 데이터 등을 포함할 수 있다.The
이동 통신부(186)는 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution) 등과 같은 다양한 이동 통신 규격에 따라 이동 통신 망에 접속하여 통신할 수 있다.The
근거리 통신부(187)는 근거리 통신을 위한 장치이다. 근거리 통신부(187)는, 전술한 바와 같이, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, Infrared Data Association), UWB(Ultra WidBand), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity) 등을 통하여 통신할 수 있다.The short-
유선 통신부(189)는 전자 장치(100)를 다른 디바이스와 유선으로 연결할 수 있는 인터페이스 장치이다. 유선 통신부(119)는, USB Port를 통하여 통신할 수 있는 USB 모듈일 수 있다. The
이러한, 통신부(180)는 위치 데이터부(181)와, 무선 인터넷부(183)와, 방송 송수신부(185), 이동 통신부(186), 근거리 통신부(187), 유선 통신부(189) 중 적어도 하나를 이용하여 다른 디바이스와 통신할 수 있다. The
일 예로, 전자 장치(100)가 카메라 기능을 포함하지 않는 경우, 블랙 박스 등과 같은 차량용 카메라에서 촬영된 영상을 근거리 통신부(187), 유선 통신부(189) 중 적어도 하나를 이용하여 수신할 수 있다.For example, when the
다른 예로, 복수의 디바이스와 통신하는 경우에, 어느 하나는 근거리 통신부(187)로 통신하고, 다른 하나는 유선 통신부(119)를 통하여 통신하는 경우도 가능하다. As another example, when communicating with a plurality of devices, one may communicate with the short-
센싱부(190)는 전자 장치(100)의 현재 상태를 감지할 수 있는 장치이다. 센싱부(190)는 모션 센싱부(191)와, 광 센싱부(193)의 전부 또는 일부를 포함할 수 있다.The
모션 센싱부(191)는 전자 장치(100)의 3차원 공간 상에서의 운동을 감지할 수 있다. 모션 센싱부(191)은, 3축 지자기 센서 및 3축 가속도 센서를 포함할 수 있다. 모션 센싱부(191)을 통하여 획득한 운동 데이터를 위치 데이터부(191)를 통하여 획득한 위치 데이터와 결합하여, 전자 장치(100)를 부착한 차량의 보다 정확한 궤적을 산출할 수 있다.The
광 센싱부(193)는 전자 장치(100)의 주변 조도(illuminance)를 측정하는 장치이다. 광 센싱부(193)를 통하여 획득한 조도데이터를 이용하여, 디스플레이부(195)의 밝기를 주변 밝기에 대응되도록 변화시킬 수 있다.The
전원부(195)는 전자 장치(100)의 동작 또는 전자 장치(100)와 연결된 다른 디바이스의 동작을 위하여 필요한 전원을 공급하는 장치이다. 전원부(195)는, 전자 장치(100)에 내장된 배터리 또는 차량 등의 외부전원에서 전원을 공급받는 장치일 수 있다. 또한, 전원부(195)는, 전원을 공급받는 형태에 따라서 유선 통신 모듈(119)로 구현되거나, 무선으로 공급받는 장치로 구현될 수도 있다.The
한편, 제어부(170)는 전자 장치(100)의 전반적인 동작을 제어한다. 구체적으로 제어부(170)는 저장부(110), 입력부(120), 출력부(130), 차선 정보 생성부(140), 차로 위치 정보 생성부(150), 증강 현실 제공부(160), 통신부(180), 센싱부(190)의 전부 또는 일부를 제어할 수 있다.Meanwhile, the
특히, 제어부(170)는 차선 정보 생성부(140), 차로 위치 정보 생성부(150)를 제어하여, 운전 관련 영상 데이터로부터 차선 영역을 식별하고, 식별된 차선 영역 부분의 영상 데이터로부터 상기 차량이 위치한 차로에 대응되는 차선 정보를 생성하며, 생성된 차선 정보 및 차량이 위치한 도로의 차로 정보 중 적어도 하나를 이용하여 차량이 위치한 차로 위치 정보를 생성할 수 있다. In particular, the
여기서, 차선은 차량이 위치한 차로(lane)를 형성하는 양측 선(line) 각각을 의미할 수 있다. 또한, 차로(lane)는 1 차로, 2 차로, .. N 차로 등과 같이 차선에 의해 형성되고, 차량이 주행하는 도로를 의미할 수 있다. Here, the lane may mean each of both sides of the line forming a lane in which the vehicle is located. In addition, a lane may mean a road formed by lanes such as a primary lane, a secondary lane, .. N lane, and the like, and on which a vehicle travels.
차선 정보 생성부(140)는 차량의 주행, 정차 등과 같은 운전 상태에서 촬영된 영상 데이터로부터 차선 영역을 식별하고, 차선 영역 부분의 영상 데이터로부터 차량이 위치한 차로를 기준으로 양측에 위치한 각 차선에 대응되는 차선 정보를 생성할 수 있다. 차선 정보는, 차량이 위치한 차로를 기준으로 양측에 위치한 각 차선에 대응되는 차선 종류 정보, 차선 색상 정보를 포함할 수 있다. The lane
여기서, 차량이 위치한 차로에 대응되는 차선 정보를 생성하기 위해, 차선 정보 생성부(140)는 차선 영역 부분의 영상 데이터에 대해 이진화를 수행하고, 이진화된 부분 영상 데이터로부터 차선 종류 정보를 획득할 수 있다. 구체적으로 차선 정보 생성부(140)는 이진화된 부분 영상 데이터를, 차선의 시간 연속성 정보 및 차선 속도 정보 중 적어도 하나를 이용하여 분석하여, 차량이 위치한 차로의 양 차선 종류가 실선인지 점선인지 식별할 수 있다. Here, in order to generate lane information corresponding to the lane in which the vehicle is located, the
그리고, 차선 정보 생성부(140)는 종류가 식별된 각 차선에 대응되는 색상 정보를 영상 데이터로부터 추출하여 차선 정보로 생성할 수 있다.In addition, the lane
차로 위치 정보 생성부(150)는 제어부(170)의 제어에 따라, 차선 정보 생성부(140)에서 생성된 차선 정보 및 차량이 위치한 도로의 차로 정보 중 적어도 하나를 이용하여 차량이 위치한 차로 위치 정보를 생성할 수 있다. The lane location
구체적으로, 차로 위치 정보 생성부(150)는 지도 데이터로부터 차량이 위치한 도로의 차로 정보를 획득하고, 생성된 차선 정보를 이용하여 차량이 도로의 첫 번째 차로, 또는 마지막 차로에 위치하는지 여부를 판단하며, 차량이 첫 번째 또는 마지막 차로에 위치하는 경우, 도로의 차로 정보를 반영하여 차량이 위치한 차로 위치 정보를 생성할 수 있다. 이 후, 차량의 차로 변경에 따라 차량이 위치한 차로가 첫 번째 또는 마지막 차로의 사이에 위치한 차로로 변경되면, 생성된 차로 위치 정보를 변경된 차로 위치 정보로 갱신할 수 있다. 이 후, 차량의 차로 변경에 따라 차량이 위치한 차로가 사이에 위치한 차로에서 첫 번째 또는 마지막 차로로 변경되면, 차량이 위치한 도로의 차로 정보를 반영하여 차량이 위치한 차로 위치 정보를 다시 생성할 수 있다.Specifically, the lane location
여기서, 차량이 위치한 도로의 차로 정보는, 차량이 위치한 도로의 차로 개수 정보, 도로 종류 정보(예를 들어, 고속 도로, 도시 고속화 도로, 지방 도로, 일반 도로) 등을 포함할 수 있고, 전자 장치(100)내의 저장부(110)에 저장된 지도 데이터에서 획득되거나, 전자 장치(100)와 별도의 외부 지도 데이터베이스(DB)에서 획득되거나, 다른 전자 장치(100)로부터 획득될 수 있다. 일 예로, 전자 장치(100)가 블랙 박스로 구현되는 경우, 블랙 박스는 통신 연결된 외부 내비게이션 장치로부터 도로의 차로 정보를 획득할 수 있다. Here, the lane information of the road on which the vehicle is located may include information on the number of lanes on the road on which the vehicle is located, information on the type of road (eg, a highway, an urban high-speed road, a local road, a general road), and the like, and the electronic device It may be obtained from map data stored in the
한편, 국가 별로 사용하는 차선 정보를 상이한 바, 차로 위치 정보 생성부(150)는 국가별 교통 법규 등에 따른 차로 판단 테이블을 이용하여 차로 위치 정보를 생성할 수 있다. 이에 따라, 차로 위치 정보 생성부(150) 설정된 국가 정보에 매핑된 차로 판단 테이블에 기초하여 차로 위치 정보를 생성할 수 있다. Meanwhile, since lane information used for each country is different, the lane location
한편, 제어부(170)는 차선 정보 생성부(140), 차로 위치 정보 생성부(150)에서 생성된 차선 정보를 이용하여 차량의 운전 관련 안내를 수행할 수 있다. Meanwhile, the
일 예로, 제어부(170)는 차선 정보에 기초하여 식별되는 차량이 위치한 차로 양측 차선의 종류에 따라, 적절한 차선 이탈 안내를 선택하고, 이를 사용자에게 출력할 수 있다. 구체적으로, 제어부(170)는 전자 기기(100)가 차선 이탈 안내 기능을 제공하는 경우, 이탈한 차선 종류 및 색상에 따라 서로 다른 안내를 제공할 수 있다. 예를 들어, 제어부(170)는 차량이 중앙선을 침범한 경우, 백색 실선을 침범한 경우, 백색 점선을 침범한 경우 또는 청색 선을 침범한 경우에 따라 각각 서로 다른 안내 이미지 또는 안내 음성을 선택하여 출력할 수 있다.For example, the
다른 예로, 제어부(170)는 차로 위치 정보 생성부(150)에서 생성된 차로 위치 정보를 이용하여 생성된 차로 안내를 출력부(140)를 통해 출력할 수 있다. 구체적으로, 제어부(170)는 현재 차량이 위치한 차로가 몇 차로 인지, 예를 들어, 1 차로, 2 차로,.. N 차로 인지를 이미지 또는 음성으로 출력할 수 있다.As another example, the
또 다른 예로, 제어부(170)는 차로 위치 정보 생성부(150)에서 생성된 차로 위치 정보를 이용하여 생성된 차로 변경 안내를 출력부(140)를 통해 출력할 수 있다. 구체적으로, 제어부(170)는 전자 장치(100)가 차량의 내비게이션 기능을 제공하는 경우, 목적지까지의 경로와 상기 판단된 차로 위치에 따라 차로 변경 안내를 이미지 또는 안내 음성으로 출력할 수 있다. 즉, 제어부(170)는 좌회전 또는 우회전 안내 지점까지의 거리가 일정 거리 이하인 경우, 현재 차로가 좌회전 또는 우회전 가능한지를 판단하여 사용자에게 차로 변경 안내를 출력할 수 있다.As another example, the
한편, 제어부(170)는 전자 기기(100)가 증강 현실을 기반으로 운전 관련 안내를 수행하도록 증강 현실 제공부(160)를 제어할 수 있다. 여기서, 증강 현실이란, 사용자가 실제로 보고 있는 현실 세계를 담고 있는 화면에 부가 정보(예를 들면, 관심 지점(Point Of Interest: POI)을 나타내는 그래픽 요소, 목적지까지의 경로를 나타내는 그래픽 요소 등)를 시각적으로 중첩하여 제공하는 방법일 수 있다. 이 경우, 제어부(170)는 증강 현실 제공부(160)와 연동하여 운전 관련 안내를 수행하기 위한 인디케이터를 생성하고, 생성된 인디케이터를 출력부(130)를 통해 출력할 수 있다. 일 예로, 증강 현실은 차량 앞유리를 이용한 HUD 또는 별도의 영상 출력 장치를 이용한 영상 오버레이 등을 통해 제공될 수 있으며, 증강 현실 제공부(160)는 이와 같이 현실 영상 또는 유리에 오버레이되는 인터페이스 이미지 등을 생성할 수 있다. 이를 통해 증강 현실 네비게이션 또는 차량 인포테인먼트 시스템 등이 구현될 수 있다. Meanwhile, the
특히, 본 발명의 일 실시 예에 따르면, 경로 안내선의 입체화 처리를 통하여 증강 현실에 적합한 경로 안내 인디케이터를 실시간으로 구축하여, 2차원의 카메라 영상 위에 3차원의 경로 안내 인디케이터를 사실적이고 효과적으로 표시할 수 있다. 이에 대해서는 이후 도면을 참조하여 후술하기로 한다. In particular, according to an embodiment of the present invention, a route guide indicator suitable for augmented reality is built in real time through three-dimensional processing of a route guide line, and a three-dimensional route guide indicator can be displayed realistically and effectively on a two-dimensional camera image. have. This will be described later with reference to the drawings.
도 2는 본 발명의 일 실시 예에 따른 전자 장치와 연결된 시스템 네트워크를 설명하기 위한 도면이다. 도 2를 참조하면, 본 발명의 일 실시 예에 따른 전자 장치(100)는 내비게이션, 블랙 박스, 스마트 폰 또는 기타 차량용 증강 현실 인터페이스 제공 장치 등과 같은 차량에 구비되는 각종 장치로 구현될 수 있으며, 다양한 통신망 및 다른 전자 디바이스(61 내지 64)와 접속할 수 있다.2 is a diagram for explaining a system network connected to an electronic device according to an embodiment of the present invention. Referring to FIG. 2 , an
또한, 전자 장치(100)는 인공위성(20)으로부터 수신한 전파신호에 따라 GPS모듈을 연동하여 현재의 위치 및 현재 시간대를 산출할 수 있다.In addition, the
각각의 인공위성(20)은 주파수 대역이 상이한 L밴드 주파수를 송신할 수 있다. 전자 장치(100)는, 각각의 인공위성(20)에서 송신된 L밴드 주파수가 전자 장치(100)에 도달하는데 까지 소요된 시간에 기초하여 현재 위치를 산출할 수 있다.Each of the
한편, 전자 장치(100)는, 통신부(180)을 통하여 제어국(40, ACR), 기지국(50, RAS) 등을 통하여 네트워크(30)에 무선으로 접속할 수 있다. 네트워크(30)에 전자 장치(100)가 접속하면, 네트워크(30)에 접속한 다른 전자 디바이스(61, 62)와도 간접적으로 접속하여 데이터를 교환할 수 있다.Meanwhile, the
한편, 전자 장치(100)는, 통신 기능을 가진 다른 디바이스(63)를 통하여 간접적으로 네트워크(30)에 접속할 수도 있다. 예를 들어, 네트워크(30)에 접속할 수 있는 모듈이 전자 장치(100)에 구비되지 않은 경우에, 근거리 통신 모듈 등을 통하여 통신 기능을 가진 다른 디바이스(63)와 통신할 수 있다.Meanwhile, the
도 3은 본 발명의 일 실시 예에 따른 전자 장치의 차선 정보 생성 방법을 나타내는 흐름도 이다. 도 3을 참조하면, 먼저 전자 장치(100)는 차량의 운전 관련 영상 데이터로부터 차선 영역을 식별할 수 있다(S101). 구체적으로, 차선 정보 생성부(140)는 운전 관련 영상을 그레이 영상으로 변환하고, 차선 검출 알고리즘을 수행하여 차량의 양 측에 위치한 각 차선을 식별할 수 있는 영역을 차선 영역으로 결정할 수 있다. 여기서, 차량의 운전 관련 영상은 차량의 정차, 주행 등에 대한 영상을 포함할 수 있다. 그리고, 차량의 운전 관련 영상은 전자 장치(100)에 포함된 카메라 모듈에서 촬영한 영상이거나 또는 다른 장치에서 촬영한 영상을 전자 장치(100)가 수신한 영상일 수 있다. 그리고, 차량의 운전 관련 영상은 RGB(Red Green Blue)(칼라) 영상일 수 있다. 3 is a flowchart illustrating a method of generating lane information of an electronic device according to an embodiment of the present invention. Referring to FIG. 3 , first, the
그리고, 전자 장치(100)는 식별된 차선 영역 부분의 영상 데이터로부터 차량이 위치한 차로에 대응되는 차선 정보를 생성할 수 있다(S102). 구체적으로, 차선 정보 생성부(140)는 검출된 차선 영역에 대해 차선의 패턴 정보 및 색상 정보를 분석함으로써, 차선 정보를 생성할 수 있다. 차선 정보는 차량이 위치한 차로 양 측에 위치한 각 차선에 대응되는 선 종류 정보 및 선 색상 정보 중 적어도 하나를 포함할 수 있다.Then, the
이하에서는 도 4 내지 7을 참조하여 차선 정보 생성 방법을 보다 구체적으로 설명하기로 한다. Hereinafter, a method of generating lane information will be described in more detail with reference to FIGS. 4 to 7 .
도 4는 본 발명의 일 실시 예에 따른 전자 장치의 차선 정보 생성 방법을 구체적으로 나타내는 흐름도 이다. 도 4를 참조하면, 먼저, 전자 장치(100)는 컬러 영상 데이터를 그레이 영상으로 변환하고(S201), 변환된 그레이 영상으로부터 차선 영역 검출을 수행할 수 있다(S202). 4 is a flowchart specifically illustrating a method for generating lane information of an electronic device according to an embodiment of the present invention. Referring to FIG. 4 , first, the
구체적으로, 차선 정보 생성부(140) 촬영된 운전 관련 영상으로부터 차선을 검출하기 위한 영역을 추출할 수 있다. 또한, 차선 정보 생성부(140) 도로의 일부분이 그림자 영향을 받으면 차선 검출에 어려움이 있기 때문에 그림자 영향을 최소화 하기 위하여, 원 영상에 대한 광원 보정을 미리 수행할 수 있다.Specifically, the lane
그리고, 차선 정보 생성부(140) 미리 결정된 카메라 위치 또는 카메라 설치 각도에 따라 차선이 존재 가능한 영역을 차선 영역으로 검출할 수 있다. 예를 들어, 차선 정보 생성부(140) 차선이 시작 가능한 위치를 기점으로 차선 영역을 결정할 수 있다. 또한, 차선 정보 생성부(140) 차선 영역이 시작되는 위치와 차선 영역의 길이를 운전 관련 영상 내 차로 폭(좌측 차선 영역과 우측 차선 영역 사이의 최대 너비)과 카메라의 시야각으로 추정할 수 있다.Also, the lane
또한, 차선 정보 생성부(140) 차선 검출 영역에 해당되는 그레이 영상을 에지 영상으로 변환하고, 변환된 에지 영상에서 추출되는 직선 위치에 기초하여 차선 영역을 검출할 수 있다. 보다 구체적으로, 운전 관련 영상은 알려진 다양한 알고리즘을 통해 에지 영상으로 변환될 수 있으며, 에지 영상은 다수의 직선을 나타내는 에지를 포함할 수 있다. 이 때, 차선 정보 생성부(140)는 검출된 직선의 위치를 차선으로 인식할 수 있다. 또한, 차선 정보 생성부(140)는 다수의 직선 후보 중에서 차량의 주행 방향에 대하여 일정한 차선의 폭을 가지는 직선의 위치에 기초하여 차선 영역을 결정할 수 있다.Also, the
도 5에서는 이와 같은 그레이 영상 변환 및 차선 영역 검출 과정을 나타내고 있다. 도 5를 참조하면, 최초 입력된 운전 관련 영상은 그레이 영상(200)으로 변환될 수 있으며, 에지 검출 등의 차선 검출 알고리즘을 통해 직선의 차선 영역(201, 202)이 검출될 수 있다. 차선 영역은 차량의 위치를 기준으로 좌측 차선 영역(201) 및 우측 차선 영역(202)으로 구분될 수 있다.5 shows the gray image conversion and lane area detection process. Referring to FIG. 5 , an initially input driving-related image may be converted into a
다시 도 4를 설명한다.Fig. 4 will be described again.
이후, 차선 영역이 검출되면, 전자 장치(100)는 차선 영역에 기반하여 차선 종류 관심 영역을 설정할 수 있다(S203). 구체적으로, 차선 정보 생성부(140)는 차선 영역이 검출되면, 검출된 차선 영역을 기준으로 하는 차선 종류 관심 영역(ROI, Region Of interest)을 설정할 수 있다. 차선 종류 관심 영역은, 차선의 선 종류 및 색상을 판단하기 위한 차선 및 그 주변 일정 영역을 포함하는 운전 관련 영상의 부분을 의미할 수 있다.Thereafter, when a lane area is detected, the
보다 구체적으로, 도 6에서는 그레이 영상에서의 차선 종류 관심 영역을 나타내고 있다.More specifically, FIG. 6 shows a lane type ROI in a gray image.
도 6에 도시된 바와 같이, 차선 종류 관심 영역(210, 220)은 앞서 검출된 차선 영역 및 그 주변 영역을 일부 포함할 수 있다. 또한, 차선 종류 관심 영역은 차량의 진행 방향을 기준으로 좌측 차선 종류 관심 영역(210) 및 우측 차선 종류 관심 영역(220)으로 구분될 수 있다.As shown in FIG. 6 , the lane-
예를 들어, 앞서 검출된 차선 영역은 일반적으로 직선으로 형성될 수 있고, y = a * x + b 와 같은 수식으로 표현되는 경우, 차선 종류 관심 영역은 y = a * x + b + m 및 y = a * x + b - m 을 모두 포함하는 영역으로 나타낼 수 있다. 이는 기존의 단순 차선 검출 방식과 달리, 구체적이고 다양한 주행 차선 정보를 생성하기 위한 방식으로서, 차선 정보 생성부(140)는 검출된 직선의 차선 영역을 확장하여 그 주변 영역까지 관심 영역으로 설정할 수 있다.For example, the previously detected lane area may be generally formed in a straight line, and when expressed as an equation such as y = a * x + b , the lane type ROI is y = a * x + b + m and y = a * x + b - m. Unlike the existing simple lane detection method, this is a method for generating specific and various driving lane information. The lane
다시 도 4를 설명한다.Fig. 4 will be described again.
이 후, 전자 장치(100)는 차선 종류 관심 영역에 대해 이진화를 수행하고(S204), 이진화된 부분 그레이 영상을 1차원 영역으로 매핑하며(S205), 시각 연속성 및 속도 중 적어도 하나를 이용하여 선 종류를 식별할 수 있다(S206).Thereafter, the
차선 정보 생성부(140)는 변환된 그레이 영상으로부터 차선 종류 관심 영역의 부분 그레이 영상을 추출하고, 부분 그레이 영상에 대해 이진화를 수행할 수 있다. 이진화를 위한 기준값은 관심 영역의 부분 그레이 영상의 평균 휘도 값으로 결정할 수 있다. 이에 따라, 주행 차선 정보 생성 모듈(180)은 부분 그레이 영상으로부터 차선으로 판단되는 부분만을 명확하게 구별할 수 있다.The
그리고, 차선 정보 생성부(140)는 이진화된 부분 그레이 영상에서 식별되는 각 선을(좌측 및 우측) 1차원 영역으로 매핑할 수 있다. 그리고, 1차원 영역으로 매핑된 각 선의 패턴을 분석함으로써, 선 종류를 식별할 수 있다. In addition, the
보다 구체적으로, 도 7에서는 그레이 영상에서의 차선 종류 관심 영역 이진화 및 1차원 매핑을 나타내고 있다.More specifically, FIG. 7 illustrates binarization and one-dimensional mapping of a lane type region of interest in a gray image.
도 7에 도시된 바와 같이, 차선 종류 관심 영역에 대한 이진화가 수행되면, 이진화된 영상(300)이 획득될 수 있다. 이진화된 영상(300)에서, 흰색으로 나타나는 부분을 차선으로 식별할 수 있으며, 그 외의 부분은 흑색으로 식별될 수 있다.As shown in FIG. 7 , when binarization is performed on the lane type ROI, a
그리고, 이진화된 영상(300)에서 식별되는 각 선은 1차원 영역으로 매핑될 수 있다. 차선 정보 생성부(140)는 1차원 영역으로 매핑된 영상(310)을 이용하여 선 종류를 용이하게 판별할 수 있다.In addition, each line identified in the
예를 들어, 차선 정보 생성부(140)는 1차원으로 매핑된 각 선의 시작점 및 길이 특징에 기초하여 점선 또는 실선 여부를 판단할 수 있다. 또한, 차선 정보 생성부(140)는 1차원으로 매핑된 각 선의 시간에 대한 연속성 및 속도를 이용하여 점선 또는 실선 여부를 판단할 수 있다. 그리고, 차선 정보 생성부(140)는 1차적으로 상기 시작점 및 길이 특징에 따라 점선 또는 실선을 결정한 후, 2차적으로 시간 연속성 및 속도를 이용하여 최종적으로 점선 또는 실선을 결정할 수 있다.For example, the
보다 구체적으로, 차선 정보 생성부(140)는 먼저 각 선의 시작점 위치에 따른 선 길이를 비교 판별하여 점선 또는 실선 여부를 결정할 수 있다. 이 경우 차선 정보 생성부(140)는 하나의 영상 프레임만으로도 점선 또는 실선 여부를 판단할 수 있다.More specifically, the lane
또한, 차선 정보 생성부(140)는 각 선이 시간에 따라 연속적으로 형성되는지 여부에 따라 점선인지 실선인지를 보다 명확하게 판단할 수 있다. 예를 들어, 주행 차선 정보 생성 모듈(180)은 영상 내에서의 선 이동 속도에 따른 연속성 정도를 미리 설정하고, 각 선의 연속성이 미리 설정된 연속성 정도 값보다 낮은 경우 점선으로 판별할 수 있다.Also, the lane
따라서, 본 발명의 실시 예에 따르면 하나의 프레임을 통해 점선 또는 실선 여부를 미리 구별하고, 연속되는 프레임을 통해 이를 검증함으로써 최종적인 선 종류를 판단할 수 있다. Therefore, according to an embodiment of the present invention, it is possible to determine whether a dotted line or a solid line is in advance through one frame and to verify it through successive frames to determine the final line type.
다시 도 4를 참조하면, 전자 장치(100)는 컬러인 원본 영상 데이터로부터 상기 종류가 식별된 선 부분의 색상을 검출할 수 있다(S207).Referring again to FIG. 4 , the
차선 정보 생성부(140)는 컬러 영상을 분석하여, 앞서 종류가 식별된 선에 해당하는 부분의 색상을 검출하고, 이를 분류할 수 있다. 예를 들어, 차선 정보 생성부(140)는 검출된 색상을 백색, 황색 또는 청색으로 분류할 수 있다.The
이후, 전자 장치(100)는 식별된 선 종류 및 분류된 색상에 기초하여 차량이 위치한 차로에 대응되는 차선 정보를 생성할 수 있다(S208).Thereafter, the
도 8은 본 발명의 일 실시 예에 따른 차로 위치 정보 생성 방법을 구체적으로 나타내는 흐름도 이다. 도 8을 참조하면, 전자 장치(100)는 지도 데이터로부터 차량이 위치한 도로의 차로 정보를 획득할 수 있다(S301). 여기서, 도로의 차로 정보는, 운전 중인 차량이 현재 위치한 도로의 차로 정보일 수 있고, 차량이 위치한 도로의 차로 개수 정보를 포함할 수 있다. 그리고, 도로의 차로 정보는 전자 장치(100)내의 저장부(110)에 저장된 지도 데이터에서 획득되거나, 전자 장치(100)와 별도의 외부 지도 데이터베이스(DB)에서 획득되거나, 다른 전자 장치(100)로부터 획득될 수 있다. 8 is a flowchart specifically illustrating a method for generating lane location information according to an embodiment of the present invention. Referring to FIG. 8 , the
그리고, 전자 장치(100)는 생성된 차선 정보를 이용하여 차량이 도로의 첫 번째 차로(1 차로), 또는 마지막 차로(끝 차로)에 위치하는지 여부를 판단할 수 있다(S302). 구체적으로 차로 위치 정보 생성부(150)는 도 9와 같은 차로 판단 테이블에 차량이 위치한 차로에 대응되는 차선 정보를 적용하여 차량이 도로의 1 차로, 또는 끝차로에 위치하는지 여부를 판단할 수 있다. Then, the
즉, 차로 판단 테이블은 국가, 좌측선 종류 및 색상, 우측선 종류 및 색상에 따라 결정되는 1 차로, 끝차로를 포함할 수 있다. 여기서, 도 10과 같은 차로 판단 테이블은 예시일 수 있으며, 설정에 따라 국가별 또는 상황별로 다른 값으로 설정될 수 있다.That is, the lane determination table may include a primary lane and an end lane determined according to a country, a type and color of a left line, and a type and color of a right line. Here, the lane determination table as shown in FIG. 10 may be an example, and may be set to a different value for each country or situation according to the setting.
한편, 전자 장치(100)는 차량이 첫 번째 또는 마지막 차로에 위치하는 경우, 도로의 차로 정보를 반영하여 차량이 위치한 차로 위치 정보를 생성할 수 있다(S303). 예를 들어, 차량이 마지막 차로에 위치한다고 판단되면, 차로 위치 정보 생성부(150)는 차로 위치 정보를 N 차로로 생성할 수 있다. 그리고, 도로 차로 정보에 대응되는 차로 개수가 5 개인 경우, 이를 반영하여 N 차로를 5 차로로 생성할 수 있다. Meanwhile, when the vehicle is located on the first or last lane, the
그리고, 전자 장치(100)는 차량의 차로 변경에 따라 차량이 위치한 차로가 첫 번째 또는 마지막 차로의 사이에 위치한 차로로 변경되면, 생성된 차로 위치 정보를 변경된 차로 위치 정보로 갱신할 수 있다(S304). 이 경우, 차로 위치 정보 생성부(150)는 차선 정보를 이용하여 차선 이탈 여부를 판단하고, 이를 기초로 차로 변경 여부를 판단할 수 있다. 예를 들어, 차로 위치 정보 생성부(150)는 차량이 5 차로에 위치하다 좌측 차로로 1 차로 변경하였다고 판단되면, 이를 반영하여 차로 위치 정보를 5 차로에서 4차로로 갱신할 수 있다.Then, when the lane on which the vehicle is located is changed to a lane located between the first or last lanes according to the change of lane of the vehicle, the
그리고, 전자 장치(100)는 차량의 차로 변경에 따라 차량이 위치한 차로가 사이에 위치한 차로에서 첫 번째 또는 마지막 차로로 변경되면, 차량이 위치한 도로의 차로 정보를 재획득할 수 있다(S305). 그리고, 재획득된 차로 정보를 반영하여 차량이 위치한 차로 위치 정보를 재생성할 수 있다(S306). 예를 들어, 차량이 4 차로에 위치하다 우측 차로로 1 차로 변경되었다고 판단되면, 전에 설정된 마지막 차로인 5차로로 이동하였는 바, 현재 차량이 위치한 도로의 차로 정보를 획득할 수 있다. 그리고, 획득된 차로 정보가 4 차로인 경우, 차량이 위치한 차로 위치 정보를 4 차로로 재생성할 수 있다. Then, when the lane on which the vehicle is located is changed from a lane on which the vehicle is located to the first or last lane according to the change of lane of the vehicle, the
한편, 본 발명의 일 실시 예에 따른 차로 위치 정보 생성 방법은 상술한 도 9에 한정되는 것은 아니다. 따라서, 다른 실시 예에 따라서 상술한 순서는 일부 변경될 수 있다. 일 예로, 차량이 위치한 도로의 차로 정보를 획득하는 단계는 S304 단계에서 수행될 수 있다. 이 경우, 전자 장치(100)는 차량이 첫 번째 또는 마지막 차로에 위치하는 경우, 차량이 위치한 차로 위치 정보를 생성할 수 있다(S303). 예를 들어, 차량이 마지막 차로에 위치한다고 판단되면, 차로 위치 정보 생성부(150)는 차로 위치 정보를 N 차로로 생성할 수 있다. Meanwhile, the method for generating lane location information according to an embodiment of the present invention is not limited to FIG. 9 . Accordingly, according to another embodiment, the above-described order may be partially changed. As an example, the step of obtaining information on the lane of the road on which the vehicle is located may be performed in step S304 . In this case, when the vehicle is located on the first or last lane, the
그리고, 전자 장치(100)는 차량의 차로 변경에 따라 차량이 위치한 차로가 첫 번째 또는 마지막 차로의 사이에 위치한 차로로 변경되면, 생성된 차로 위치 정보 및 획득된 도로의 차로 정보를 이용하여 차로 위치 정보로 갱신할 수 있다(S304). 예를 들어, 차로 위치 정보 생성부(150)는 차량이 끝차로에 대응되는 N 차로에 위치하다 좌측 차로로 1 차로 변경하였다고 판단되면, N-1 차로에 차로 개수 정보인 N = 5를 반영하여 차로 위치 정보를 4차로로 갱신할 수 있다.And, when the lane in which the vehicle is located is changed to a lane located between the first or last lanes according to the lane change of the vehicle, the
또한, 본 발명의 다른 실시 예에 따르면, 차로 위치 정보 생성부(150)는 도 10과 같은 차로 판단 테이블에 차량이 위치한 차로에 대응되는 차선 정보를 적용하여 차량이 도로의 1 차로, 중앙 차로, 끝차로에 위치하는지 여부를 판단할 수 있다. 다만, 이 경우, 도로의 중앙 차로가 복수 개인 상황(예를 들어, 차로의 개수가 4개 이상인 경우)에서는 복수의 중앙 차로 중 차량이 위치한 차로를 정확하게 알 수 없는 바, 본 발명의 일 실시 예는 바람직하게는 도 9와 같은 방법을 사용할 수 있다. In addition, according to another embodiment of the present invention, the lane location
도 11은 본 발명의 일 실시 예에 따른 제어 방법을 나타내는 흐름도 이다. 도 11을 참조하면, 먼저 전자 장치(100)는 차량의 운전 관련 영상 데이터로부터 차선 영역을 식별할 수 있다(S401).11 is a flowchart illustrating a control method according to an embodiment of the present invention. Referring to FIG. 11 , first, the
그리고, 식별된 차선 영역 부분의 영상 데이터로부터 상기 차량이 위치한 차로에 대응되는 차선 정보를 생성할 수 있다(S402).Then, lane information corresponding to the lane in which the vehicle is located may be generated from the image data of the identified lane area portion (S402).
그리고, 생성된 차선 정보 및 상기 차량이 위치한 도로의 차로 정보 중 적어도 하나를 이용하여 상기 차량이 위치한 차로 위치 정보를 생성할 수 있다(S403).Then, information on the lane location on which the vehicle is located may be generated by using at least one of the generated lane information and lane information on the road on which the vehicle is located ( S403 ).
그리고, 획득된 차로 정보를 이용하여 차량의 운전 관련 안내를 수행할 수 있다(S404).In addition, driving-related guidance of the vehicle may be performed using the obtained lane information (S404).
여기서, 차량의 운전 관련 안내를 수행하는 단계(S404)는 차량의 내비게이션 경로와 차로 위치 정보를 이용하여 차로 변경 안내를 출력하는 단계를 포함할 수 있다.Here, the step of performing the driving-related guidance of the vehicle ( S404 ) may include outputting a lane change guidance using the vehicle navigation route and lane location information.
또한, 차량의 운전 관련 안내를 수행하는 단계(S404)는, 차로 위치 정보를 이용하여 상기 차량이 위치한 차로 안내를 출력하는 단계를 포함할 수 있다.In addition, the step of performing the driving-related guidance of the vehicle ( S404 ) may include outputting the guidance on the lane in which the vehicle is located by using the lane location information.
한편, 본 발명의 일 실시 예에 따른 제어 방법은, 차선 정보에 기초하여 식별되는 차량의 차로 양측 차선의 종류에 따라, 적절한 차선 이탈 안내를 선택하여 출력하는 단계를 더 포함할 수 있다.Meanwhile, the control method according to an embodiment of the present invention may further include the step of selecting and outputting an appropriate lane departure guide according to types of both lanes of a vehicle lane identified based on lane information.
여기서, 상기 출력은, 운전 관련 안내를 수행하기 위한 인디케이터를 생성하고, 생성된 인디케이터를 증강 현실을 통해 출력함으로써 수행될 수 있다. Here, the output may be performed by generating an indicator for performing driving-related guidance and outputting the generated indicator through augmented reality.
한편, 종래의 증강 현실 내비게이션 에서는 경로 안내에 있어서 다양한 가지 기법을 사용하고 있으나, 경로 안내선과 실질적인 도로 환경과의 합성이 어려워, 경로 안내선의 표현에 한계가 있었다. On the other hand, in the conventional augmented reality navigation, various methods are used for route guidance, but it is difficult to synthesize the route guide line and the actual road environment, so there is a limit to the expression of the route guide line.
다만, 본 발명에 일 실시 예에 따르면, 경로 안내선의 입체화 처리를 통하여 증강 현실에 적합한 경로 안내 인디케이터를 실시간으로 구축하여, 2차원의 카메라 영상 위에 3차원의 경로 안내 인디케이터를 사실적이고 효과적으로 표시할 수 있다. 이하에서는 상술한 목적을 달성하기 위한 본 일 실시 예에 따른 증강 현실 제공부(160)에 대해서 구체적으로 설명하기로 한다. However, according to an embodiment of the present invention, a route guide indicator suitable for augmented reality is built in real time through three-dimensional processing of a route guide line, and a three-dimensional route guide indicator can be displayed realistically and effectively on a two-dimensional camera image. have. Hereinafter, the augmented
도 12는 본 발명의 일 실시 예에 따른 증강 현실 제공부(160)를 구체적으로 나타내는 블록도 이다. 도 12를 참조하면, 증강 현실 제공부(160)는 캘리브레이션부(161), 3D 공간 생성부(162), 인디케이터 생성부(163), 맵핑부(164)의 전부 또는 일부를 포함할 수 있다. 12 is a block diagram specifically illustrating the augmented
캘리브레이션부(161)는 카메라에서 촬영된 촬영 영상으로부터 카메라에 해당되는 카메라 파라미터를 추정하기 위한 캘리브레이션(Calibration)을 수행할 수 있다. 여기서, 카메라 파라미터는 실사공간이 사진에 맺히는 관계를 나타내는 정보인 카메라 행렬을 구성하는 파라미터일 수 있다.The
3D 공간 생성부(162)는 카메라에서 촬영된 촬영 영상을 기초로 가상 3D 공간을 생성할 수 있다. 구체적으로, 3D 공간 생성부(162)는 캘리브레이션부(161)가 추정한 카메라 파라미터를 기초로 카메라가 촬영한 영상으로부터 깊이 정보(Depths information)를 획득하고, 획득한 깊이 정보와 촬영 영상을 기초로 가상 3D 공간을 생성할 수 있다.The
인디케이터 생성부(163)는 증강 현실 상에서 안내를 위한 인디케이터, 예를 들어, 경로 안내 인디케이터, 차로 변경 안내 인디케이터, 차선 이탈 안내 인디케이터 등을 생성할 수 있다.The
특히, 인디케이터 생성부(163)는 목적지까지의 경로 안내를 요청하는 사용자 입력이 입력부(120)를 통하여 수신되면, 증강 현실 상에서 경로 안내를 위한 경로 안내 인디케이터를 생성할 수 있다. 여기서, 경로 안내 인디케이터 생성부는 경로 안내선 처리부(163-1), 경로 안내선 입체화부(163-2). 동적 텍스처 맵핑부(163-3)을 포함할 수 있다.In particular, when a user input requesting route guidance to a destination is received through the
경로 안내선 처리부(163-1)는 사용자의 경로 안내 요청에 따라 목적지까지의 경로 안내선이 생성되면, 실제 주행 차량의 주행 궤적 반경을 반영하여 경로 안내선의 처리를 수행할 수 있다. When a route guide line to a destination is generated according to a user's route guide request, the route guide line processing unit 163-1 may process the route guide line by reflecting the radius of the driving trajectory of the actual driving vehicle.
구체적으로, 전자 장치(100)는 저장부(110)로부터 획득된 지도 데이터, 전자 장치(100)와 별도의 외부 지도 데이터베이스(DB)에서 획득된 지도 데이터를 이용하여 사용자의 경로 안내 요청에 따른 목적지까지의 경로 안내선을 생성할 수 있다. 여기서, 생성된 경로 안내선은, 노드와 링크로 구성될 수 있고, 도 13(a)와 같은 형태일 수 있다. 즉, 도 13(a)를 참조하면, 생성된 경로 안내선(1301)은 커브 구간(1302)에서 차량 주행 궤적과는 비유사한 직선 형태일 수 있다. 따라서, 도 13(a)와 같은 경로 안내선을 기초로 카메라 영상과 합성을 하여 증강 현실을 제공하게 되면, 실제 차량의 주행 궤적과 상이한 결과를 표시하게 된다. Specifically, the
이에 따라, 본 발명의 일 실시 예에 따른 경로 안내선 처리부(163-1)는 실제 주행 차량의 주행 궤적 반경을 반영하여 경로 안내선의 처리를 수행할 수 있다. 구체적으로, 경로 안내선 처리부(163-1)는 생성된 경로 안내선 중 현재 화면에 표시되지 않는 영역에 대한 버텍스(vertex), 중복점과 같은 불필요한 vertex를 제거할 수 있다. 그리고, 경로 안내선 처리부(163-1)는 자차 앞 경로 안내선의 직선을 유지하기 위한 버텍스들을 추가할 수 있다. 그리고, 경로 안내선 처리부(163-1)는 경로 안내선의 커브 구간에 커브 구간의 곡선화를 위한 버텍스들을 추가할 수 있다. 그리고, 경로 안내선 처리부(163-1)는 추가된 버텍스들을 이용하여 실제 주행 차량의 주행 궤적 반경을 반영한 경로 안내선을 생성할 수 있다. Accordingly, the route guide line processing unit 163 - 1 according to an embodiment of the present invention may process the route guide line by reflecting the radius of the driving trajectory of the actual driving vehicle. Specifically, the path guide line processing unit 163 - 1 may remove unnecessary vertices such as vertices and overlapping points for an area not currently displayed on the screen among the generated path guide lines. In addition, the path guide line processing unit 163 - 1 may add vertices for maintaining a straight line of the path guide line in front of the host vehicle. In addition, the path guide line processing unit 163 - 1 may add vertices for curving the curve section to the curve section of the path guide line. In addition, the path guide line processing unit 163 - 1 may generate a path guide line reflecting the radius of the driving trajectory of the actual driving vehicle by using the added vertices.
이러한, 본 발명의 일 실시 예에 따르면, 도 13(b)와 같은 경로 안내선을 생성할 수 있다. 즉, 도 13(b)를 참조하면, 처리된 경로 안내선(1303)은 커브 구간(1304)에서 차량 주행 궤적과 유사한 부드러운 형태일 수 있다. According to an embodiment of the present invention, a path guide line as shown in FIG. 13B may be generated. That is, referring to FIG. 13B , the processed
경로 안내선 입체화부(163-2)는 경로 안내선 처리부(163-1)에서 생성된 경로 안내선을 거리에 따라 높이를 달리하여 가변 입체화를 수행할 수 있다. 이에 대해서는 도 14를 참조하여 구체적으로 설명하기로 한다. The path guide line three-dimensionalization unit 163-2 may perform variable stereoscopicization by varying the height of the path guide line generated by the path guide line processing unit 163-1 according to a distance. This will be described in detail with reference to FIG. 14 .
도 14를 참조하면, 경로 안내선 입체화부(163-2)는 경로 안내선 처리부(163-1)에서 생성된 경로 안내선(1401)의 양 쪽에 가상의 경로 안내선(1402,1403)을 생성할 수 있다. 구체적으로, 경로 안내선 입체화부(163-2)는 경로 안내선 처리부(163-1)에서 생성된 경로 안내선(1401)의 버텍스들의 단위 벡터를 산출하고, 산출된 단위 벡터의 내적 연산에 의해 단위 벡터에 수직인 법선 벡터를 산출하여 가상의 경로 안내선(1402,1403)을 생성할 수 있다.Referring to FIG. 14 , the path guide line three-dimensionalization unit 163-2 may generate virtual path guide
그리고, 경로 안내선 입체화부(163-2)는 경로 안내선(1401)에 포함된 버텍스들의 높이 값을 산출할 수 있다. 이 경우, 경로 안내선 입체화부(163-2)는 경로 안내선(1401)에 포함된 버텍스들의 높이 값이 거리에 비례하여 증가하도록 높이 값을 산출할 수 있다. In addition, the path guide line stereoscopic unit 163 - 2 may calculate height values of vertices included in the
그리고, 경로 안내선 입체화부(163-2)는 높이 값이 산출된 경로 안내선(1401)의 버텍스들과 가상의 경로 안내선(1402,1403) 각각에 포함된 버텍스들을 폴리곤을 통해 면을 생성하여 입체화를 수행할 수 있다. In addition, the path guide line stereoscopic unit 163-2 generates a surface through polygons using the vertices of the
이에 따라, 화면에 표시된 경로 안내 인디케이터 중 자차로부터 멀리 위치한 지점의 경로 안내 인디케이터를 운전자가 식별 가능하도록 화면에 표시할 수 있다.Accordingly, among the route guidance indicators displayed on the screen, the route guidance indicator of a point located far from the own vehicle may be displayed on the screen so that the driver can identify it.
동적 텍스처 맵핑부(163-3)는 경로 안내선 입체화부(163-2)에서 생성된 입체 데이터에 차량 속도에 따라 변위를 가진 텍스처를 매핑할 수 있다. The dynamic texture mapping unit 163 - 3 may map a texture having a displacement according to a vehicle speed on the stereoscopic data generated by the path guide line stereoscopicizing unit 163 - 2 .
여기서 텍스처는 차량 속도에 따라 변위를 가진 텍스처일 수 있다. 즉, 차량이 경로 상에서 이동하는 경우, 동적 텍스처 맵핑부(163-3)는 입체 데이터에서 텍스처의 매핑 위치를 변경함으로써, 차량 속도에 따라 변위를 가진 텍스처를 생성할 수 있다. 이 경우, 화면에 표시된 경로 안내 인디케이터는 마치 도로면에 붙어있는 듯한 효과를 극대화시킬 수 있다. Here, the texture may be a texture having a displacement according to the vehicle speed. That is, when the vehicle moves on a path, the dynamic texture mapping unit 163 - 3 may generate a texture having a displacement according to the vehicle speed by changing the mapping position of the texture in the three-dimensional data. In this case, the route guidance indicator displayed on the screen can maximize the effect of being attached to the road surface.
이러한 동작에 따라, 인디케이터 생성부(163)는 증강 현실 상에서 경로 안내를 위한 경로 안내 인디케이터를 생성할 수 있다.According to this operation, the
한편, 턴 지점이 있고 이 턴 지점을 지나고 나서의 디스플레이기법은 보다 효과적인 화면 표출을 하기 위하여, 경로 안내선 입체화부(163-2)는 상술한 동작에 따라 생성된 입체를 수직화할 수 있다.On the other hand, in order to display a more effective screen when there is a turn point and the display technique after passing the turn point, the route guide line stereoscopic unit 163-2 may verticalize the stereoscopic generated according to the above-described operation.
즉, 경로 안내선 입체화부(163-2)는 좌회전인 경우에는 경로 안내선(1401)의 우측에 해당하는 가상의 경로 안내선(1403)을 높이 방향으로 세워서 입체 데이터를 결정할 수 있고, 반대로 우회전인 경우에는 경로 안내선(1401)의 좌측에 해당하는 가상의 경로 안내선(1402)을 높이 방향으로 세워서 입체 데이터를 결정할 수 있다. That is, in the case of a left turn, the route guide line stereoscopic unit 163-2 may determine stereoscopic data by erecting a virtual
한편, 맵핑부(164)는 3D 공간 생성부(162)에서 생성된 가상 3D 공간에 인디케이터 생성부(163)에서 생성된 인디케이터를 결합할 수 있다. Meanwhile, the
도 15는 본 발명의 일 실시 예에 따른 증강 현실 경로 안내 방법을 나타내는 흐름도 이다. 도 15를 참조하면, 먼저 전자 장치(100)는 경로 안내를 요청하는 사용자 입력을 수신할 수 있다(S501).15 is a flowchart illustrating an augmented reality route guidance method according to an embodiment of the present invention. Referring to FIG. 15 , first, the
그리고, 전자 장치(100)는 경로 안내에 따른 목적지 정보를 기초로 경로 안내선을 생성할 수 있다(S502). Then, the
그리고, 전자 장치(100)는 실제 주행 차량의 주행 궤적 반경을 반영하여 생성된 경로 안내선의 보정를 수행할 수 있다(S503). 구체적으로, S503 단계는, 생성된 경로 안내선 중 현재 화면에 표시되지 않는 영역에 대한 버텍스(vertex), 중복점과 같은 불필요한 vertex를 제거하는 단계, 자차 앞 경로 안내선의 직선을 유지하기 위한 버텍스들을 추가하는 단계, 경로 안내선의 커브 구간에 커브 구간의 곡선화를 위한 버텍스들을 추가하는 단계, 추가된 버텍스들을 이용하여 실제 주행 차량의 주행 궤적 반경을 반영한 경로 안내선을 생성하는 단계를 포함할 수 있다.Then, the
그리고, 전자 장치(100)는 보정된 경로 안내선을 자차와의 거리에 따라 높이를 달리하여 가변 입체화를 수행할 수 있다(S504). 구체적으로, S504 단계는, 처리된 경로 안내선 양 쪽에 가상의 경로 안내선을 생성하는 단계, 처리된 경로 안내선에 포함된 버텍스들의 높이 값이 거리에 비례하여 증가하도록 높이 값을 산출하는 단계, 높이 값이 산출된 경로 안내선의 버텍스들과 가상의 경로 안내선 각각에 포함된 버텍스들을 폴리곤을 통해 면을 생성하여 입체화를 수행하는 단계를 포함할 수 있다.Then, the
그리고, 전자 장치(100)는 입체 데이터에 차량 속도에 따라 변위를 가진 텍스처를 매핑하여 경로 안내 인디케이터를 생성할 수 있다.(S505). Then, the
그리고, 전자 장치(100)는 경로 안내 인디케이터를 증강 현실을 통해 화면에 출력할 수 있다(S506). 여기서, 출력 화면에 대해서는 도 16을 참조하여 구체적으로 설명하기로 한다. Then, the
도 16은 본 발명의 일 실시 예에 따른 경로 안내 화면을 나타내는 도면이다. 도 16을 참조하면, 본 발명의 일 실시 예에 따른 전자 장치(100)는 증강 현실 상에서의 경로 안내 화면(좌측 화면) 및 지도 상에서의 경로 안내 화면(우측 화면)을 함께 표시할 수 있다.16 is a diagram illustrating a route guidance screen according to an embodiment of the present invention. Referring to FIG. 16 , the
이 경우, 증강 현실 제공부(160)는 증강 현실 상에서 안내를 위하여 증강 현실에 오버레이 되는 인디케이터를 생성할 수 있다. In this case, the augmented
일 예로, 도 16과 같이, 경로 안내 인디케이터(1601), 차로 변경 안내 인디케이터(1602), 차선 이탈 안내 인디케이터(1603)를 생성할 수 있다. 그리고, 증강 현실 제공부(160)는 생성된 인디케이터를 증강 현실 상에서 출력할 수 있다. For example, as shown in FIG. 16 , a
도 17은 본 발명의 일 실시 예에 따른 카메라와 전자 장치가 분리형이 경우 구현 형태를 나타내는 도면이다. 도 17을 참조하면, 차량용 내비게이션(100)과 별도로 마련된 차량용 블랙박스(200)가 유선/무선 통신 방식을 이용하여 본 발명의 일 실시 예에 따른 시스템을 구성할 수 있다. 17 is a diagram illustrating an implementation form when a camera and an electronic device are separated according to an embodiment of the present invention. Referring to FIG. 17 , the vehicle
차량용 내비게이션(100)은 내비게이션 하우징(191)의 전면에 마련된 디스플레이부(145)와, 내비게이션 조작키(193)와, 내비게이션 마이크(195)를 포함할 수 있다.The
차량용 블랙박스(200)는 주행 중 및 정차 중에 차량의 데이터를 획득할 수 있다. 즉, 차량의 주행 중의 영상을 촬영할 수 있음은 물론, 차량이 정차하여 있는 경우에도 영상을 촬영할 수 있다. 차량용 블랙박스(200)를 통하여 획득된 영상의 화질은, 일정하거나 변화될 수 있다. 예를 들어, 사고의 발생을 전후하여서는 영상의 화질을 높게 하고, 통상적인 경우에는 영상의 화질을 낮게 함으로써 요구되는 저장공간을 최소화하면서도 핵심적인 영상을 저장할 수 있다.The vehicle
차량용 블랙박스(200)는 블랙박스 카메라(222)와, 블랙박스 마이크(224)와, 부착부(281)를 포함할 수 있다.The vehicle
한편, 도 17에서는 차량용 내비게이션(100)과 별도로 마련된 차량용 블랙박스(200)가 유/무선 통신 방식을 통하여 연결된 것으로 도시하였으나, 차량용 내비게이션(100)과 차량용 블랙박스(200)는 유/무선 통신 방식을 통하여 연결되지 않을 수도 있다. 이 경우, 블랙 박스(200)의 촬영 영상을 저장하는 저장 매체가 전자 장치(100)에 삽입되면, 전자 장치(100)는 촬영 영상을 입력받을 수 있다. 한편, 차량용 블랙박스(200)가 차량용 내비게이션(100)의 기능을 구비하거나, 차량용 내비게이션(100)이 카메라를 구비하여 일체화되는 경우도 가능하다. 이에 대해서는 도 18을 참조하여 구체적으로 설명하기로 한다.Meanwhile, in FIG. 17 , the
도 18은 본 발명의 일 실시 예에 따른 카메라와 전자 장치가 일체형인 경우 구현 형태를 나타내는 도면이다. 도 18을 참조하면, 전자 장치가 카메라 기능을 내포하는 경우, 사용자는 전자 장치의 카메라 부분이 차량의 전방을 촬영하고, 전자 장치의 디스플레이 부분이 사용자 인식 가능하도록 전자 장치를 거치시킬 수 있다. 이에 따라, 본 발명의 일 실시 예에 따른 시스템을 구현할 수 있다. 18 is a diagram illustrating an implementation form when a camera and an electronic device are integrated according to an embodiment of the present invention. Referring to FIG. 18 , when the electronic device includes a camera function, the user may mount the electronic device so that the camera part of the electronic device photographs the front of the vehicle and the display part of the electronic device can be recognized by the user. Accordingly, it is possible to implement a system according to an embodiment of the present invention.
도 19는 본 발명의 일 실시 예에 따른 HUD(Head-Up Display) 및 전자 장치를 이용한 구현 형태를 나타내는 도면이다. 도 19를 참조하면, 전자 장치는 헤드업 디스플레이와 유/무선 통신을 통하여 증강 현실 안내 화면을 헤드업 디스플레이 상에서 표시할 수 있다. 19 is a diagram illustrating an implementation form using a head-up display (HUD) and an electronic device according to an embodiment of the present invention. Referring to FIG. 19 , the electronic device may display the augmented reality guidance screen on the heads-up display through wired/wireless communication with the heads-up display.
한편, 상술한 본 발명의 다양한 실시 예들에 따른 전자 장치의 제어 방법은 프로그램 코드로 구현되어 다양한 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장된 상태로 각 서버 또는 기기들에 제공될 수 있다. Meanwhile, the above-described method for controlling an electronic device according to various embodiments of the present disclosure may be implemented as a program code and provided to each server or device while stored in various non-transitory computer readable media. have.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.The non-transitory readable medium refers to a medium that stores data semi-permanently, rather than a medium that stores data for a short moment, such as a register, cache, memory, and the like, and can be read by a device. Specifically, the various applications or programs described above may be provided by being stored in a non-transitory readable medium such as a CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, and the like.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.In addition, although preferred embodiments of the present invention have been illustrated and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the present invention belongs without departing from the gist of the present invention as claimed in the claims In addition, various modifications are possible by those of ordinary skill in the art, and these modifications should not be individually understood from the technical spirit or perspective of the present invention.
100 : 전자 장치 110 : 저장부
120 : 입력부 130 : 출력부
140 : 차선 정보 생성부 150 : 차로 위치 정보 생성부
160 : 증강 현실 제공부 170 : 제어부
180 : 통신부 190 : 센싱부
195 : 전원부100: electronic device 110: storage unit
120: input unit 130: output unit
140: lane information generation unit 150: lane location information generation unit
160: augmented reality providing unit 170: control unit
180: communication unit 190: sensing unit
195: power supply
Claims (12)
경로 안내를 요청하는 사용자 입력을 수신하는 단계;
상기 요청에 대응되는 목적지 정보를 기초로 경로 안내선을 생성하는 단계;
실제 주행 차량의 주행 궤적 반경을 반영하여 상기 생성된 경로 안내선의 보정을 수행하는 단계;
상기 보정된 경로 안내선을 자차와의 거리에 따라 높이를 달리하여 가변 입체화를 수행하는 단계;
상기 가변 입체화에 따라 생성된 입체 데이터에 차량 속도에 따라 변위를 가진 텍스처를 매핑하여 경로 안내 인디케이터를 생성하는 단계 및
상기 경로 안내 인디케이터를 증강 현실을 통해 화면에 출력하는 단계;를 포함하는 제어 방법.A method for controlling an electronic device, comprising:
receiving a user input requesting route guidance;
generating a route guide line based on destination information corresponding to the request;
performing correction of the generated path guide line by reflecting the radius of the driving trajectory of the actual driving vehicle;
performing variable three-dimensionalization by varying the height of the corrected route guide line according to a distance from the own vehicle;
generating a route guidance indicator by mapping a texture having displacement according to vehicle speed to the three-dimensional data generated according to the variable three-dimensionalization; and
A control method comprising a; outputting the route guidance indicator to the screen through augmented reality.
상기 경로 안내선의 보정을 수행하는 단계는,
자차 앞 경로 안내선의 직선을 유지하기 위한 버텍스들을 추가하는 단계;
경로 안내선의 커브 구간에 커브 구간의 곡선화를 위한 버텍스들을 추가하는 단계; 및
추가된 버텍스들을 이용하여 실제 주행 차량의 주행 궤적 반경을 반영한 경로 안내선을 생성하는 단계;를 포함하는 것을 특징으로 하는 제어 방법.According to claim 1,
The step of performing the correction of the route guide line,
adding vertices for maintaining a straight line of the path guide line in front of the own vehicle;
adding vertices for curving the curve section to the curve section of the path guide line; and
and generating a path guide line reflecting the radius of the driving trajectory of the actual driving vehicle by using the added vertices.
상기 가변 입체화를 수행하는 단계는,
상기 보정된 경로 안내선 양 쪽에 가상의 경로 안내선을 생성하는 단계;
상기 보정된 경로 안내선에 포함된 버텍스들의 높이 값이 자차의 거리에 비례하여 증가하도록 높이 값을 산출하는 단계; 및
상기 높이 값이 산출된 경로 안내선의 버텍스들과 상기 가상의 경로 안내선 각각에 포함된 버텍스들을 폴리곤을 통해 입체화를 수행하는 단계;를 포함하는 것을 특징으로 하는 제어 방법.According to claim 1,
The step of performing the variable three-dimensionalization comprises:
generating virtual path guides on both sides of the corrected path guides;
calculating a height value such that height values of vertices included in the corrected path guide line increase in proportion to a distance of the host vehicle; and
and three-dimensionalizing the vertices of the path guide line from which the height value is calculated and the vertices included in each of the virtual path guide lines through polygons.
카메라에서 촬영된 촬영 영상으로부터 카메라에 해당되는 카메라 파라미터를 추정하기 위한 캘리브레이션(Calibration)을 수행하는 단계; 및
카메라 파라미터를 기초로 카메라가 촬영한 영상으로부터 가상 3D 공간을 생성하는 단계;를 더 포함하고,
상기 출력하는 단계는,
생성된 가상 3D 공간에 상기 생성된 경로 안내 인디케이터를 결합하여 출력하는 것을 특징으로 하는 제어 방법.According to claim 1,
performing calibration for estimating a camera parameter corresponding to the camera from the captured image taken by the camera; and
It further comprises; generating a virtual 3D space from the image taken by the camera based on the camera parameter;
The output step is
Control method characterized in that the output by combining the generated route guidance indicator in the generated virtual 3D space.
경로 안내를 요청하는 사용자 입력을 수신하는 입력부;
상기 요청에 대응되는 목적지 정보를 기초로 경로 안내선을 생성하는 경로 안내선 생성부;
상기 생성된 경로 안내선을 이용하여 증강 현실 상에서 경로 안내를 위한 경로 안내 인디케이터를 생성하는 경로 안내 인디케이터 생성부; 및
상기 생성된 경로 안내 인디케이터를 증강 현실을 통해 화면에 출력하는 디스플레이부;를 포함하고,
상기 경로 안내 인디케이터 생성부는,
실제 주행 차량의 주행 궤적 반경을 반영하여 상기 생성된 경로 안내선의 보정을 수행하는 경로 안내선 처리부;
상기 보정된 경로 안내선을 자차와의 거리에 따라 높이를 달리하여 가변 입체화를 수행하는 경로 안내선 입체화부; 및
상기 가변 입체화에 따라 생성된 입체 데이터에 차량 속도에 따라 변위를 가진 텍스처를 매핑하여 경로 안내 인디케이터를 생성하는 텍스처 맵핑부;를 포함하는 것을 특징으로 하는 전자 장치.In an electronic device,
an input unit for receiving a user input requesting route guidance;
a route guide line generator for generating a route guide line based on the destination information corresponding to the request;
a route guidance indicator generator for generating a route guide indicator for route guidance in augmented reality using the generated route guide line; and
Including; a display unit for outputting the generated route guidance indicator on the screen through augmented reality;
The route guidance indicator generating unit,
a path guide line processing unit that corrects the generated path guide line by reflecting the radius of the driving trajectory of the actual driving vehicle;
a path guide line stereoscopic unit configured to change the height of the corrected path guide line according to a distance from the host vehicle to perform variable stereoscopicization; and
and a texture mapping unit to generate a route guidance indicator by mapping a texture having a displacement according to a vehicle speed to the stereoscopic data generated according to the variable three-dimensionalization.
상기 경로 안내선 처리부는,
자차 앞 경로 안내선의 직선을 유지하기 위한 버텍스들을 추가하고, 경로 안내선의 커브 구간에 커브 구간의 곡선화를 위한 버텍스들을 추가하며, 추가된 버텍스들을 이용하여 실제 주행 차량의 주행 궤적 반경을 반영한 경로 안내선을 생성하는 것을 특징으로 하는 전자 장치.7. The method of claim 6,
The route guide line processing unit,
Add vertices to maintain the straight line of the route guide line in front of the own vehicle, add vertices for curvature of the curve section to the curve section of the route guide line, and use the added vertices to reflect the radius of the driving trajectory of the actual driving vehicle Electronic device, characterized in that for generating.
상기 경로 안내선 입체화부는,
상기 보정된 경로 안내선 양 쪽에 가상의 경로 안내선을 생성하고, 상기 보정된 경로 안내선에 포함된 버텍스들의 높이 값이 자차의 거리에 비례하여 증가하도록 높이 값을 산출하며, 상기 높이 값이 산출된 경로 안내선의 버텍스들과 상기 가상의 경로 안내선 각각에 포함된 버텍스들을 폴리곤을 통해 입체화를 수행하는 것을 특징으로 하는 전자 장치.7. The method of claim 6,
The route guide line three-dimensionalization unit,
Virtual path guide lines are generated on both sides of the corrected path guide line, height values of vertices included in the corrected path guide line are calculated to increase in proportion to the distance of the host vehicle, and the height value is calculated path guide The electronic device of claim 1, wherein three-dimensionalization is performed on vertices of a line and vertices included in each of the virtual path guide lines through polygons.
카메라에서 촬영된 촬영 영상으로부터 카메라에 해당되는 카메라 파라미터를 추정하기 위한 캘리브레이션(Calibration)을 수행하는 캘리브레이션부; 및
카메라 파라미터를 기초로 카메라가 촬영한 영상으로부터 가상 3D 공간을 생성하는 3D 공간 생성부;를 더 포함하고,
상기 디스플레이부는,
생성된 가상 3D 공간에 상기 생성된 경로 안내 인디케이터를 결합하여 출력하는 것을 특징으로 하는 전자 장치.7. The method of claim 6,
a calibration unit that performs calibration for estimating a camera parameter corresponding to the camera from the captured image taken by the camera; and
Further comprising; a 3D space generating unit for generating a virtual 3D space from the image captured by the camera based on the camera parameters;
The display unit,
An electronic device characterized in that the generated virtual 3D space is output by combining the generated route guidance indicator.
A program stored in a computer-readable recording medium comprising a program code for executing the method according to any one of claims 1 to 3 and 5.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20140073727 | 2014-06-17 | ||
KR1020140073727 | 2014-06-17 | ||
KR1020140154597A KR102255432B1 (en) | 2014-06-17 | 2014-11-07 | Electronic apparatus and control method thereof |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140154597A Division KR102255432B1 (en) | 2014-06-17 | 2014-11-07 | Electronic apparatus and control method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210061319A KR20210061319A (en) | 2021-05-27 |
KR102348127B1 true KR102348127B1 (en) | 2022-01-11 |
Family
ID=55084952
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140154597A KR102255432B1 (en) | 2014-06-17 | 2014-11-07 | Electronic apparatus and control method thereof |
KR1020210063573A KR102348127B1 (en) | 2014-06-17 | 2021-05-17 | Electronic apparatus and control method thereof |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140154597A KR102255432B1 (en) | 2014-06-17 | 2014-11-07 | Electronic apparatus and control method thereof |
Country Status (2)
Country | Link |
---|---|
KR (2) | KR102255432B1 (en) |
CN (3) | CN110296715A (en) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI609807B (en) * | 2016-05-17 | 2018-01-01 | 緯創資通股份有限公司 | Image evaluation method and electronic apparatus thereof |
CN107784864A (en) * | 2016-08-26 | 2018-03-09 | 奥迪股份公司 | Vehicle assistant drive method and system |
RU2720140C1 (en) * | 2016-09-27 | 2020-04-24 | Ниссан Мотор Ко., Лтд. | Method for self-position estimation and self-position estimation device |
EP3832263B1 (en) | 2016-10-31 | 2024-05-01 | Mobileye Vision Technologies Ltd. | Systems and methods for navigating lane merges and lane splits |
KR20180050823A (en) | 2016-11-07 | 2018-05-16 | 삼성전자주식회사 | Generating method and apparatus of 3d lane model |
US10551840B2 (en) * | 2018-07-02 | 2020-02-04 | Baidu Usa Llc | Planning driven perception system for autonomous driving vehicles |
CN110361021B (en) * | 2018-09-30 | 2021-06-22 | 毫末智行科技有限公司 | Lane line fitting method and system |
CN111460865B (en) * | 2019-01-22 | 2024-03-05 | 斑马智行网络(香港)有限公司 | Driving support method, driving support system, computing device, and storage medium |
WO2020159247A1 (en) * | 2019-01-31 | 2020-08-06 | 엘지전자 주식회사 | Image output device |
CN110006440B (en) * | 2019-04-12 | 2021-02-05 | 北京百度网讯科技有限公司 | Map relation expression method and device, electronic equipment and storage medium |
CN110070623B (en) * | 2019-04-16 | 2023-02-24 | 阿波罗智联(北京)科技有限公司 | Guide line drawing prompting method, device, computer equipment and storage medium |
KR102249100B1 (en) * | 2019-12-10 | 2021-05-06 | 한국교통대학교산학협력단 | The vehicle positioning apparatus |
KR102599269B1 (en) * | 2019-12-31 | 2023-11-06 | 현대오토에버 주식회사 | Augmented reality navigation apparatus and control method thereof |
KR20210087271A (en) * | 2020-01-02 | 2021-07-12 | 삼성전자주식회사 | Apparatus and method for displaying navigation information of three dimention augmented reality |
CN111353466B (en) * | 2020-03-12 | 2023-09-22 | 北京百度网讯科技有限公司 | Lane line recognition processing method, equipment and storage medium |
KR20210126365A (en) * | 2020-04-10 | 2021-10-20 | 팅크웨어(주) | Method, apparatus, electronic device, computer program and computer readable recording medium for detecting lane marking based on vehicle image |
KR102443401B1 (en) * | 2020-06-29 | 2022-09-15 | 주식회사 라이드플럭스 | Method, apparatus and computer program for generating road network data to automatic driving vehicle |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007249811A (en) | 2006-03-17 | 2007-09-27 | Denso Corp | Drive support image display device and program |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000282423A (en) * | 1999-03-31 | 2000-10-10 | Toshiba Corp | Variable road marker |
JP4211620B2 (en) * | 2004-01-30 | 2009-01-21 | 株式会社デンソー | Car navigation system |
CN1710550A (en) * | 2004-06-16 | 2005-12-21 | 上海宝信软件股份有限公司 | Method for dynamically generating crossing channelized picture |
JP4861850B2 (en) * | 2007-02-13 | 2012-01-25 | アイシン・エィ・ダブリュ株式会社 | Lane determination device and lane determination method |
JP4886597B2 (en) * | 2007-05-25 | 2012-02-29 | アイシン・エィ・ダブリュ株式会社 | Lane determination device, lane determination method, and navigation device using the same |
JP5036407B2 (en) * | 2007-05-30 | 2012-09-26 | アルパイン株式会社 | Navigation device |
JP4994256B2 (en) * | 2008-01-28 | 2012-08-08 | 株式会社ジオ技術研究所 | Data structure of route guidance database |
CN101540100A (en) * | 2008-03-17 | 2009-09-23 | 上海宝康电子控制工程有限公司 | Device for recording vehicle lane change |
KR100929331B1 (en) * | 2008-04-30 | 2009-12-03 | 팅크웨어(주) | Method and apparatus for generating 3D direction indication |
KR100888155B1 (en) * | 2008-05-14 | 2009-03-10 | 팅크웨어(주) | System and method for displaying 3-dimension map using texture mapping |
KR100889470B1 (en) * | 2008-05-14 | 2009-03-19 | 팅크웨어(주) | Method and apparatus for 3d path |
KR100888156B1 (en) * | 2008-05-15 | 2009-03-10 | 팅크웨어(주) | System and method for displaying guidance symbol |
WO2009150784A1 (en) * | 2008-06-11 | 2009-12-17 | 三菱電機株式会社 | Navigation device |
JP4656456B2 (en) * | 2008-10-22 | 2011-03-23 | 日本電気株式会社 | Lane marking device, lane marking detection method, and lane marking detection program |
KR20100130483A (en) * | 2009-06-03 | 2010-12-13 | 엘지전자 주식회사 | Mobile vehicle navigation method and apparatus thereof |
US8503762B2 (en) * | 2009-08-26 | 2013-08-06 | Jacob Ben Tzvi | Projecting location based elements over a heads up display |
DE102010033729B4 (en) * | 2010-08-07 | 2014-05-08 | Audi Ag | Method and device for determining the position of a vehicle on a roadway and motor vehicles with such a device |
KR101688155B1 (en) * | 2010-10-25 | 2016-12-20 | 엘지전자 주식회사 | Information processing apparatus and method thereof |
KR20130015746A (en) * | 2011-08-04 | 2013-02-14 | 엘지전자 주식회사 | Apparatus for detecting lane and method thereof |
KR20130027367A (en) * | 2011-09-07 | 2013-03-15 | 동국대학교 산학협력단 | A navigation apparatus and method for displaying course thereof |
CN102519475A (en) * | 2011-12-12 | 2012-06-27 | 杨志远 | Intelligent navigation method and equipment based on augmented reality technology |
KR101371725B1 (en) * | 2012-05-31 | 2014-03-07 | 현대자동차(주) | Apparatus and method for displaying three-dimensional contents graphic image in navigation |
KR20130135656A (en) * | 2012-06-01 | 2013-12-11 | 현대엠엔소프트 주식회사 | A navigation apparatus, system and method for controlling vehicle using the same |
US20130325343A1 (en) * | 2012-06-05 | 2013-12-05 | Apple Inc. | Mapping application with novel search field |
US9052197B2 (en) * | 2012-06-05 | 2015-06-09 | Apple Inc. | Providing navigation instructions while device is in locked mode |
JP6328366B2 (en) * | 2012-08-13 | 2018-05-23 | アルパイン株式会社 | Display control apparatus and display control method for head-up display |
DE102012215322A1 (en) * | 2012-08-29 | 2014-03-06 | Robert Bosch Gmbh | Method and device for detecting a position of a vehicle on a lane |
CN103234547B (en) * | 2013-04-18 | 2017-03-22 | 易图通科技(北京)有限公司 | Method and device for displaying road scene in vacuum true three-dimensional navigation |
-
2014
- 2014-11-07 KR KR1020140154597A patent/KR102255432B1/en active IP Right Grant
-
2015
- 2015-06-17 CN CN201910530448.7A patent/CN110296715A/en active Pending
- 2015-06-17 CN CN201510336818.5A patent/CN105300401B/en active Active
- 2015-06-17 CN CN201811382624.9A patent/CN109323708B/en active Active
-
2021
- 2021-05-17 KR KR1020210063573A patent/KR102348127B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007249811A (en) | 2006-03-17 | 2007-09-27 | Denso Corp | Drive support image display device and program |
Also Published As
Publication number | Publication date |
---|---|
CN110296715A (en) | 2019-10-01 |
CN109323708A (en) | 2019-02-12 |
KR102255432B1 (en) | 2021-05-24 |
KR20210061319A (en) | 2021-05-27 |
CN109323708B (en) | 2022-04-05 |
CN105300401A (en) | 2016-02-03 |
KR20150144681A (en) | 2015-12-28 |
CN105300401B (en) | 2019-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102348127B1 (en) | Electronic apparatus and control method thereof | |
US11543256B2 (en) | Electronic apparatus and control method thereof | |
CN108680173B (en) | Electronic device, control method of electronic device, and computer-readable recording medium | |
US11030816B2 (en) | Electronic apparatus, control method thereof, computer program, and computer-readable recording medium | |
KR102383425B1 (en) | Electronic apparatus, control method of electronic apparatus, computer program and computer readable recording medium | |
KR102233391B1 (en) | Electronic apparatus, control method of electronic apparatus and computer readable recording medium | |
KR102406491B1 (en) | Electronic apparatus, control method of electronic apparatus, computer program and computer readable recording medium | |
KR102406490B1 (en) | Electronic apparatus, control method of electronic apparatus, computer program and computer readable recording medium | |
KR20200092197A (en) | Image processing method, image processing apparatus, electronic device, computer program and computer readable recording medium for processing augmented reality image | |
KR102406489B1 (en) | Electronic apparatus, control method of electronic apparatus, computer program and computer readable recording medium | |
KR20210071584A (en) | Method and apparatus for determining location by correcting Global Navigation Satellite System based location and electronic device thereof | |
KR102299500B1 (en) | Electronic apparatus and control method thereof | |
KR102299501B1 (en) | Electronic apparatus, control method of electronic apparatus and computer readable recording medium | |
KR102371620B1 (en) | Electronic apparatus, control method of electronic apparatus and computer readable recording medium | |
KR102299499B1 (en) | Electronic apparatus and control method thereof | |
KR102506263B1 (en) | Apparatus, method, and computer readable recording medium for aerial image process, navigation apparatus and server for path guide using aerial map |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |