WO2021002504A1 - 차량용 전자 장치 및 차량용 전자 장치의 동작 방법 - Google Patents

차량용 전자 장치 및 차량용 전자 장치의 동작 방법 Download PDF

Info

Publication number
WO2021002504A1
WO2021002504A1 PCT/KR2019/008134 KR2019008134W WO2021002504A1 WO 2021002504 A1 WO2021002504 A1 WO 2021002504A1 KR 2019008134 W KR2019008134 W KR 2019008134W WO 2021002504 A1 WO2021002504 A1 WO 2021002504A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
vehicle
map matching
processor
data
Prior art date
Application number
PCT/KR2019/008134
Other languages
English (en)
French (fr)
Inventor
방승환
김성민
신정은
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to PCT/KR2019/008134 priority Critical patent/WO2021002504A1/ko
Priority to US17/260,520 priority patent/US20220120568A1/en
Publication of WO2021002504A1 publication Critical patent/WO2021002504A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • G01C21/32Structuring or formatting of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/03Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for supply of electrical power to vehicle subsystems or for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • B60W30/165Automatically following the path of a preceding lead vehicle, e.g. "electronic tow-bar"
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3863Structures of map data
    • G01C21/387Organisation of map data, e.g. version management or database structures
    • G01C21/3878Hierarchical structures, e.g. layering
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions

Definitions

  • the present invention relates to an electronic device for a vehicle and a method of operating the electronic device for a vehicle.
  • a vehicle is a device that moves in a direction desired by a boarding user.
  • a typical example is a car.
  • ADAS Advanced Driver Assistance System
  • ADAS Advanced Driver Assistance System
  • autonomous driving applications for vehicles is being actively conducted.
  • ADAS applications or autonomous driving applications can be configured based on map data.
  • a low-capacity SD (Standard Definition) map data is stored in a memory provided in a vehicle and provided to a user.
  • SD Standard Definition
  • map data is provided by combining a cloud service.
  • an object of the present invention is to provide an electronic device for a vehicle that enables map matching in various situations.
  • Another object of the present invention is to provide a method of operating an electronic device for a vehicle that enables map matching in various situations.
  • an electronic device for a vehicle includes a power supply unit that supplies power; An interface unit receiving HD map data of a specified area and receiving data on an object from the object detection device; And continuously obtaining electronic horizon data for a specified area based on the high definition (HD) map data while the power is supplied, and performing map matching based on the data on the object, And a processor that performs map matching based on a second object set as a new map matching feature when map matching based on a first object preset as a map matching feature fails.
  • a power supply unit that supplies power
  • An interface unit receiving HD map data of a specified area and receiving data on an object from the object detection device; And continuously obtaining electronic horizon data for a specified area based on the high definition (HD) map data while the power is supplied, and performing map matching based on the data on the object
  • a processor that performs map matching based on a second object set as a new map matching feature when map matching based on a first object preset as a map matching feature fails.
  • map matching is performed based on other objects, so that autonomous driving continues even in an unfavorable situation.
  • FIG. 1 is a diagram illustrating a vehicle driving on a road according to an embodiment of the present invention.
  • FIG. 2 is a diagram referenced to describe a system according to an embodiment of the present invention.
  • 3A is a control block diagram of a vehicle according to an embodiment of the present invention.
  • 3B is a control block diagram of an electronic device according to an embodiment of the present invention.
  • FIG 4 illustrates an external appearance of an electronic device according to an embodiment of the present invention.
  • 5A to 5C are signal flow diagrams in a vehicle including an electronic device according to an embodiment of the present invention.
  • 6A to 6B are diagrams referenced for explaining an operation of receiving HD map data according to an embodiment of the present invention.
  • 6C is a diagram referenced for describing an operation of generating electronic horizon data according to an embodiment of the present invention.
  • FIG. 7 is a flow chart of an electronic device according to an embodiment of the present invention.
  • FIGS. 8 to 17 are diagrams referenced for describing an operation of an electronic device according to an embodiment of the present invention.
  • FIG. 1 is a diagram illustrating a vehicle driving on a road according to an embodiment of the present invention.
  • a vehicle 10 is defined as a means of transport running on a road or track.
  • the vehicle 10 is a concept including a car, a train, and a motorcycle.
  • ADAS Advanced Driver Assistance System
  • the vehicle described in the present specification may be a concept including all of an internal combustion engine vehicle having an engine as a power source, a hybrid vehicle including an engine and an electric motor as a power source, and an electric vehicle including an electric motor as a power source.
  • the vehicle 10 may include an electronic device 100.
  • the electronic device 100 may be referred to as an electronic horizon provider (EHP).
  • the electronic device 100 may be installed in the vehicle 10 and electrically connected to other electronic devices in the vehicle 10.
  • the vehicle 10 may interact with at least one robot.
  • the robot may be an Autonomous Mobile Robot (AMR) capable of driving by magnetic force.
  • AMR Autonomous Mobile Robot
  • the mobile robot is capable of moving by itself and is free to move, and is provided with a plurality of sensors to avoid obstacles while driving, so that it can travel avoiding obstacles.
  • the mobile robot may be a flying robot (eg, a drone) having a flying device.
  • the mobile robot may be a wheel-type robot that includes at least one wheel and is moved through rotation of the wheel.
  • the mobile robot may be a legged robot that has at least one leg and is moved using the leg.
  • the robot may function as a device that complements the user's convenience of the vehicle 10. For example, the robot may perform a function of moving the luggage loaded in the vehicle 10 to the user's final destination. For example, the robot may perform a function of guiding a user who gets off the vehicle 10 to a final destination. For example, the robot may perform a function of transporting a user who gets off the vehicle 10 to a final destination.
  • At least one electronic device included in the vehicle may communicate with the robot through the communication device 220.
  • At least one electronic device included in the vehicle may provide the robot with data processed by at least one electronic device included in the vehicle.
  • at least one electronic device included in the vehicle may provide at least one of object data, HD map data, vehicle state data, vehicle location data, and driving plan data to the robot.
  • At least one electronic device included in the vehicle may receive data processed by the robot from the robot. At least one electronic device included in the vehicle may receive at least one of sensing data generated by the robot, object data, robot state data, robot position data, and movement plan data of the robot.
  • At least one electronic device included in the vehicle may generate a control signal further based on data received from the robot. For example, at least one electronic device included in the vehicle compares the information on the object generated by the object detection device 210 with the information on the object generated by the robot, and based on the comparison result, a control signal Can be created. At least one electronic device included in the vehicle may generate a control signal so that interference between the movement path of the vehicle 10 and the movement path of the robot does not occur.
  • At least one electronic device included in the vehicle may include a software module or a hardware module (hereinafter, referred to as an artificial intelligence module) that implements artificial intelligence (AI). At least one electronic device included in the vehicle may input acquired data to an artificial intelligence module and use data output from the artificial intelligence module.
  • an artificial intelligence module that implements artificial intelligence (AI).
  • At least one electronic device included in the vehicle may input acquired data to an artificial intelligence module and use data output from the artificial intelligence module.
  • the artificial intelligence module may perform machine learning on input data using at least one artificial neural network (ANN).
  • ANN artificial neural network
  • the artificial intelligence module may output driving plan data through machine learning on input data.
  • At least one electronic device included in the vehicle may generate a control signal based on data output from the artificial intelligence module.
  • At least one electronic device included in the vehicle may receive data processed by artificial intelligence from an external device through the communication device 220. At least one electronic device included in the vehicle may generate a control signal based on data processed by artificial intelligence.
  • FIG. 2 is a diagram referenced to describe a system according to an embodiment of the present invention.
  • the system 1 may include an infrastructure 20 and at least one vehicle 10a and 10b.
  • the infrastructure 20 may include at least one server 21.
  • the server 21 may receive data generated by the vehicles 10a and 10b.
  • the server 21 can process the received data.
  • the server 21 can process the received data.
  • the server 21 may receive data generated by at least one electronic device mounted on the vehicles 10a and 10b.
  • the server 21 is generated by at least one of an EHP, a user interface device, an object detection device, a communication device, a driving operation device, a main ECU, a vehicle driving device, a driving system, a sensing unit, and a location data generating device. Data can be received.
  • the server 21 may generate big data based on data received from a plurality of vehicles.
  • the server 21 may receive dynamic data from the vehicles 10a and 10b and generate big data based on the received dynamic data.
  • the server 21 may update HD map data based on data received from a plurality of vehicles.
  • the server 21 may receive data generated by the object detection device from EHP included in the vehicles 10a and 10b, and update the HD map data.
  • the server 21 may provide previously stored data to the vehicles 10a and 10b.
  • the server 21 may provide at least one of high definition (HD) map data and standard definition (SD) map data to the vehicles 10a and 10b.
  • the server 21 may classify the map data by section and provide only map data of sections requested from the vehicles 10a and 10b.
  • HD map data may be referred to as high-precision map data.
  • the server 21 may provide data processed or processed by the server 21 to the vehicles 10a and 10b.
  • Vehicles 10a and 10b may generate a driving control signal based on data received from the server 21.
  • the server 21 can provide HD map data to the vehicles 10a and 10b.
  • the server 21 can provide dynamic data to the vehicles 10a and 10b.
  • 3A is a control block diagram of a vehicle according to an embodiment of the present invention.
  • 3B is a control block diagram of an electronic device according to an embodiment of the present invention.
  • FIG 4 illustrates an external appearance of an electronic device according to an embodiment of the present invention.
  • the vehicle 10 includes an electronic device 100, a user interface device 200, an object detection device 210, a communication device 220, a driving operation device 230, and a main ECU. 240, a vehicle driving device 250, a driving system 260, a sensing unit 270, and a location data generating device 280.
  • the electronic device 100 may be referred to as an electronic horizon provider (EHP).
  • the electronic device 100 may generate electronic horizon data and provide it to at least one electronic device included in the vehicle 10.
  • the electronic horizon data may be described as driving plan data used when the driving system 260 generates a driving control signal of the vehicle 10.
  • the electronic horizon data may be understood as driving plan data within a range from a point where the vehicle 10 is located to a horizon.
  • the horizon may be understood as a point in front of a preset distance from a point where the vehicle 10 is located based on a preset driving route.
  • Horizon may mean a point at which the vehicle 10 can reach after a predetermined time from a point at which the vehicle 10 is located along a preset driving route.
  • the driving route means a driving route to the final destination, and may be set by a user input.
  • the electronic horizon data may include horizon map data and horizon pass data.
  • the horizon map data may include at least one of topology data, ADAS data, HD map data, and dynamic data.
  • the horizon map data may include a plurality of layers.
  • the horizon map data may include one layer matching topology data, a second layer matching ADAS data, a third layer matching HD map data, and a fourth layer matching dynamic data.
  • the horizon map data may further include static object data.
  • Topology data can be described as a map created by connecting the center of the road.
  • the topology data is suitable for roughly indicating the position of the vehicle, and may be in the form of data mainly used in a navigation for a driver.
  • the topology data may be understood as data about road information excluding information about a lane.
  • the topology data may be generated based on data received at the infrastructure 20.
  • the topology data may be based on data generated by the infrastructure 20.
  • the topology data may be based on data stored in at least one memory provided in the vehicle 10.
  • ADAS data may mean data related to road information.
  • the ADAS data may include at least one of slope data of a road, curvature data of a road, and speed limit data of a road.
  • ADAS data may further include overtaking prohibition section data.
  • ADAS data may be based on data generated by the infrastructure 20.
  • the ADAS data may be based on data generated by the object detection apparatus 210.
  • ADAS data may be referred to as road information data.
  • the HD map data includes detailed lane-level topology information of the road, connection information of each lane, and feature information for localization of the vehicle (e.g., traffic signs, lane marking/attributes, road furniture, etc.). I can.
  • the HD map data may be based on data generated by the infrastructure 20.
  • the dynamic data may include various dynamic information that may be generated on a road.
  • the dynamic data may include construction information, variable speed lane information, road surface condition information, traffic information, moving object information, and the like.
  • the dynamic data may be based on data received by the infrastructure 20.
  • the dynamic data may be based on data generated by the object detection apparatus 210.
  • the electronic device 100 may provide map data within a range from a point where the vehicle 10 is located to a horizon.
  • the horizon pass data may be described as a trajectory that the vehicle 10 can take within a range from the point where the vehicle 10 is located to the horizon.
  • the horizon pass data may include data representing a relative probability of selecting any one road from a decision point (eg, a crossroads, a junction, an intersection, etc.).
  • the relative probability can be calculated based on the time it takes to reach the final destination. For example, at the decision point, if the first road is selected and the time it takes to reach the final destination is less than the second road is selected, the probability of selecting the first road is less than the probability of selecting the second road. Can be calculated higher.
  • Horizon pass data may include a main pass and a sub pass.
  • the main path can be understood as a trajectory connecting roads with a high relative probability to be selected.
  • the sub-path may be branched at at least one decision point on the main path.
  • the sub-path may be understood as a trajectory connecting at least one road having a low relative probability of being selected from at least one decision point on the main path.
  • the electronic device 100 may include an interface unit 180, a power supply unit 190, a memory 140, and a processor 170.
  • the interface unit 180 may exchange signals with at least one electronic device provided in the vehicle 10 by wire or wirelessly.
  • the interface unit 180 includes a user interface device 200, an object detection device 210, a communication device 220, a driving operation device 230, a main ECU 240, a vehicle driving device 250, a driving system ( 260), the sensing unit 270, and the location data generating device 280 may exchange signals with at least one of wired or wirelessly.
  • the interface unit 180 may be configured with at least one of a communication module, a terminal, a pin, a cable, a port, a circuit, an element, and a device.
  • the interface unit 180 may receive HD map data of a specified area.
  • the interface unit 180 may receive data on an object from the object detection apparatus 210.
  • the power supply unit 190 may supply power to the electronic device 100.
  • the power supply unit 190 may receive power from a power source (eg, a battery) included in the vehicle 10 and supply power to each unit of the electronic device 100.
  • the power supply unit 190 may be operated according to a control signal provided from the main ECU 240.
  • the power supply unit 190 may be implemented as a switched-mode power supply (SMPS).
  • SMPS switched-mode power supply
  • the memory 140 is electrically connected to the processor 170.
  • the memory 140 may store basic data for a unit, control data for controlling the operation of the unit, and input/output data.
  • the memory 140 may store data processed by the processor 170.
  • the memory 140 may be configured with at least one of ROM, RAM, EPROM, flash drive, and hard drive.
  • the memory 140 may store various data for overall operation of the electronic device 100, such as a program for processing or controlling the processor 170.
  • the memory 140 may be implemented integrally with the processor 170.
  • the processor 170 may be electrically connected to the interface unit 180 and the power supply unit 190 to exchange signals.
  • the processor 170 includes application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), processors, and controllers. It may be implemented using at least one of (controllers), micro-controllers, microprocessors, and electrical units for performing other functions.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • processors and controllers. It may be implemented using at least one of (controllers), micro-controllers, microprocessors, and electrical units for performing other functions.
  • the processor 170 may be driven by power provided from the power supply unit 190.
  • the processor 170 may continuously generate electronic horizon data while power is supplied by the power supply unit 190.
  • the processor 170 may generate electronic horizon data.
  • the processor 170 may generate electronic horizon data.
  • the processor 170 may generate horizon pass data.
  • the processor 170 may generate electronic horizon data by reflecting the driving condition of the vehicle 10. For example, the processor 170 may generate electronic horizon data based on driving direction data and driving speed data of the vehicle 10.
  • the processor 170 may merge the generated electronic horizon data with the previously generated electronic horizon data. For example, the processor 170 may positionally connect the horizon map data generated at the first view point with the horizon map data generated at the second view point. For example, the processor 170 may positionally connect the horizon pass data generated at the first view point with the horizon pass data generated at the second view point.
  • the processor 170 may provide electronic horizon data.
  • the processor 170 may provide electronic horizon data to at least one of the driving system 260 and the main ECU 240 through the interface unit 180.
  • the processor 170 may include an HD map processing unit, a dynamic data processing unit, a matching unit, and a path generation unit.
  • the HD map processor may receive HD map data from the server 21 through the communication device 220.
  • the HD map processor may store HD map data.
  • the HD map processor may process and process HD map data.
  • the dynamic data processing unit may receive dynamic data from the object detection apparatus 210.
  • the dynamic data processing unit may receive dynamic data from the server 21.
  • the dynamic data processing unit may store dynamic data.
  • the dynamic data processing unit may process and process dynamic data.
  • the matching unit may receive an HD map from the HD map processing unit.
  • the matching unit may receive dynamic data from the dynamic data processing unit.
  • the matching unit may generate horizon map data by matching HD map data and dynamic data.
  • the matching unit may receive topology data.
  • the matching unit may receive ADAS data.
  • the matching unit may generate horizon map data by matching topology data, ADAS data, HD map data, and dynamic data.
  • the path generator may generate horizon path data.
  • the path generation unit may include a main path generation unit and a sub path generation unit.
  • the main path generation unit may generate main path data.
  • the sub-path generator may generate sub-path data.
  • the processor 170 may perform map matching based on data on an object. Map matching may be performed by the matching unit.
  • the processor 170 may receive information on a map matching feature related to an object set as a map matching feature from the server 21.
  • the information on the map matching feature may include at least one of location information of an object, type information of an object, and shape information of an object.
  • the processor 170 may receive information on an object set as a map matching feature from the object detection device 210 through the interface unit 180.
  • the information on the object received from the object detection device 210 may include at least one of location information, object type information, and object shape information of an object generated by a sensor included in the object detection device 210. .
  • the processor 170 may be performed based on a first object preset as a map matching feature.
  • the first object may include a first traffic sign.
  • the first traffic sign may include at least one of a traffic light, a signpost, a traffic sign board, and a traffic sign displayed on a road surface.
  • the processor 170 may obtain first information about the map matching feature related to the first traffic sign. For example, the processor 170 may obtain first information from electronic horizon data.
  • the processor 170 may receive second information related to the first traffic sign from the object detection device 210.
  • the second information may be generated based on data of at least one sensor (eg, a camera, radar, lidar, infrared sensor) included in the object detection apparatus 210.
  • the processor 170 may perform map matching by comparing the first information and the second information. For example, the processor 170 may perform map matching by comparing the location information of the second traffic sign in the first information and the location information of the second traffic sign in the second information.
  • the processor 170 may perform map matching based on the second object set as the new map matching feature. Meanwhile, the determination as to whether or not map matching based on the first object fails may be performed by at least one of the processor 170, the server 21, and other vehicles.
  • the second object may include a second traffic sign.
  • the second traffic sign may include at least one of a traffic light, a signpost, a traffic sign board, and a traffic sign displayed on a road surface.
  • the processor 170 may receive third information on the map matching feature related to the second traffic sign. For example, the processor 170 may receive the third information received through the communication device 220 through the interface unit 180.
  • the processor 170 may receive fourth information on the second traffic sign from the object detection device 220.
  • the fourth information may be generated based on data of at least one sensor (eg, camera, radar, lidar, infrared sensor) included in the object detection apparatus 210.
  • the processor 170 may perform map matching by comparing the third information and the fourth information. For example, the processor 170 may perform map matching by comparing the location information of the second traffic sign in the third information and the location information of the second traffic sign in the fourth information.
  • the second object may include at least one of the fixed objects.
  • the fixed object may include at least one of a street light, a street tree, a parked vehicle, a pedestrian waiting for a signal, a signboard, a building, and a guard rail.
  • the processor 170 may receive third information on a map matching feature related to the fixed object.
  • the processor 170 may receive the third information received through the communication device 220 through the interface unit 180.
  • the processor 170 may receive fourth information on the fixed object from the object detection device 220.
  • the fourth information may be generated based on data of at least one sensor (eg, camera, radar, lidar, infrared sensor) included in the object detection apparatus 210.
  • the processor 170 may receive fourth information on the fixed object sensed by at least one of a lidar and a radar from the object detection device.
  • the processor 170 may perform map matching by comparing the third information and the fourth information.
  • the fixed object may include a guard rail.
  • the processor 170 may receive fourth information on a plurality of cloud points facing the guard rail from the object detection device 210.
  • the plurality of cloud points may be generated from at least one of a lidar and a radar.
  • the processor 170 may divide the space around the vehicle 10 into a plurality of areas. When the map matching based on the first object located in the first area among the plurality of areas fails, the processor 170 may perform map matching based on the second object located in the first area. For example, if the map matching based on the first object located in the left front area of the vehicle 10 fails, the processor 170 may perform map matching based on the second object located in the left front area. .
  • the second object may include at least one of moving objects.
  • the moving object may include at least one of other vehicles and pedestrians.
  • the second object may include at least one of other vehicles included in the cluster.
  • the processor 170 may set the second object as a new map matching feature.
  • the processor 170 may provide information on the second object received from the object detection device 210 to the server 21 through the communication device 220.
  • the electronic device 100 may include at least one printed circuit board (PCB).
  • PCB printed circuit board
  • the interface unit 180, the power supply unit 190, and the processor 170 may be electrically connected to a printed circuit board.
  • the electronic device 100 may be integrally formed with the communication device 220.
  • the communication device 220 may be included as a sub-component of the electronic device 100.
  • the user interface device 200 is a device for communicating with the vehicle 10 and a user.
  • the user interface device 200 may receive a user input and provide information generated in the vehicle 10 to the user.
  • the vehicle 10 may implement User Interfaces (UI) or User Experience (UX) through the user interface device 200.
  • UI User Interfaces
  • UX User Experience
  • the object detection device 210 may detect an object outside the vehicle 10.
  • the object detection device 210 may include at least one of a camera, a radar, a lidar, an ultrasonic sensor, and an infrared sensor.
  • the object detection device 210 may provide data on an object generated based on a sensing signal generated by a sensor to at least one electronic device included in the vehicle.
  • the object detection apparatus 210 may generate dynamic data based on a sensing signal for an object.
  • the object detection device 210 may provide dynamic data to the electronic device 100.
  • the object detection device 210 may receive electronic horizon data.
  • the object detection device 210 may include an Electronic Horizon Re-constructor (EHR) 265.
  • the EHR 265 may convert electronic horizon data into a data format usable in the object detection device 210.
  • the camera may generate information on an object outside the vehicle 10 by using the image.
  • the camera may include at least one lens, at least one image sensor, and at least one processor that is electrically connected to the image sensor and processes a received signal, and generates data about an object based on the processed signal.
  • the camera may be at least one of a mono camera, a stereo camera, and an AVM (Around View Monitoring) camera.
  • the camera may use various image processing algorithms to obtain position information of an object, distance information to an object, or information on a relative speed to an object. For example, from the acquired image, the camera may acquire distance information and relative speed information from the object based on a change in the size of the object over time. For example, the camera may obtain distance information and relative speed information with an object through a pin hole model, road surface profiling, or the like. For example, the camera may obtain distance information and relative speed information with an object based on disparity information from a stereo image obtained from a stereo camera.
  • the camera may be mounted in a position where field of view (FOV) can be secured in the vehicle to photograph the outside of the vehicle.
  • the camera may be placed in the interior of the vehicle, close to the front windshield, to acquire an image of the front of the vehicle.
  • the camera can be placed around the front bumper or radiator grille.
  • the camera may be placed in the interior of the vehicle, close to the rear glass, in order to acquire an image of the rear of the vehicle.
  • the camera can be placed around the rear bumper, trunk or tailgate.
  • the camera may be disposed adjacent to at least one of the side windows in the interior of the vehicle in order to acquire an image of the vehicle side.
  • the camera may be disposed around a side mirror, a fender, or a door.
  • the radar may generate information on an object outside the vehicle 10 using radio waves.
  • the radar may include at least one processor that is electrically connected to the electromagnetic wave transmitter, the electromagnetic wave receiver, and the electromagnetic wave transmitter and the electromagnetic wave receiver, processes a received signal, and generates data for an object based on the processed signal.
  • the radar may be implemented in a pulse radar method or a continuous wave radar method according to the principle of radio wave emission.
  • the radar may be implemented in a frequency modulated continuous wave (FMCW) method or a frequency shift keyong (FSK) method according to a signal waveform among continuous wave radar methods.
  • FMCW frequency modulated continuous wave
  • FSK frequency shift keyong
  • the radar detects an object by means of an electromagnetic wave, a time of flight (TOF) method or a phase-shift method, and detects the position of the detected object, the distance to the detected object, and the relative speed.
  • TOF time of flight
  • the radar may be placed at a suitable location outside of the vehicle to detect objects located in front, rear or side of the vehicle.
  • the lidar may generate information on an object outside the vehicle 10 using laser light.
  • the radar may include at least one processor that is electrically connected to the optical transmitter, the optical receiver, and the optical transmitter and the optical receiver, processes a received signal, and generates data for an object based on the processed signal. .
  • the rider may be implemented in a TOF (Time of Flight) method or a phase-shift method.
  • the lidar can be implemented either driven or non-driven. When implemented as a drive type, the lidar is rotated by a motor, and objects around the vehicle 10 can be detected. When implemented in a non-driven manner, the lidar can detect an object located within a predetermined range with respect to the vehicle by optical steering.
  • the vehicle 100 may include a plurality of non-driven lidars.
  • the radar detects an object based on a time of flight (TOF) method or a phase-shift method by means of a laser light, and determines the position of the detected object, the distance to the detected object, and the relative speed. Can be detected.
  • the lidar may be placed at an appropriate location outside the vehicle to detect objects located in front, rear or side of the vehicle.
  • the communication device 220 may exchange signals with devices located outside the vehicle 10.
  • the communication device 220 may exchange signals with at least one of an infrastructure (eg, a server) and another vehicle.
  • the communication device 220 may include at least one of a transmission antenna, a reception antenna, a radio frequency (RF) circuit capable of implementing various communication protocols, and an RF element to perform communication.
  • RF radio frequency
  • the communication device 220 may communicate with a device located outside the vehicle 10 using a 5G (for example, new radio, NR) method.
  • the communication device 220 may implement V2X (V2V, V2D, V2P, V2N) communication using a 5G method.
  • the driving operation device 230 is a device that receives a user input for driving. In the case of the manual mode, the vehicle 10 may be driven based on a signal provided by the driving operation device 230.
  • the driving operation device 230 may include a steering input device (eg, a steering wheel), an acceleration input device (eg, an accelerator pedal), and a brake input device (eg, a brake pedal).
  • the main Electronic Control Unit (ECU) 240 may control the overall operation of at least one electronic device provided in the vehicle 10.
  • the main ECU 240 may receive electronic horizon data.
  • the main ECU 240 may include an Electronic Horizon Re-constructor (EHR) 265.
  • the EHR 265 may convert electronic horizon data into a data format usable in the main ECU 240.
  • the vehicle drive device 250 is a device that electrically controls driving of various devices in the vehicle 10.
  • the vehicle driving apparatus 250 may include a power train driving unit, a chassis driving unit, a door/window driving unit, a safety device driving unit, a lamp driving unit, and an air conditioning driving unit.
  • the power train driving unit may include a power source driving unit and a transmission driving unit.
  • the chassis driving unit may include a steering driving unit, a brake driving unit, and a suspension driving unit.
  • the driving system 260 may perform a driving operation of the vehicle 10.
  • the driving system 260 may move the vehicle 10 by providing a control signal to at least one of a power train driving unit and a chassis driving unit of the vehicle driving apparatus 250.
  • the driving system 260 may receive electronic horizon data.
  • the driving system 260 may include an Electronic Horizon Re-constructor (EHR) 265.
  • the EHR 265 can convert electronic horizon data into a data format usable in ADAS applications and autonomous driving applications.
  • the driving system 260 may include at least one of an ADAS application and an autonomous driving application.
  • the driving system 260 may generate a driving control signal by at least one of an ADAS application and an autonomous driving application.
  • the sensing unit 270 may sense the state of the vehicle.
  • the sensing unit 270 includes an inertial navigation unit (IMU) sensor, a collision sensor, a wheel sensor, a speed sensor, a tilt sensor, a weight detection sensor, a heading sensor, a position module, and a vehicle.
  • IMU inertial navigation unit
  • a collision sensor a wheel sensor
  • a speed sensor a speed sensor
  • a tilt sensor a weight detection sensor
  • a heading sensor a position module
  • a vehicle At least one of forward/reverse sensor, battery sensor, fuel sensor, tire sensor, steering sensor by steering wheel rotation, vehicle interior temperature sensor, vehicle interior humidity sensor, ultrasonic sensor, illuminance sensor, accelerator pedal position sensor, and brake pedal position sensor It may include.
  • the inertial navigation unit (IMU) sensor may include one or more of an acceleration sensor, a gyro sensor, and a magnetic sensor.
  • the sensing unit 270 may generate state data of the vehicle based on a signal generated by at least one sensor.
  • the sensing unit 270 includes vehicle attitude information, vehicle motion information, vehicle yaw information, vehicle roll information, vehicle pitch information, vehicle collision information, vehicle direction information, vehicle angle information, and vehicle speed.
  • the sensing unit 270 includes an accelerator pedal sensor, a pressure sensor, an engine speed sensor, an air flow sensor (AFS), an intake air temperature sensor (ATS), a water temperature sensor (WTS), and a throttle position sensor. (TPS), a TDC sensor, a crank angle sensor (CAS), and the like may be further included.
  • the sensing unit 270 may generate vehicle state information based on the sensing data.
  • the vehicle status information may be information generated based on data sensed by various sensors provided inside the vehicle.
  • the vehicle status information includes vehicle attitude information, vehicle speed information, vehicle tilt information, vehicle weight information, vehicle direction information, vehicle battery information, vehicle fuel information, vehicle tire pressure information, It may include vehicle steering information, vehicle interior temperature information, vehicle interior humidity information, pedal position information, vehicle engine temperature information, and the like.
  • the location data generating device 280 may generate location data of the vehicle 10.
  • the location data generating apparatus 280 may include at least one of a Global Positioning System (GPS) and a Differential Global Positioning System (DGPS).
  • GPS Global Positioning System
  • DGPS Differential Global Positioning System
  • the location data generating apparatus 280 may generate location data of the vehicle 10 based on a signal generated by at least one of GPS and DGPS.
  • the location data generating apparatus 280 may correct the location data based on at least one of an IMU (Inertial Measurement Unit) of the sensing unit 270 and a camera of the object detection apparatus 210.
  • IMU Inertial Measurement Unit
  • Vehicle 10 may include an internal communication system 50.
  • a plurality of electronic devices included in the vehicle 10 may exchange signals through the internal communication system 50.
  • the signal may contain data.
  • the internal communication system 50 may use at least one communication protocol (eg, CAN, LIN, FlexRay, MOST, Ethernet).
  • 5A is a signal flow diagram inside a vehicle including an electronic device according to an embodiment of the present invention.
  • the electronic device 100 may receive HD map data from the server 21 through the communication device 220.
  • the electronic device 100 may receive dynamic data from the object detection device 210. According to an embodiment, the electronic device 100 may receive dynamic data from the server 21 through the communication device 220.
  • the electronic device 100 may receive location data of a vehicle from the location data generating device 280.
  • the electronic device 100 may receive a signal based on a user input through the user interface device 200. According to an embodiment, the electronic device 100 may receive vehicle state information from the sensing unit 270.
  • the electronic device 100 may generate electronic horizon data based on HD map data, dynamic data, and location data.
  • the electronic device 100 may generate horizon map data by matching HD map data, dynamic data, and location data with each other.
  • the electronic device 100 may generate horizon pass data on the horizon map.
  • the electronic device 100 may generate main path data and sub path data on the horizon map.
  • the electronic device 100 may provide electronic horizon data to the driving system 260.
  • EHR 265 of driving system 260 can convert electronic horizon data into a data format suitable for applications 266 and 267.
  • the applications 266 and 267 may generate a driving control signal based on the electronic horizon data.
  • the driving system 260 may provide a driving control signal to the vehicle driving apparatus 250.
  • the driving system 260 may include at least one of an ADAS application 266 and an autonomous driving application 267.
  • the ADAS application 266 may generate a control signal for assisting the driver's driving of the vehicle 10 through the driving operation device 230 based on the electronic horizon data.
  • the autonomous driving application 267 may generate a control signal for causing the vehicle 10 to move, based on the electronic horizon data.
  • 5B is a signal flow diagram inside a vehicle including an electronic device according to an embodiment of the present invention.
  • the electronic device 100 may provide electronic horizon data to the object detection device 210.
  • the EHR 265 of the object detection device 210 may convert electronic horizon data into a data format suitable for the object detection device 210.
  • the object detection device 210 may include at least one of a camera 211, a radar 212, a lidar 213, an ultrasonic sensor 214, and an infrared sensor 215.
  • the electronic horizon data whose data format is converted by the EHR 265 will be provided to at least one of the camera 211, radar 212, lidar 213, ultrasonic sensor 214, and infrared sensor 215 I can.
  • At least one of the camera 211, radar 212, lidar 213, ultrasonic sensor 214, and infrared sensor 215 may generate data based on electronic horizon data.
  • 5C is a signal flow diagram inside a vehicle including an electronic device according to an embodiment of the present invention.
  • the electronic device 100 may provide electronic horizon data to the main ECU 240.
  • the EHR 265 of the main ECU 240 can convert electronic horizon data into a data format suitable for the main ECU 240.
  • the main ECU 240 may generate a control signal based on electronic horizon data.
  • the main ECU 240 is based on the electronic horizon data, the user interface device 180, the object detection device 210, the communication device 220, the driving operation device 230, the vehicle driving device 250 , A control signal capable of controlling at least one of the driving system 260, the sensing unit 270, and the location data generating device 280 may be generated.
  • 6A to 6B are diagrams referenced for explaining an operation of receiving HD map data according to an embodiment of the present invention.
  • the server 21 may divide HD map data into HD map tiles and provide them to the electronic device 100.
  • the processor 170 may download HD map data from the server 21 through the communication device 220 in units of HD map tiles.
  • the HD map tile may be defined as sub HD map data in which the entire HD map is geographically partitioned based on a square shape. Connect all HD map tiles to get full HD map data. Since HD map data is data of a high capacity, in order to download and use the entire HD map data from the vehicle 10, a high-performance controller is required for the vehicle 10. With the development of communication technology, rather than having a high-performance controller in the vehicle 10, it is possible to efficiently process data by downloading, using, and deleting HD map data in the form of HD map tiles.
  • the processor 170 may store the downloaded HD map tile in the memory 140.
  • the processor 170 may delete the stored HD map tile. For example, when the vehicle 10 leaves the area corresponding to the HD map tile, the processor 170 may delete the HD map tile. For example, the processor 170 may delete the HD map tile after storage and after a preset time elapses.
  • 6A is a diagram referred to for describing an operation of receiving HD map data when there is no preset destination.
  • the processor 170 may receive a first HD map tile 351 including a location 350 of the vehicle 10.
  • the server 21 receives data on the location 350 of the vehicle 10 from the vehicle 10, and transfers the first HD map tile 351 including the location 250 of the vehicle 10 to the vehicle 10 Can be provided.
  • the processor 170 may receive HD map tiles 352, 353, 354, and 355 around the first HD map tile 351.
  • the processor 170 may receive HD map tiles 352, 353, 354, and 355 neighboring each of the top, bottom, left, and right of the first HD map tile 351. In this case, the processor 170 may receive a total of 5 HD map tiles.
  • the processor 170 together with the HD map tiles 352, 353, 354, 355 adjacent to each of the top, bottom, left, and right of the first HD map tile 351, further add HD map tiles located in the diagonal direction.
  • the processor 170 may receive a total of 9 HD map tiles.
  • 6B is a diagram referenced for describing an operation of receiving HD map data when there is a preset destination.
  • the processor 170 when there is a preset destination, includes tiles 350, 352, 361, 362, 363, which are associated with a route 391 from the location 350 of the vehicle 10 to the destination. 364, 365, 366, 367, 368, 369, 370, 371) can be received.
  • the processor 170 may receive a plurality of tiles 350, 352, 361, 362, 363, 364, 365, 366, 367, 368, 369, 370, 371 so as to cover the path 391. .
  • the processor 170 may receive the entire tiles 350, 352, 361, 362, 363, 364, 365, 366, 367, 368, 369, 370, 371 covering the path 391 at once.
  • the processor 170 while the vehicle 10 is moving along the path 391, all of the tiles 350, 352, 361, 362, 363, 364, 365, 366, 367, 368, 369, 370 , 371) can be divided and received.
  • Processor 170 while the vehicle 10 is moving along the path 391, based on the position of the vehicle 10, the entire tile (350, 352, 361, 362, 363, 364, 365, 366) , 367, 368, 369, 370, 371). Thereafter, the processor 170 may continuously receive the tile while the vehicle 10 is moving and may delete the previously received tile.
  • 6C is a diagram referenced for describing an operation of generating electronic horizon data according to an embodiment of the present invention.
  • the processor 170 may generate electronic horizon data based on HD map data.
  • the vehicle 10 may be driven while a final destination is set.
  • the final destination may be set based on a user input received through the user interface device 200 or the communication device 220. Depending on the embodiment, the final destination may be set by the driving system 260.
  • the vehicle 10 When the final destination is set, the vehicle 10 may be located within a preset distance from the first point while driving.
  • the processor 170 may generate electronic horizon data in which the first point is the start point and the second point is the end point.
  • the first point and the second point may be one point on a path toward the final destination.
  • the first point may be described as a point where the vehicle 10 is located or will be located in the near future.
  • the second point can be described by the above-described horizon.
  • the processor 170 may receive an HD map of an area including a section from the first point to the second point. For example, the processor 170 may request and receive an HD map for an area within a predetermined radius from the section from the first point to the second point.
  • the processor 170 may generate electronic horizon data for an area including a section from the first point to the second point based on the HD map.
  • the processor 170 may generate horizon map data for an area including a section from the first point to the second point.
  • the processor 170 may generate horizon pass data for an area including a section from the first point to the second point.
  • the processor 170 may generate main path 313 data for a region including a section from the first point to the second point.
  • the processor 170 may generate a sub-path 314 for an area including a section from the first point to the second point.
  • the processor 170 may generate electronic horizon data with the second point as a start point and the third point as an end point.
  • the second point and the third point may be one point on the route toward the final destination.
  • the second point may be described as a point where the vehicle 10 is located or will be located in the near future.
  • the third point can be described by the above-described horizon.
  • the electronic horizon data using the second point as the start point and the third point as the end point may be geographically connected to the electronic horizon data using the first point as the start point and the second point as the end point.
  • the electronic horizon data generation operation using the second point as the start point and the third point as the end point may be applied mutatis mutandis to the operation of generating electronic horizon data using the first point as the start point and the second point as the end point. .
  • the vehicle 10 may be driven even when a final destination is not set.
  • FIG. 7 is a flow chart of an electronic device according to an embodiment of the present invention.
  • At least one processor 170 may receive power from the power supply unit 190 (S710 ).
  • the at least one processor 170 may continuously acquire electronic horizon data for a specified area based on the HD map data while power is supplied (S720).
  • the at least one processor 170 may perform first map matching based on a first object preset as a map matching feature (S730).
  • the first object may include a first traffic sign.
  • the first traffic sign may include at least one of a traffic light, a signpost, a traffic sign board, and a traffic sign displayed on a road surface.
  • the at least one processor 170 receiving first information on the map matching feature related to the first traffic sign, the at least one processor 170, Receiving, from the object detection device 210, second information related to the first traffic sign, and at least one processor 170, the step of comparing the first information and the second information to perform map matching. I can.
  • the at least one processor 170 performs second map matching based on the second object set as the new map matching feature. It can be performed (S750). Meanwhile, the determination as to whether or not map matching based on the first object fails may be performed by at least one of the processor 170, the server 21, and other vehicles.
  • the second object may include a second traffic sign.
  • the second traffic sign may include at least one of a traffic light, a signpost, a traffic sign board, and a traffic sign displayed on a road surface.
  • the at least one processor 170 performs a map matching feature related to the second traffic sign.
  • Receiving third information, at least one processor 170, receiving, from the object detection device 210, fourth information on the second traffic sign, and at least one processor 170, the third It may include performing map matching by comparing the information and the fourth information.
  • the second object may include at least one of the fixed objects.
  • the fixed object may include at least one of a street light, a street tree, a parked vehicle, a pedestrian waiting for a signal, a signboard, a building, and a guard rail.
  • the at least one processor 170 performs a third map matching feature related to the fixed object.
  • Receiving information, at least one processor 170, receiving, from the object detection apparatus 210, fourth information on the fixed object, and at least one processor 170, the third information and the fourth It may include the step of performing map matching by comparing the information.
  • Receiving the fourth information may include receiving, by the at least one processor 170, the fourth information on the fixed object sensed by at least one of a lidar and a radar from the object detection device 210.
  • the fixed object may include a guard rail.
  • Receiving the fourth information may include receiving, by the at least one processor 170, fourth information on a plurality of cloud points facing the guard rail from the object detection device 210.
  • the plurality of cloud points may be generated from at least one of a lidar and a radar.
  • the operating method of the vehicle electronic device may further include the step of dividing, by the at least one processor 170, a space around the vehicle into a plurality of regions.
  • the discriminating step may be performed between steps S720 and S730.
  • step of performing the second map matching (S750) when the map matching based on the first object located in the first area among the plurality of areas fails, map matching is performed based on the second object located in the first area. It may include performing steps.
  • the second object may include at least one of moving objects.
  • the second object when the vehicle 10 is driven in a cluster, the second object may include at least one of other vehicles included in the cluster.
  • the operating method of the vehicle electronic device may further include setting, by at least one processor, the second object as a new map matching feature.
  • the setting may be performed between steps S740 and S750.
  • FIGS. 8 to 17 are diagrams referenced for describing an operation of an electronic device according to an embodiment of the present invention.
  • the operation of the electronic device for a vehicle of FIGS. 8 to 17 may be performed by the processor 170.
  • data that can be used by the vehicle 10 may be referred to as a feature or road furniture.
  • Features include traffic signs, sign faces, barriers, each lane, lane properties, guide-rails, poles, and the like.
  • the map that contains them is called a feature map. Since the data included in the feature-based map was created in consideration of the camera, almost all data detection and localization algorithms using the same perform sensor fusion of GNSS, IMU, and camera. At this time, data on the detected object is transmitted to the server 21 through an electronic device inside the vehicle. The server 21 maintains the bestness of the map through the location information for each object received. This method has a problem in that the bestness of the map cannot be maintained if the camera cannot detect the object.
  • a traffic sign cannot be detected by a camera in a foggy situation. If the traffic sign is a variable signal, the current state cannot be updated to the server 21. As illustrated in reference numeral 920, when a traffic sign along the road is not visible due to a fixed obstacle such as a street tree, it is impossible to detect the traffic sign through the camera. As illustrated in reference numeral 930, when a traffic sign is covered by another object (for example, another vehicle) due to a large amount of traffic, it is impossible to detect the traffic sign through the camera.
  • another object for example, another vehicle
  • the vehicle electronic device 100 includes an electronic horizon data provider (Electronic Horizon Provider, EHP) 1010, a driving policy provider 1020, and a map matching execution unit 1030.
  • EHP Electronic Horizon Provider
  • An electronic horizon data provider (EHP) 1010, a driving policy provider 1020, and a map matching execution unit 1030 are classified as sub-components of the processor 170. Can be.
  • the electronic horizon data providing unit 1010 may generate and provide electronic horizon data.
  • the driving policy providing unit 1020 may generate and provide a driving policy based on the electronic horizon data and sensing data received from the object detection device 210.
  • the map matching performing unit 1030 may perform map matching based on an object set as a map matching feature.
  • the map matching performing unit 1030 may obtain information (first information) on an object set as a map matching feature from the electronic horizon data (S1031).
  • the map matching performing unit 1030 may receive information (second information) on an object set as a map matching feature from the object detection apparatus 210 (S1031).
  • the map matching performing unit 1030 may further receive information on other objects in addition to the object set as the map matching feature from the object detection apparatus 210.
  • the map matching performing unit 1030 may perform map matching by comparing the first information and the second information (S1032).
  • the map matching performing unit 1030 may determine whether a feature of the HD map is detected by the object detection apparatus 210 through comparison of the first information and the second information.
  • step S1032 if it is determined that the feature of the HD map is detected by the object detection apparatus, the processor 170 may determine the need to update the HD map (S1034).
  • an update request may be made to the infrastructure 20 (S1035). If it is determined that the update is not required, a comparison of the next map matching feature may be prepared (S1036).
  • step S1032 if it is determined that the feature of the HD map is not detected by the object detection device, data from which singular points can be extracted from other object information other than the object set as the map matching feature received in step S1031 are selected and requested for update Can (S1033, S1034, S1035).
  • the server 21 included in the infrastructure 20 may perform the update according to a predetermined policy when an update request is made to the existing HD map data.
  • the server 21 can newly register and service additional data other than the existing HD map data.
  • a traffic sign 1110 is covered by a preceding truck 1120 in a curve section. In this case, it is not detected by the camera of the object detection device 210.
  • the vehicle electronic device 100 may receive an output value (eg, a cloud point 1140) by at least one of a lidar and a radar from the object detection device 210.
  • the vehicle electronic device 100 may perform an update request for the output value to the infrastructure 20.
  • the vehicle electronic device 100 may update data (eg, a nonlinear mathematical model or an absolute position of the guardrail) on the guard rail 1130 in a curved section.
  • the vehicle electronic device 100 may store, through an update, in the infrastructure 20 as an additional feature that helps to determine the location of the vehicle 10 in a situation where the traffic sign 1110 is covered.
  • the vehicle electronic device 100 may transmit an image in which the traffic sign 1200 cannot be detected to the server 21.
  • the server 21 may store GPS information of objects that may be newly map matching features from other vehicles or pedestrians. For example, when a lot of requests for a photo of a power pole are received as a new feature in a corresponding section, the server 21 may grasp and store GPS information of the power pole. The server 21 may store a GPS of the information and provide the information to the vehicle if it receives a request for a parked vehicle or a mobile phone from a person sitting in a cafe for a long time at the same time or periodically.
  • the vehicle electronic device 100 may transmit images of other objects 1220, 1230, and 1240 to the server 21, and receive GPS information of an object serving as a new map matching feature from the server 21.
  • the vehicle electronic device 100 may register a new map matching feature based on GPS information received from the server 21.
  • the vehicle electronic device 100 may receive help in determining the location of the vehicle 10 by using a new map matching feature.
  • the vehicle electronic device 100 may receive GPS information of another vehicle nearby.
  • the vehicle electronic device 100 may calculate a distance to another nearby vehicle by using the radar of the object detection device 210 or sensing data of the lidar.
  • the vehicle electronic device 100 must acquire related information in advance, and use various pieces of information in a complex manner to obtain a more accurate location.
  • the vehicle electronic device 100 may perform map matching by lowering a trust weight of information by a camera and increasing a weight of information received through V2V.
  • the vehicle electronic device 100 may help determine the location of the vehicle 10 by adjusting weights of GPS information and radar information.
  • step S1033 of the vehicle electronic device 100 of FIG. 10 Focusing on the difference, if it is determined in step S1032 that the feature of the HD map is not detected by the object detection apparatus, the processor 170 may perform an update (S1033a). The processor 170 may set an object other than an object previously set as a map matching feature as a map matching feature, and transmit information about an object newly set as a map matching feature to the infrastructure 20.
  • the vehicle electronic device 100 may transmit an image including an object that may become a map matching feature to the infrastructure 20.
  • the electronic device 100 for a vehicle may transmit an image including another vehicle parked, a power pole, and the like to the infrastructure 20.
  • Other vehicles and power poles already parked correspond to objects that cannot communicate but can temporarily receive fixed GPS information.
  • the vehicle electronic device 100 may transmit an image including another vehicle stopped, a pedestrian waiting for a signal at a crosswalk, and the like to the infrastructure 20.
  • Other vehicles and pedestrians that are stopped correspond to objects that can communicate and receive GPS information. In the case of pedestrians, communication is possible using a mobile terminal held by a pedestrian.
  • the server 21 included in the infrastructure 20 may receive GPS information, feature, and image information of the vehicle 10.
  • the server 21 may provide information on an object that can be set as a new map matching feature to the vehicle electronic device 100.
  • the server 21 may provide the vehicle electronic device 100 with GPS information of a pedestrian, GPS information of a power pole, GPS information of another vehicle parked, and GPS information of another vehicle being stopped.
  • the operation of the vehicle electronic device 100 of FIG. 16 is the same except for step S1033 of the vehicle electronic device 100 of FIG. 10. Focusing on the difference, if it is determined in step S1032 that the feature of the HD map is not detected by the object detection apparatus, the processor 170 may perform an update (S1033a). The processor 170 may set an object other than an object previously set as a map matching feature as a map matching feature, and transmit information about an object newly set as a map matching feature to the infrastructure 20. The vehicle electronic device 100 may directly receive GPS information from the object through the communication device 220 (S1033b).
  • the electronic horizon data providing unit 1010 may exchange signals with other vehicles through the communication device 220.
  • the electronic horizon data providing unit 1010 may receive GPS information of another vehicle.
  • the electronic horrayon data providing unit 1010 may provide GPS information of another vehicle.
  • the map matching performing unit 1030 may receive GPS information of another vehicle from the electronic horizon data providing unit 1010.
  • the other vehicle may be an object (second object) newly set as a map matching feature.
  • step S1033b may be performed when steps S1031, S1032, S1033a, S1034, and S1035 are repeated.
  • the vehicle electronic device 100 may determine the location of the vehicle 10 by lowering the weight of the camera and increasing the weight of radar (or lidar) and V2V information.
  • the vehicle electronic device 100 may request GPS information of another vehicle nearby from the server 21.
  • the vehicle electronic device 100 may receive GPS information of another vehicle nearby from the server 21.
  • the vehicle electronic device 100 may receive GPS information from another vehicle nearby.
  • the vehicle electronic device 100 may receive distance information between another vehicle and a nearby vehicle sensed by a radar of the object detection device 210 or a lidar.
  • the vehicle electronic device 100 may set another vehicle as a map matching feature based on the received GPS information and distance information.
  • the above-described present invention can be implemented as a computer-readable code on a medium on which a program is recorded.
  • the computer-readable medium includes all types of recording devices that store data that can be read by a computer system. Examples of computer-readable media include HDD (Hard Disk Drive), SSD (Solid State Disk), SDD (Silicon Disk Drive), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. There is also a carrier wave (e.g., transmission over the Internet).
  • the computer may include a processor or a control unit. Therefore, the detailed description above should not be construed as restrictive in all respects and should be considered as illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

Abstract

본 발명은 전원을 공급하는 전원 공급부; 특정된 영역의 HD 맵 데이터 수신하고, 오브젝트 검출 장치로부터, 오브젝트에 대한 데이터를 수신하는 인터페이스부; 및 상기 전원이 공급되는 상태에서 지속적으로, 상기 HD(High Definition) 맵 데이터에 기초하여, 특정된 영역에 대한 일렉트로닉 호라이즌 데이터를 획득하고, 상기 오브젝트에 대한 데이터에 기초하여, 맵 매칭을 수행하되, 맵 매칭 피처로 기 설정된 제1 오브젝트에 기초한 맵 매칭이 페일(fail)되는 경우, 신규 맵 매칭 피처로 설정된 제2 오브젝트에 기초하여 맵 매칭을 수행하는 프로세서;를 포함하는 차량용 전자 장치에 관한 것이다. 차량용 전자 장치에서 생성된 데이터는, 5G 통신 방식을 통해 외부 장치에 전송될 수 있다. 차량용 전자 장치는, 인공 지능(artificial intelligence, AI) 알고리즘을 이용해 구현될 수 있다. 차량용 전자 장치에서 생성된 데이터는, 증강 현실(augmented reality, AR) 컨텐츠로 구현될 수 있다.

Description

차량용 전자 장치 및 차량용 전자 장치의 동작 방법
본 발명은 차량용 전자 장치 및 차량용 전자 장치의 동작 방법에 관한 것이다.
차량은 탑승하는 사용자가 원하는 방향으로 이동시키는 장치이다. 대표적으로 자동차를 예를 들 수 있다. 자동차 산업 분야에서, 사용자의 운전 편의를 위해 차량 운전자 보조 시스템(Advanced Driver Assistance System, ADAS)의 애플리케이션에 대한 연구가 활발하게 이루어지고 있다. 나아가, 차량의 자율 주행 애플리케이션(Autonomous Driving Application)에 대한 연구가 활발하게 이루어 지고 있다.
ADAS 애플리케이션 또는 자율 주행 애플리케이션은 맵 데이터를 기초로 구성될 수 있다. 종래 기술에 따르면, 저용량의 SD(Standard Definition) 맵 데이터가 차량에 구비된 메모리에 저장된 상태로, 사용자에게 제공되었다. 그러나, 최근에는 고용량의 HD(High Definition) 맵 데이터가 요구되면서, 클라우딩 서비스까지 접목되어 맵 데이터가 제공되고 있다.
한편, HD 맵을 이용한 ADAS 애플리케이션 또는 자율 주행 애플리케이션이 구현되기 위해서는, 서버에서 수신된 HD 맵과 차량에 구비된 오브젝트 검출 장치에서 획득된 오브젝트에 대한 데이터가 매칭되는 것이 전제되어야한다. 그러나, 여러가지 상황에 따라 오브젝트에 대한 정확한 데이터를 획득하지 못하는 경우의 대처 방안이 필요하다.
본 발명은 상기한 문제점을 해결하기 위하여, 다양한 상황에서도 맵 매칭이 가능하게 하는 차량용 전자 장치를 제공하는데 목적이 있다.
또한, 본 발명은, 다양한 상황에서도 맵 매칭이 가능하게 하는 차량용 전자 장치의 동작 방법을 제공하는데 목적이 있다.
본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 과제를 달성하기 위하여, 본 발명의 실시예에 따른 차량용 전자 장치는, 전원을 공급하는 전원 공급부; 특정된 영역의 HD 맵 데이터 수신하고, 오브젝트 검출 장치로부터, 오브젝트에 대한 데이터를 수신하는 인터페이스부; 및 상기 전원이 공급되는 상태에서 지속적으로, 상기 HD(High Definition) 맵 데이터에 기초하여, 특정된 영역에 대한 일렉트로닉 호라이즌 데이터를 획득하고, 상기 오브젝트에 대한 데이터에 기초하여, 맵 매칭을 수행하되, 맵 매칭 피처로 기 설정된 제1 오브젝트에 기초한 맵 매칭이 페일(fail)되는 경우, 신규 맵 매칭 피처로 설정된 제2 오브젝트에 기초하여 맵 매칭을 수행하는 프로세서;를 포함한다.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.
첫째, 특정 오브젝트에 기초한 맵 매칭에 페일이 발생되는 경우에도 다른 오브젝트에 기초하여 맵 매칭을 수행함으로써, 불리한 상황에서도 자율 주행이 지속되는 효과가 있다.
둘째, 특정 상황에서 자율 주행이 지속될 수 있어, 사용자의 안전이 보장되고 사용자의 편의성이 유지되는 효과가 있다.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 실시예에 따라 도로를 주행하는 차량을 도시한 도면이다.
도 2는 본 발명의 실시예에 따른 시스템을 설명하는데 참조되는 도면이다.
도 3a은 본 발명의 실시예에 따른 차량의 제어 블럭도이다.
도 3b는 본 발명의 실시예에 따른 전자 장치의 제어 블럭도이다.
도 4는 본 발명의 실시예에 따른 전자 장치의 외형을 예시한다.
도 5a 내지 5c는 본 발명의 실시예에 따라 전자 장치가 포함된 차량 내부의 신호 흐름도이다.
도 6a 내지 도 6b는 본 발명의 실시예에 따라 HD 맵 데이터를 수신하는 동작을 설명하는데 참조되는 도면이다.
도 6c는 본 발명의 실시예에 따라 일렉트로닉 호라이즌 데이터를 생성하는 동작을 설명하는데 참조되는 도면이다.
도 7은 본 발명의 실시예에 따른 전자 장치의 플로우 차트이다.
도 8 내지 도 17은 본 발명의 실시예에 따른 전자 장치의 동작을 설명하는데 참조되는 도면이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
도 1은 본 발명의 실시예에 따라 도로를 주행하는 차량을 도시한 도면이다.
도 1을 참조하면, 본 발명의 실시예에 따른 차량(10)은, 도로나 선로 위를 달리는 수송 수단으로 정의된다. 차량(10)은, 자동차, 기차, 오토바이를 포함하는 개념이다. 이하에서는, 차량(10)으로 운전자의 주행 조작 없이 주행하는 자율 주행 자동차 또는 차량 운전자 보조 시스템(Advanced Driver Assistance System, ADAS)이 구비된 자동차를 예를 들어 기술한다.
본 명세서에서 기술되는 차량은, 동력원으로서 엔진을 구비하는 내연기관 차량, 동력원으로서 엔진과 전기 모터를 구비하는 하이브리드 차량, 동력원으로서 전기 모터를 구비하는 전기 차량등을 모두 포함하는 개념일 수 있다.
차량(10)은, 전자 장치(100)를 포함할 수 있다. 전자 장치(100)는, 일렉트로닉 호라이즌 프로바이더(Electronic Horizon Provider, EHP)로 명명될 수 있다. 전자 장치(100)는, 차량(10)에 장착된 상태로, 차량(10) 내부의 다른 전자 장치와 전기적으로 연결될 수 있다.
한편, 차량(10)은, 적어도 하나의 로봇(robot)과 상호 작용할 수 있다. 로봇은, 자력으로 주행이 가능한 이동 로봇(Autonomous Mobile Robot, AMR)일 수 있다. 이동 로봇은, 스스로 이동이 가능하여 이동이 자유롭고, 주행 중 장애물 등을 피하기 위한 다수의 센서가 구비되어 장애물을 피해 주행할 수 있다. 이동 로봇은, 비행 장치를 구비하는 비행형 로봇(예를 들면, 드론)일 수 있다. 이동 로봇은, 적어도 하나의 바퀴를 구비하고, 바퀴의 회전을 통해 이동되는 바퀴형 로봇일 수 있다. 이동 로봇은, 적어도 하나의 다리를 구비하고, 다리를 이용해 이동되는 다리식 로봇일 수 있다.
로봇은 차량(10) 사용자의 편의를 보완하는 장치로 기능할 수 있다. 예를 들면, 로봇은, 차량(10)에 적재된 짐을 사용자의 최종 목적지까지 이동하는 기능을 수행할 수 있다. 예를 들면, 로봇은, 차량(10)에서 하차한 사용자에게 최종 목적지까지 길을 안내하는 기능을 수행할 수 있다. 예를 들면, 로봇은, 차량(10)에서 하차한 사용자를 최종 목적지까지 수송하는 기능을 수행할 수 있다.
차량에 포함되는 적어도 하나의 전자 장치는, 통신 장치(220)를 통해, 로봇과 통신을 수행할 수 있다.
차량에 포함되는 적어도 하나의 전자 장치는, 로봇에 차량에 포함되는 적어도 하나의 전자 장치에서 처리한 데이터를 제공할 수 있다. 예를 들면, 차량에 포함되는 적어도 하나의 전자 장치는, 오브젝트 데이터, HD 맵 데이터, 차량 상태 데이터, 차량 위치 데이터 및 드라이빙 플랜 데이터 중 적어도 어느 하나를 로봇에 제공할 수 있다.
차량에 포함되는 적어도 하나의 전자 장치는, 로봇으로부터, 로봇에서 처리된 데이터를 수신할 수 있다. 차량에 포함되는 적어도 하나의 전자 장치는, 로봇에서 생성된 센싱 데이터, 오브젝트 데이터, 로봇 상태 데이터, 로봇 위치 데이터 및 로봇의 이동 플랜 데이터 중 적어도 어느 하나를 수신할 수 있다.
차량에 포함되는 적어도 하나의 전자 장치는, 로봇으로부터 수신된 데이터에 더 기초하여, 제어 신호를 생성할 수 있다. 예를 들면, 차량에 포함되는 적어도 하나의 전자 장치는, 오브젝트 검출 장치(210)에 생성된 오브젝트에 대한 정보와 로봇에 의해 생성된 오브젝트에 대한 정보를 비교하고, 비교 결과에 기초하여, 제어 신호를 생성할 수 있다. 차량에 포함되는 적어도 하나의 전자 장치는, 차량(10)의 이동 경로와 로봇의 이동 경로간의 간섭이 발생되지 않도록, 제어 신호를 생성할 수 있다.
차량에 포함되는 적어도 하나의 전자 장치는, 인공 지능(artificial intelligence, AI)를 구현하는 소프트웨어 모듈 또는 하드웨어 모듈(이하, 인공 지능 모듈)을 포함할 수 있다. 차량에 포함되는 적어도 하나의 전자 장치는, 획득되는 데이터를 인공 지능 모듈에 입력(input)하고, 인공 지능 모듈에서 출력(output)되는 데이터를 이용할 수 있다.
인공 지능 모듈은, 적어도 하나의 인공 신경망(artificial neural network, ANN)을 이용하여, 입력되는 데이터에 대한 기계 학습(machine learning)을 수행할 수 있다. 인공 지능 모듈은, 입력되는 데이터에 대한 기계 학습을 통해, 드라이빙 플랜 데이터를 출력할 수 있다.
차량에 포함되는 적어도 하나의 전자 장치는, 인공 지능 모듈에서 출력되는 데이터에 기초하여, 제어 신호를 생성할 수 있다.
실시예에 따라, 차량에 포함되는 적어도 하나의 전자 장치는, 통신 장치(220)를 통해, 외부 장치로부터, 인공 지능에 의해 처리된 데이터를 수신할 수 있다. 차량에 포함되는 적어도 하나의 전자 장치는, 인공 지능에 의해 처리된 데이터에 기초하여, 제어 신호를 생성할 수 있다.
도 2는 본 발명의 실시예에 따른 시스템을 설명하는데 참조되는 도면이다.
도 2를 참조하면, 시스템(1)은, 인프라스트럭처(20) 및 적어도 하나의 차량(10a, 10b)를 포함할 수 있다.
인프라스트럭처(Infrastructure)(20)는, 적어도 하나의 서버(21)를 포함할 수 있다. 서버(21)는, 차량(10a, 10b)에서 생성된 데이터를 수신할 수 있다. 서버(21)는, 수신된 데이터를 처리할 수 있다. 서버(21)는, 수신된 데이터를 가공할 수 있다.
서버(21)는, 차량(10a, 10b)에 장착된 적어도 하나의 전자 장치에서 생성된 데이터를 수신할 수 있다. 예를 들면, 서버(21)는, EHP, 사용자 인터페이스 장치, 오브젝트 검출 장치, 통신 장치, 운전 조작 장치, 메인 ECU, 차량 구동 장치, 주행 시스템, 센싱부 및 위치 데이터 생성 장치 중 적어도 어느 하나에서 생성된 데이터를 수신할 수 있다. 서버(21)는, 복수의 차량으로부터 수신된 데이터에 기초하여 빅데이터를 생성할 수 있다. 예를 들면, 서버(21)는, 차량(10a, 10b)으로부터 다이나믹 데이터를 수신하고, 수신된 다이나믹 데이터에 기초하여 빅데이터를 생성할 수 있다. 서버(21)는, 복수의 차량으로부터 수신된 데이터에 기초하여 HD 맵 데이터를 업데이트할 수 있다. 예를 들면, 서버(21)는, 차량(10a, 10b)에 포함된 EHP로부터 오브젝트 검출 장치에서 생성된 데이터를 수신하여, HD 맵 데이터를 업데이트할 수 있다.
서버(21)는, 기 저장된 데이터를 차량(10a, 10b)에 제공할 수 있다. 예를 들면, 서버(21)는 HD(High Definition) 맵 데이터 및 SD(Standard Definition) 맵 데이터 중 적어도 어느 하나를 차량(10a, 10b)에 제공할 수 있다. 서버(21)는, 맵 데이터를 구간별로 구분하고, 차량(10a, 10b)으로부터 요청되는 구간의 맵 데이터만 제공할 수도 있다. HD 맵 데이터는, 고정밀 맵 데이터로 명명될 수 있다.
서버(21)는, 서버(21)에서 처리되거나 가공된 데이터를 차량(10a, 10b)에 제공할 수 있다. 차량(10a, 10b)은 서버(21)로부터 수신된 데이터에 기초하여, 주행 제어 신호를 생성할 수 있다. 예를 들면, 서버(21)는, HD 맵 데이터를 차량(10a, 10b)에 제공할 수 있다. 예를 들면, 서버(21)는, 다이나믹 데이터를 차량(10a, 10b)에 제공할 수 있다.
도 3a은 본 발명의 실시예에 따른 차량의 제어 블럭도이다.
도 3b는 본 발명의 실시예에 따른 전자 장치의 제어 블럭도이다.
도 4는 본 발명의 실시예에 따른 전자 장치의 외형을 예시한다.
도 3a 내지 도 4를 참조하면, 차량(10)은, 전자 장치(100), 사용자 인터페이스 장치(200), 오브젝트 검출 장치(210), 통신 장치(220), 운전 조작 장치(230), 메인 ECU(240), 차량 구동 장치(250), 주행 시스템(260), 센싱부(270) 및 위치 데이터 생성 장치(280)를 포함할 수 있다.
전자 장치(100)는, 일렉트로닉 호라이즌 프로바이더(Electronic Horizon Provider, EHP)로 명명될 수 있다. 전자 장치(100)는, 일렉트로닉 호라이즌 데이터(Electronic Horizon Data)를 생성하여, 차량(10)에 구비된 적어도 하나의 전자 장치에 제공할 수 있다.
일렉트로닉 호라이즌 데이터는, 주행 시스템(260)에서 차량(10)의 주행 제어 신호를 생성할 때 이용되는 드라이빙 플랜 데이터(driving plan data)로 설명될 수 있다. 예를 들면, 일렉트로닉 호라이즌 데이터는, 차량(10)이 위치한 지점에서부터 호라이즌(horizon)까지 범위 내에서의 드라이빙 플랜 데이터로 이해될 수 있다. 여기서, 호라이즌은, 기 설정된 주행 경로를 기준으로, 차량(10)이 위치한 지점에서 기설정된 거리 앞의 지점으로 이해될 수 있다. 호라이즌은, 기 설정된 주행 경로를 따라 차량(10)이 위치한 지점에서부터 차량(10)이 소정 시간 이후에 도달할 수 있는 지점을 의미할 수 있다. 여기서, 주행 경로는, 최종 목적지까지의 주행 경로를 의미하며, 사용자 입력에 의해 설정될 수 있다.
일렉트로닉 호라이즌 데이터는, 호라이즌 맵 데이터 및 호라이즌 패스 데이터를 포함할 수 있다.
호라이즌 맵 데이터는, 토폴로지 데이터(topology data), ADAS 데이터, HD 맵 데이터 및 다이나믹 데이터(dynamic data) 중 적어도 어느 하나를 포함할 수 있다. 실시예에 따라, 호라이즌 맵 데이터는, 복수의 레이어를 포함할 수 있다. 예를 들면, 호라이즌 맵 데이터는, 토폴로지 데이터에 매칭되는 1 레이어, ADAS 데이터에 매칭되는 제2 레이어, HD 맵 데이터에 매칭되는 제3 레이어 및 다이나믹 데이터에 매칭되는 제4 레이어를 포함할 수 있다. 호라이즌 맵 데이터는, 스태이틱 오브젝트(static object) 데이터를 더 포함할 수 있다.
토폴로지 데이터는, 도로 중심을 연결해 만든 지도로 설명될 수 있다. 토폴로지 데이터는, 차량의 위치를 대략적으로 표시하기에 알맞으며, 주로 운전자를 위한 내비게이션에서 사용하는 데이터의 형태일 수 있다. 토폴로지 데이터는, 차로에 대한 정보가 제외된 도로 정보에 대한 데이터로 이해될 수 있다. 토폴로지 데이터는, 인프라스트럭처(20)에서 수신된 데이터에 기초하여 생성될 수 있다. 토폴로지 데이터는, 인프라스트럭처(20)에서 생성된 데이터에 기초할 수 있다. 토폴로지 데이터는, 차량(10)에 구비된 적어도 하나의 메모리에 저장된 데이터에 기초할 수 있다.
ADAS 데이터는, 도로의 정보와 관련된 데이터를 의미할 수 있다. ADAS 데이터는, 도로의 경사 데이터, 도로의 곡률 데이터, 도로의 제한 속도 데이터 중 적어도 어느 하나를 포함할 수 있다. ADAS 데이터는, 추월 금지 구간 데이터를 더 포함할 수 있다. ADAS 데이터는, 인프라스트럭처(20)에서 생성된 데이터에 기초할 수 있다. ADAS 데이터는, 오브젝트 검출 장치(210)에서 생성된 데이터에 기초할 수 있다. ADAS 데이터는, 도로 정보 데이터로 명명될 수 있다.
HD 맵 데이터는, 도로의 상세한 차선 단위의 토폴로지 정보, 각 차선의 연결 정보, 차량의 로컬라이제이션(localization)을 위한 특징 정보(예를 들면, 교통 표지판, Lane Marking/속성, Road furniture 등)를 포함할 수 있다. HD 맵 데이터는, 인프라스트럭처(20)에서 생성된 데이터에 기초할 수 있다.
다이나믹 데이터는, 도로상에서 발생될 수 있는 다양한 동적 정보를 포함할 수 있다. 예를 들면, 다이나믹 데이터는, 공사 정보, 가변 속도 차로 정보, 노면 상태 정보, 트래픽 정보, 무빙 오브젝트 정보 등을 포함할 수 있다. 다이나믹 데이터는, 인프라스트럭처(20)에서 수신된 데이터에 기초할 수 있다. 다이나믹 데이터는, 오브젝트 검출 장치(210)에서 생성된 데이터에 기초할 수 있다.
전자 장치(100)는, 차량(10)이 위치한 지점에서부터 호라이즌까지 범위 내에서의 맵 데이터를 제공할 수 있다.
호라이즌 패스 데이터는, 차량(10)이 위치한 지점에서부터 호라이즌까지의 범위 내에서 차량(10)이 취할 수 있는 궤도로 설명될 수 있다. 호라이즌 패스 데이터는, 디시전 포인트(decision point)(예를 들면, 갈림길, 분기점, 교차로 등)에서 어느 하나의 도로를 선택할 상대 확률을 나타내는 데이터를 포함할 수 있다. 상대 확률은, 최종 목적지까지 도착하는데 걸리는 시간에 기초하여 계산될 수 있다. 예를 들면, 디시전 포인트에서, 제1 도로를 선택하는 경우 제2 도로를 선택하는 경우보다 최종 목적지에 도착하는데 걸리는 시간이 더 작은 경우, 제1 도로를 선택할 확률은 제2 도로를 선택할 확률보다 더 높게 계산될 수 있다.
호라이즌 패스 데이터는, 메인 패스와 서브 패스를 포함할 수 있다. 메인 패스는, 선택될 상대적 확률이 높은 도로들을 연결한 궤도로 이해될 수 있다. 서브 패스는, 메인 패스 상의 적어도 하나의 디시전 포인트에서 분기될 수 있다. 서브 패스는, 메인 패스 상의 적어도 하나의 디시전 포인트에서 선택될 상대적 확률이 낮은 적어도 어느 하나의 도로를 연결한 궤도로 이해될 수 있다.
전자 장치(100)는, 인터페이스부(180), 전원 공급부(190), 메모리(140) 및 프로세서(170)를 포함할 수 있다.
인터페이스부(180)는, 차량(10) 내에 구비되는 적어도 하나의 전자 장치와 유선 또는 무선으로 신호를 교환할 수 있다. 인터페이스부(180)는, 사용자 인터페이스 장치(200), 오브젝트 검출 장치(210), 통신 장치(220), 운전 조작 장치(230), 메인 ECU(240), 차량 구동 장치(250), 주행 시스템(260), 센싱부(270) 및 위치 데이터 생성 장치(280) 중 적어도 어느 하나와 유선 또는 무선으로 신호를 교환할 수 있다. 인터페이스부(180)는, 통신 모듈, 단자, 핀, 케이블, 포트, 회로, 소자 및 장치 중 적어도 어느 하나로 구성될 수 있다. 인터페이스부(180)는, 특정된 영역의 HD 맵 데이터를 수신할 수 있다. 인터페이스부(180)는, 오브젝트 검출 장치(210)로부터, 오브젝트에 대한 데이터를 수신할 수 있다.
전원 공급부(190)는, 전자 장치(100)에 전원을 공급할 수 있다. 전원 공급부(190)는, 차량(10)에 포함된 파워 소스(예를 들면, 배터리)로부터 전원을 공급받아, 전자 장치(100)의 각 유닛에 전원을 공급할 수 있다. 전원 공급부(190)는, 메인 ECU(240)로부터 제공되는 제어 신호에 따라 동작될 수 있다. 전원 공급부(190)는, SMPS(switched-mode power supply)로 구현될 수 있다.
메모리(140)는, 프로세서(170)와 전기적으로 연결된다. 메모리(140)는 유닛에 대한 기본데이터, 유닛의 동작제어를 위한 제어데이터, 입출력되는 데이터를 저장할 수 있다. 메모리(140)는, 프로세서(170)에서 처리된 데이터를 저장할 수 있다. 메모리(140)는, 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 중 적어도 어느 하나로 구성될 수 있다. 메모리(140)는 프로세서(170)의 처리 또는 제어를 위한 프로그램 등, 전자 장치(100) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다. 메모리(140)는, 프로세서(170)와 일체형으로 구현될 수 있다.
프로세서(170)는, 인터페이스부(180), 전원 공급부(190)와 전기적으로 연결되어 신호를 교환할 수 있다. 프로세서(170)는, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.
프로세서(170)는, 전원 공급부(190)로부터 제공되는 전원에 의해 구동될 수 있다. 프로세서(170)는, 전원 공급부(190)에 의해 전원이 공급되는 상태에서 지속적으로 일렉트로닉 호라이즌 데이터를 생성할 수 있다.
프로세서(170)는, 일렉트로닉 호라이즌 데이터를 생성할 수 있다. 프로세서(170)는, 일렉트로닉 호라이즌 데이터를 생성할 수 있다. 프로세서(170)는, 호라이즌 패스 데이터를 생성할 수 있다.
프로세서(170)는, 차량(10)의 주행 상황을 반영하여 일렉트로닉 호라이즌 데이터를 생성할 수 있다. 예를 들면, 프로세서(170)는, 차량(10)의 주행 방향 데이터 및 주행 속도 데이터에 기초하여, 일렉트로닉 호라이즌 데이터를 생성할 수 있다.
프로세서(170)는, 생성된 일렉트로닉 호라이즌 데이터를 기존에 생성된 일렉트로닉 호라이즌 데이터와 병합할 수 있다. 예를 들면, 프로세서(170)는, 제1 시점에 생성된 호라이즌 맵 데이터를 제2 시점에 생성된 호라이즌 맵 데이터와 위치적으로 연결할 수 있다. 예를 들면, 프로세서(170)는, 제1 시점에 생성된 호라이즌 패스 데이터를 제2 시점에 생성된 호라이즌 패스 데이터와 위치적으로 연결할 수 있다.
프로세서(170)는, 일렉트로닉 호라이즌 데이터를 제공할 수 있다. 프로세서(170)는, 인터페이스부(180)를 통해, 주행 시스템(260) 및 메인 ECU(240) 중 적어도 어느 하나에 일렉트로닉 호라이즌 데이터를 제공할 수 있다.
프로세서(170)는, HD맵 처리부, 다이나믹 데이터 처리부, 매칭부 및 패스 생성부를 포함할 수 있다.
HD 맵 처리부는, 통신 장치(220)를 통해, 서버(21)로부터, HD 맵 데이터를 수신할 수 있다. HD 맵 처리부는, HD 맵 데이터를 저장할 수 있다. 실시예에 따라, HD 맵 처리부는, HD 맵 데이터를 처리, 가공할 수도 있다.
다이나믹 데이터 처리부는, 오브젝트 검출 장치(210)로부터, 다이나믹 데이터를 수신할 수 있다. 다이나믹 데이터 처리부는, 서버(21)로부터, 다이나믹 데이터를 수신할 수 있다. 다이나믹 데이터 처리부는, 다이나믹 데이터를 저장할 수 있다. 실시예에 따라, 다이나믹 데이터 처리부는, 다이나믹 데이터를 처리, 가공할 수 있다.
매칭부는, HD 맵 처리부로부터 HD 맵을 제공받을 수 있다. 매칭부는, 다이나믹 데이터 처리부로부터 다이나믹 데이터를 제공받을 수 있다. 매칭부는, HD 맵 데이터와 다이나믹 데이터를 매칭하여 호라이즌 맵 데이터를 생성할 수 있다.
실시예에 따라, 매칭부는, 토폴로지 데이터를 수신할 수 있다. 매칭부는, ADAS 데이터를 수신할 수 있다. 매칭부는, 토폴로지 데이터, ADAS 데이터, HD 맵 데이터 및 다이나믹 데이터를 매칭하여 호라이즌 맵 데이터를 생성할 수 있다.
패스 생성부는, 호라이즌 패스 데이터를 생성할 수 있다. 패스 생성부는, 메인 패스 생성부 및 서브 패스 생성부를 포함할 수 있다. 메인 패스 생성부는, 메인 패스 데이터를 생성할 수 있다. 서브 패스 생성부는, 서브 패스 데이터를 생성할 수 있다.
프로세서(170)는, 오브젝트에 대한 데이터에 기초하여, 맵 매칭을 수행할 수 있다. 맵 매칭은, 매칭부에서 수행될 수 있다. 프로세서(170)는, 서버(21)로부터, 맵 매칭 피처로 설정된 오브젝트와 관련된 맵 매칭 피처에 대한 정보를 수신할 수 있다. 맵 매칭 피처에 대한 정보는, 오브젝트의 위치 정보, 오브젝트의 종류 정보, 오브젝트의 형상 정보 중 적어도 어느 하나를 포함할 수 있다. 프로세서(170)는, 인터페이스부(180)를 통해, 오브젝트 검출 장치(210)로부터, 맵 매칭 피처로 설정된 오브젝트에 대한 정보를 수신할 수 있다. 오브젝트 검출 장치(210)로부터 수신되는 오브젝트에 대한 정보는, 오브젝트 검출 장치(210)에 포함된 센서에 의해 생성된 오브젝트의 위치 정보, 오브젝트 종류 정보, 오브젝트 형상 정보 중 적어도 어느 하나를 포함할 수 있다.
프로세서(170)는, 맵 매칭 피처로 기 설정된 제1 오브젝트에 기초하여 수행될 수 있다. 제1 오브젝트는, 제1 트래픽 사인을 포함할 수 있다. 제1 트래픽 사인은, 신호등, 이정표, 트래픽 사인 보드, 노면에 표시된 트래픽 사인 중 적어도 어느 하나를 포함할 수 있다. 프로세서(170)는, 제1 트래픽 사인과 관련된 맵 매칭 피처에 대한 제1 정보를 획득할 수 있다. 예를 들면, 프로세서(170)는, 일렉트로닉 호라이즌 데이터로부터 제1 정보를 획득할 수 있다. 프로세서(170)는, 오브젝트 검출 장치(210)로부터, 제1 트래픽 사인과 관련된 제2 정보를 수신할 수 있다. 제2 정보는, 오브젝트 검출 장치(210)에 포함된 적어도 하나의 센서(예를 들면, 카메라, 레이다, 라이다, 적외선 센서)의 데이터에 기초하여 생성될 수 있다. 프로세서(170)는, 제1 정보와 제2 정보를 비교하여 맵 매칭을 수행할 수 있다. 예를 들면, 프로세서(170)는, 제1 정보에서의 제2 트래픽 사인의 위치 정보와 제2 정보에서의 제2 트래픽 사인의 위치 정보를 비교하여 맵 매칭을 수행할 수 있다.
프로세서(170)는, 맵 매칭 피처로 기 설정된 제1 오브젝트에 기초한 맵 매칭이 페일(fail)되는 경우, 신규 맵 매칭 피처로 설정된 제2 오브젝트에 기초하여 맵 매칭을 수행할 수 있다. 한편, 제1 오브젝트에 기초한 맵 매칭의 페일 여부에 대한 판단은, 프로세서(170), 서버(21) 및 타 차량 중 적어도 어느 하나에서 수행될 수 있다.
제2 오브젝트는, 제2 트래픽 사인을 포함할 수 있다. 제2 트래픽 사인은, 신호등, 이정표, 트래픽 사인 보드, 노면에 표시된 트래픽 사인 중 적어도 어느 하나를 포함할 수 있다. 프로세서(170)는, 제1 정보와 제2 정보를 비교하는 맵 매칭이 페일되는 경우, 제2 트래픽 사인과 관련된 맵 매칭 피처에 대한 제3 정보를 수신할 수 있다. 예를 들면, 프로세서(170)는, 통신 장치(220)를 통해 수신된 제3 정보를 인터페이스부(180)를 통해 수신할 수 있다. 프로세서(170)는, 오브젝트 검출 장치(220)로부터, 제2 트래픽 사인에 대한 제4 정보를 수신할 수 있다. 제4 정보는, 오브젝트 검출 장치(210)에 포함된 적어도 하나의 센서(예를 들면, 카메라, 레이다, 라이다, 적외선 센서)의 데이터에 기초하여 생성될 수 있다. 프로세서(170)는, 제3 정보와 제4 정보를 비교하여 맵 매칭을 수행할 수 있다. 예를 들면, 프로세서(170)는, 제3 정보에서의 제2 트래픽 사인의 위치 정보와 제4 정보에서의 제2 트래픽 사인의 위치 정보를 비교하여 맵 매칭을 수행할 수 있다.
제2 오브젝트는, 고정 오브젝트 중 적어도 어느 하나를 포함할 수 있다. 고정 오브젝트는, 가로등, 가로수, 기 주차된 차량, 신호를 기다리는 보행자, 간판, 건물, 가드레일 중 적어도 어느 하나를 포함할 수 있다. 프로세서(170)는, 제1 정보와 제2 정보를 비교하는 맵 매칭이 페일되는 경우, 고정 오브젝트와 관련된 맵 매칭 피처에 대한 제3 정보를 수신할 수 있다. 예를 들면, 프로세서(170)는, 통신 장치(220)를 통해 수신된 제3 정보를 인터페이스부(180)를 통해 수신할 수 있다. 프로세서(170)는, 오브젝트 검출 장치(220)로부터, 고정 오브젝트에 대한 제4 정보를 수신할 수 있다. 제4 정보는, 오브젝트 검출 장치(210)에 포함된 적어도 하나의 센서(예를 들면, 카메라, 레이다, 라이다, 적외선 센서)의 데이터에 기초하여 생성될 수 있다. 프로세서(170)는, 오브젝트 검출 장치로부터, 라이다 및 레이다 중 적어도 어느 하나에의해 센싱된 고정 오브젝트에 대한 제4 정보를 수신할 수 있다. 프로세서(170)는, 제3 정보와 제4 정보를 비교하여 맵 매칭을 수행할 수 있다.
고정 오브젝트는, 가드 레일을 포함할 수 있다. 프로세서(170)는, 오브젝트 검출 장치(210)로부터, 가드 레일을 향하는 복수의 클라우드 포인트에 대한 제4 정보를 수신할 수 있다. 복수의 클라우드 포인트는, 라이다 및 레이다 중 적어도 어느 하나에서 생성될 수 있다.
프로세서(170)는, 차량(10) 주변 공간을 복수의 영역으로 구분할 수 있다. 프로세서(170)는, 복수의 영역 중 제1 영역에 위치한 제1 오브젝트에 기초한 맵 매칭이 페일되는 경우, 제1 영역에 위치한 제2 오브젝트에 기초하여 맵 매칭을 수행할 수 있다. 예를 들면, 프로세서(170)는, 차량(10)의 좌측 전방 영역에 위치한 제1 오브젝트에 기초한 맵 매칭이 페일되는 경우, 좌측 전방 영역에 위치한 제2 오브젝트에 기초하여 맵 매칭을 수행할 수 있다.
한편, 제2 오브젝트는, 무빙 오브젝트 중 적어도 어느 하나를 포함할 수 있다. 무빙 오브젝트는, 타 차량, 보행자 중 적어도 어느 하나를 포함할 수 있다. 예를 들면, 제2 오브젝트는, 차량(10)이 군집을 이루어 주행하는 경우, 군집에 포함된 타 차량 중 적어도 어느 하나를 포함할 수 있다.
한편, 프로세서(170)는, 제2 오브젝트를 신규 맵 매칭 피처로 설정할 수 있다. 이경우, 프로세서(170)는, 오브젝트 검출 장치(210)로부터 수신된 제2 오브젝트에 대한 정보를 통신 장치(220)를 통해 서버(21)에 제공할 수 있다.
전자 장치(100)는, 적어도 하나의 인쇄 회로 기판(printed circuit board, PCB)을 포함할 수 있다. 인터페이스부(180), 전원 공급부(190) 및 프로세서(170)는, 인쇄 회로 기판에 전기적으로 연결될 수 있다.
한편, 실시예에 따라, 전자 장치(100)는, 통신 장치(220)와 일체형으로 형성될 수 있다. 이경우, 전자 장치(100)의 하위 구성으로 통신 장치(220)가 포함될 수 있다.
사용자 인터페이스 장치(200)는, 차량(10)과 사용자와의 소통을 위한 장치이다. 사용자 인터페이스 장치(200)는, 사용자 입력을 수신하고, 사용자에게 차량(10)에서 생성된 정보를 제공할 수 있다. 차량(10)은, 사용자 인터페이스 장치(200)를 통해, UI(User Interfaces) 또는 UX(User Experience)를 구현할 수 있다.
오브젝트 검출 장치(210)는, 차량(10) 외부의 오브젝트를 검출할 수 있다. 오브젝트 검출 장치(210)는, 카메라, 레이다, 라이다, 초음파 센서 및 적외선 센서 중 적어도 하나를 포함할 수 있다. 오브젝트 검출 장치(210)는, 센서에서 생성되는 센싱 신호에 기초하여 생성된 오브젝트에 대한 데이터를 차량에 포함된 적어도 하나의 전자 장치에 제공할 수 있다.
오브젝트 검출 장치(210)는, 오브젝트에 대한 센싱 신호에 기초하여, 다이나믹 데이터를 생성할 수 있다. 오브젝트 검출 장치(210)는, 다이나믹 데이터를 전자 장치(100)에 제공할 수 있다.
오브젝트 검출 장치(210)는, 일렉트로닉 호라이즌 데이터(Electronic Horizon Data)를 수신할 수 있다. 오브젝트 검출 장치(210)는, EHR(Electronic Horizon Re-constructor)(265)을 포함할 수 있다. EHR(265)은, 일렉트로닉 호라이즌 데이터를 오브젝트 검출 장치(210)에서 이용 가능한 데이터 포맷으로 전환할 수 있다.
카메라는 영상을 이용하여 차량(10) 외부의 오브젝트에 대한 정보를 생성할 수 있다. 카메라는 적어도 하나의 렌즈, 적어도 하나의 이미지 센서 및 이미지 센서와 전기적으로 연결되어 수신되는 신호를 처리하고, 처리되는 신호에 기초하여 오브젝트에 대한 데이터를 생성하는 적어도 하나의 프로세서를 포함할 수 있다.
카메라는, 모노 카메라, 스테레오 카메라, AVM(Around View Monitoring) 카메라 중 적어도 어느 하나일 수 있다. 카메라는, 다양한 영상 처리 알고리즘을 이용하여, 오브젝트의 위치 정보, 오브젝트와의 거리 정보 또는 오브젝트와의 상대 속도 정보를 획득할 수 있다. 예를 들면, 카메라는, 획득된 영상에서, 시간에 따른 오브젝트 크기의 변화를 기초로, 오브젝트와의 거리 정보 및 상대 속도 정보를 획득할 수 있다. 예를 들면, 카메라는, 핀홀(pin hole) 모델, 노면 프로파일링 등을 통해, 오브젝트와의 거리 정보 및 상대 속도 정보를 획득할 수 있다. 예를 들면, 카메라는, 스테레오 카메라에서 획득된 스테레오 영상에서 디스패러티(disparity) 정보를 기초로 오브젝트와의 거리 정보 및 상대 속도 정보를 획득할 수 있다.
카메라는, 차량 외부를 촬영하기 위해 차량에서 FOV(field of view) 확보가 가능한 위치에 장착될 수 있다. 카메라는, 차량 전방의 영상을 획득하기 위해, 차량의 실내에서, 프런트 윈드 쉴드에 근접하게 배치될 수 있다. 카메라는, 프런트 범퍼 또는 라디에이터 그릴 주변에 배치될 수 있다. 카메라는, 차량 후방의 영상을 획득하기 위해, 차량의 실내에서, 리어 글라스에 근접하게 배치될 수 있다. 카메라는, 리어 범퍼, 트렁크 또는 테일 게이트 주변에 배치될 수 있다. 카메라는, 차량 측방의 영상을 획득하기 위해, 차량의 실내에서 사이드 윈도우 중 적어도 어느 하나에 근접하게 배치될 수 있다. 또는, 카메라는, 사이드 미러, 휀더 또는 도어 주변에 배치될 수 있다.
레이다는 전파를 이용하여 차량(10) 외부의 오브젝트에 대한 정보를 생성할 수 있다. 레이다는, 전자파 송신부, 전자파 수신부 및 전자파 송신부 및 전자파 수신부와 전기적으로 연결되어, 수신되는 신호를 처리하고, 처리되는 신호에 기초하여 오브젝트에 대한 데이터를 생성하는 적어도 하나의 프로세서를 포함할 수 있다. 레이다는 전파 발사 원리상 펄스 레이다(Pulse Radar) 방식 또는 연속파 레이다(Continuous Wave Radar) 방식으로 구현될 수 있다. 레이다는 연속파 레이다 방식 중에서 신호 파형에 따라 FMCW(Frequency Modulated Continuous Wave)방식 또는 FSK(Frequency Shift Keyong) 방식으로 구현될 수 있다. 레이다는 전자파를 매개로, TOF(Time of Flight) 방식 또는 페이즈 쉬프트(phase-shift) 방식에 기초하여, 오브젝트를 검출하고, 검출된 오브젝트의 위치, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다. 레이다는, 차량의 전방, 후방 또는 측방에 위치하는 오브젝트를 감지하기 위해 차량의 외부의 적절한 위치에 배치될 수 있다.
라이다는, 레이저 광을 이용하여, 차량(10) 외부의 오브젝트에 대한 정보를 생성할 수 있다. 라이다는, 광 송신부, 광 수신부 및 광 송신부 및 광 수신부와 전기적으로 연결되어, 수신되는 신호를 처리하고, 처리된 신호에 기초하여 오브젝트에 대한 데이터를 생성하는 적어도 하나의 프로세서를 포함할 수 있다. 라이다는, TOF(Time of Flight) 방식 또는 페이즈 쉬프트(phase-shift) 방식으로 구현될 수 있다. 라이다는, 구동식 또는 비구동식으로 구현될 수 있다. 구동식으로 구현되는 경우, 라이다는, 모터에 의해 회전되며, 차량(10) 주변의 오브젝트를 검출할 수 있다. 비구동식으로 구현되는 경우, 라이다는, 광 스티어링에 의해, 차량을 기준으로 소정 범위 내에 위치하는 오브젝트를 검출할 수 있다. 차량(100)은 복수의 비구동식 라이다를 포함할 수 있다. 라이다는, 레이저 광 매개로, TOF(Time of Flight) 방식 또는 페이즈 쉬프트(phase-shift) 방식에 기초하여, 오브젝트를 검출하고, 검출된 오브젝트의 위치, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다. 라이다는, 차량의 전방, 후방 또는 측방에 위치하는 오브젝트를 감지하기 위해 차량의 외부의 적절한 위치에 배치될 수 있다.
통신 장치(220)는, 차량(10) 외부에 위치하는 디바이스와 신호를 교환할 수 있다. 통신 장치(220)는, 인프라(예를 들면, 서버) 및 타 차량 중 적어도 어느 하나와 신호를 교환할 수 있다. 통신 장치(220)는, 통신을 수행하기 위해 송신 안테나, 수신 안테나, 각종 통신 프로토콜이 구현 가능한 RF(Radio Frequency) 회로 및 RF 소자 중 적어도 어느 하나를 포함할 수 있다.
통신 장치(220)는, 5G(예를 들면, 뉴 라디오(new radio, NR)) 방식을 이용하여, 차량(10) 외부에 위치하는 디바이스와 통신할 수 있다. 통신 장치(220)는, 5G 방식을 이용하여, V2X(V2V, V2D, V2P,V2N) 통신을 구현할 수 있다.
운전 조작 장치(230)는, 운전을 위한 사용자 입력을 수신하는 장치이다. 메뉴얼 모드인 경우, 차량(10)은, 운전 조작 장치(230)에 의해 제공되는 신호에 기초하여 운행될 수 있다. 운전 조작 장치(230)는, 조향 입력 장치(예를 들면, 스티어링 휠), 가속 입력 장치(예를 들면, 가속 페달) 및 브레이크 입력 장치(예를 들면, 브레이크 페달)를 포함할 수 있다.
메인 ECU(Electronic Control Unit)(240)는, 차량(10) 내에 구비되는 적어도 하나의 전자 장치의 전반적인 동작을 제어할 수 있다.
메인 ECU(240)는, 일렉트로닉 호라이즌 데이터(Electronic Horizon Data)를 수신할 수 있다. 메인 ECU(240)는, EHR(Electronic Horizon Re-constructor)(265)을 포함할 수 있다. EHR(265)은, 일렉트로닉 호라이즌 데이터를 메인 ECU(240)에서 이용 가능한 데이터 포맷으로 전환할 수 있다.
차량 구동 장치(250)는, 차량(10)내 각종 장치의 구동을 전기적으로 제어하는 장치이다. 차량 구동 장치(250)는, 파워 트레인 구동부, 샤시 구동부, 도어/윈도우 구동부, 안전 장치 구동부, 램프 구동부 및 공조 구동부를 포함할 수 있다. 파워 트레인 구동부는, 동력원 구동부 및 변속기 구동부를 포함할 수 있다. 샤시 구동부는, 조향 구동부, 브레이크 구동부 및 서스펜션 구동부를 포함할 수 있다.
주행 시스템(260)은, 차량(10)의 주행 동작을 수행할 수 있다. 주행 시스템(260)은, 차량 구동 장치(250) 중 파워 트레인 구동부, 샤시 구동부 중 적어도 어느 하나에 제어 신호를 제공하여, 차량(10)을 움직일 수 있다.
주행 시스템(260)은, 일렉트로닉 호라이즌 데이터(Electronic Horizon Data)를 수신할 수 있다. 주행 시스템(260)은, EHR(Electronic Horizon Re-constructor)(265)을 포함할 수 있다. EHR(265)은, 일렉트로닉 호라이즌 데이터를 ADAS 애플리케이션 및 자율 주행 애플리케이션에서 이용 가능한 데이터 포맷으로 전환할 수 있다.
주행 시스템(260)은, ADAS 애플리케이션 및 자율 주행 애플리케이션 중 적어도 어느 하나를 포함할 수 있다. 주행 시스템(260)은, ADAS 애플리케이션 및 자율 주행 애플리케이션 중 적어도 어느 하나에 의해 주행 제어 신호를 생성할 수 있다.
센싱부(270)는, 차량의 상태를 센싱할 수 있다. 센싱부(270)는, IMU(inertial navigation unit) 센서, 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량 감지 센서, 헤딩 센서(heading sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서, 초음파 센서, 조도 센서, 가속 페달 포지션 센서 및 브레이크 페달 포지션 센서 중 적어도 어느 하나를 포함할 수 있다. 한편, IMU(inertial navigation unit) 센서는, 가속도 센서, 자이로 센서, 자기 센서 중 하나 이상을 포함할 수 있다.
센싱부(270)는, 적어도 하나의 센서에서 생성되는 신호에 기초하여, 차량의 상태 데이터를 생성할 수 있다. 센싱부(270)는, 차량 자세 정보, 차량 모션 정보, 차량 요(yaw) 정보, 차량 롤(roll) 정보, 차량 피치(pitch) 정보, 차량 충돌 정보, 차량 방향 정보, 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보, 스티어링 휠 회전 각도, 차량 외부 조도, 가속 페달에 가해지는 압력, 브레이크 페달에 가해지는 압력 등에 대한 센싱 신호를 획득할 수 있다.
센싱부(270)는, 그 외, 가속페달센서, 압력센서, 엔진 회전 속도 센서(engine speed sensor), 공기 유량 센서(AFS), 흡기 온도 센서(ATS), 수온 센서(WTS), 스로틀 위치 센서(TPS), TDC 센서, 크랭크각 센서(CAS), 등을 더 포함할 수 있다.
센싱부(270)는, 센싱 데이터를 기초로, 차량 상태 정보를 생성할 수 있다. 차량 상태 정보는, 차량 내부에 구비된 각종 센서에서 감지된 데이터를 기초로 생성된 정보일 수 있다.
예를 들면, 차량 상태 정보는, 차량의 자세 정보, 차량의 속도 정보, 차량의 기울기 정보, 차량의 중량 정보, 차량의 방향 정보, 차량의 배터리 정보, 차량의 연료 정보, 차량의 타이어 공기압 정보, 차량의 스티어링 정보, 차량 실내 온도 정보, 차량 실내 습도 정보, 페달 포지션 정보 및 차량 엔진 온도 정보 등을 포함할 수 있다.
위치 데이터 생성 장치(280)는, 차량(10)의 위치 데이터를 생성할 수 있다. 위치 데이터 생성 장치(280)는, GPS(Global Positioning System) 및 DGPS(Differential Global Positioning System) 중 적어도 어느 하나를 포함할 수 있다. 위치 데이터 생성 장치(280)는, GPS 및 DGPS 중 적어도 어느 하나에서 생성되는 신호에 기초하여 차량(10)의 위치 데이터를 생성할 수 있다. 실시예에 따라, 위치 데이터 생성 장치(280)는, 센싱부(270)의 IMU(Inertial Measurement Unit) 및 오브젝트 검출 장치(210)의 카메라 중 적어도 어느 하나에 기초하여 위치 데이터를 보정할 수 있다.
차량(10)은, 내부 통신 시스템(50)을 포함할 수 있다. 차량(10)에 포함되는 복수의 전자 장치는 내부 통신 시스템(50)을 매개로 신호를 교환할 수 있다. 신호에는 데이터가 포함될 수 있다. 내부 통신 시스템(50)은, 적어도 하나의 통신 프로토콜(예를 들면, CAN, LIN, FlexRay, MOST, 이더넷)을 이용할 수 있다.
도 5a는 본 발명의 실시예에 따라 전자 장치가 포함된 차량 내부의 신호 흐름도이다.
도 5a를 참조하면, 전자 장치(100)는, 통신 장치(220)를 통해, 서버(21)로부터 HD 맵 데이터를 수신할 수 있다.
전자 장치(100)는, 오브젝트 검출 장치(210)로부터 다이나믹 데이터를 수신할 수 있다. 실시예에 따라, 전자 장치(100)는, 통신 장치(220)를 통해, 서버(21)로부터 다이나믹 데이터를 수신할 수도 있다.
전자 장치(100)는, 위치 데이터 생성 장치(280)로부터 차량의 위치 데이터를 수신할 수 있다.
실시예에 따라, 전자 장치(100)는, 사용자 인터페이스 장치(200)를 통해, 사용자 입력에 기초한 신호를 수신할 수 있다. 실시예에 따라, 전자 장치(100)는, 센싱부(270)로부터 차량 상태 정보를 수신할 수 있다.
전자 장치(100)는, HD 맵 데이터, 다이나믹 데이터 및 위치 데이터에 기초하여, 일렉트로닉 호라이즌 데이터를 생성할 수 있다. 전자 장치(100)는, HD 맵 데이터, 다이나믹 데이터 및 위치 데이터를 서로 매칭하여 호라이즌 맵 데이터를 생성할 수 있다. 전자 장치(100)는, 호라이즌 맵 상에서의 호라이즌 패스 데이터를 생성할 수 있다. 전자 장치(100)는, 호라이즌 맵 상에서의 메인 패스 데이터 및 서브 패스 데이터를 생성할 수 있다.
전자 장치(100)는, 일렉트로닉 호라이즌 데이터를 주행 시스템(260)에 제공할 수 있다. 주행 시스템(260)의 EHR(265)은, 일렉트로닉 호라이즌 데이터를 애플리케이션(266, 267)에 적합한 데이터 포맷으로 전환할 수 있다. 애플리케이션(266, 267)은, 일렉트로닉 호라이즌 데이터에 기초하여, 주행 제어 신호를 생성할 수 있다. 주행 시스템(260)은, 주행 제어 신호를 차량 구동 장치(250)에 제공할 수 있다.
주행 시스템(260)은, ADAS 애플리케이션(266) 및 자율 주행 애플리케이션(267) 중 적어도 어느 하나를 포함할 수 있다. ADAS 애플리케이션(266)은, 일렉트로닉 호라이즌 데이터에 기초하여, 운전 조작 장치(230)를 통한 운전자의 차량(10) 주행을 보조하기 위한 제어 신호를 생성할 수 있다. 자율 주행 애플리케이션(267)은, 일렉트로닉 호라이즌 데이터에 기초하여, 차량(10)이 움직이게 하기 위한 제어 신호를 생성할 수 있다.
도 5b는 본 발명의 실시예에 따라 전자 장치가 포함된 차량 내부의 신호 흐름도이다.
도 5b를 참조하여 도 5a와의 차이점을 중심으로 설명한다. 전자 장치(100)는, 일렉트로닉 호라이즌 데이터를 오브젝트 검출 장치(210)에 제공할 수 있다. 오브젝트 검출 장치(210)의 EHR(265)은, 일렉트로닉 호라이즌 데이터를 오브젝트 검출 장치(210)에 적합한 데이터 포맷으로 전환할 수 있다. 오브젝트 검출 장치(210)는, 카메라(211), 레이다(212), 라이다(213), 초음파 센서(214) 및 적외선 센서(215) 중 적어도 어느 하나를 포함할 수 있다. EHR(265)에 의해 데이터 포맷이 전환된 일렉트로닉 호라이즌 데이터는, 카메라(211), 레이다(212), 라이다(213), 초음파 센서(214) 및 적외선 센서(215) 중 적어도 어느 하나에 제공될 수 있다. 카메라(211), 레이다(212), 라이다(213), 초음파 센서(214) 및 적외선 센서(215) 중 적어도 어느 하나는, 일렉트로닉 호라이즌 데이터에 기초하여 데이터를 생성할 수 있다.
도 5c는 본 발명의 실시예에 따라 전자 장치가 포함된 차량 내부의 신호 흐름도이다.
도 5c를 참조하여 도 5a와의 차이점을 중심으로 설명한다. 전자 장치(100)는, 일렉트로닉 호라이즌 데이터를 메인 ECU(240)에 제공할 수 있다. 메인 ECU(240)의 EHR(265)은, 일렉트로닉 호라이즌 데이터를 메인 ECU(240)에 적합한 데이터 포맷으로 전환할 수 있다. 메인 ECU(240)는, 일렉트로닉 호라이즌 데이터에 기초하여 제어 신호를 생성할 수 있다. 예를 들면, 메인 ECU(240)는 일렉트로닉 호라이즌 데이터에 기초하여, 사용자 인터페이스 장치(180), 오브젝트 검출 장치(210), 통신 장치(220), 운전 조작 장치(230), 차량 구동 장치(250), 주행 시스템(260), 센싱부(270) 및 위치 데이터 생성 장치(280) 중 적어도 어느 하나를 제어할 수 있는 제어 신호를 생성할 수 있다.
도 6a 내지 도 6b는 본 발명의 실시예에 따라 HD 맵 데이터를 수신하는 동작을 설명하는데 참조되는 도면이다.
서버(21)는, HD 맵 데이터를 HD 맵 타일(Tile) 단위로 구분하여 전자 장치(100)에 제공할 수 있다. 프로세서(170)는, 통신 장치(220)를 통해 서버(21)로부터 HD 맵 데이터를 HD 맵 타일(Tile) 단위로 다운로드 받을 수 있다.
HD 맵 타일은, 전체 HD 맵을 사각 형상을 기준으로 지리적으로 구획한 서브 HD 맵 데이터로 정의될 수 있다. 모든 HD 맵 타일을 연결하면 전체 HD 맵 데이터를 얻을 수 있다. HD 맵 데이터는, 고용량의 데이터이므로, 전체 HD 맵 데이터를 차량(10)에서 다운로드 받아 이용하기 위해서는, 차량(10)에 고성능의 컨트롤러가 요구된다. 통신 기술이 발달되면서, 차량(10)에 고성능의 컨트롤러를 구비하기 보다는, HD 맵 데이터를 HD 맵 타일 형태로 다운로드하여 이용하고, 삭제함으로써 효율적인 데이터 처리가 가능하다.
프로세서(170)는, 다운로드된 HD 맵 타일을 메모리(140)에 저장할 수 있다. 프로세서(170)는, 저장된 HD 맵 타일을 삭제할 수 있다. 예를 들면, 프로세서(170)는, 차량(10)이 HD 맵 타일에 대응되는 구역을 벗어나는 경우, HD 맵 타일을 삭제할 수 있다. 예를 들면, 프로세서(170)는, 저장 후, 기 설정된 시간 경과 후, HD 맵 타일을 삭제할 수 있다.
도 6a는 기 설정된 목적지가 없는 경우 HD 맵 데이터를 수신하는 동작을 설명하는데 참조되는 도면이다.
도 6a를 참조하면, 기 설정된 목적지가 없는 경우, 프로세서(170)는, 차량(10)의 위치(350)가 포함된 제1 HD 맵 타일(351)을 수신할 수 있다. 서버(21)는, 차량(10)으로부터 차량(10)의 위치(350) 데이터를 수신하고, 차량(10)의 위치(250)가 포함된 제1 HD 맵 타일(351)을 차량(10)에 제공할 수 있다. 또한, 프로세서(170)는, 제1 HD 맵 타일(351) 주변의 HD 맵 타일(352, 353, 354, 355)을 수신할 수 있다. 예를 들면, 프로세서(170)는, 제1 HD 맵 타일(351)의 상하좌우 각각에 이웃하는 HD 맵 타일(352, 353, 354, 355)을 수신할 수 있다. 이경우, 프로세서(170)는, 총 5개의 HD 맵 타일을 수신할 수 있다. 예를 들면, 프로세서(170)는, 제1 HD 맵 타일(351)의 상하좌우 각각에 이웃하는 HD 맵 타일(352, 353, 354, 355)과 함께, 대각선 방향에 위치하는 HD 맵 타일을 더 수신할 수 있다. 이경우, 프로세서(170)는 총 9개의 HD 맵 타일을 수신할 수 있다.
도 6b는 기 설정된 목적지가 있는 경우 HD 맵 데이터를 수신하는 동작을 설명하는데 참조되는 도면이다.
도 6b를 참조하면, 기 설정된 목적지가 있는 경우, 프로세서(170)는, 차량(10)의 위치(350)에서 목적지까지의 경로(391)와 연관된 타일(350, 352, 361, 362, 363, 364, 365, 366, 367, 368, 369, 370, 371)을 수신할 수 있다. 프로세서(170)는, 경로(391)를 커버할 수 있도록 복수의 타일(350, 352, 361, 362, 363, 364, 365, 366, 367, 368, 369, 370, 371)을 수신할 수 있다.
프로세서(170)는, 경로(391)를 커버하는 전체의 타일(350, 352, 361, 362, 363, 364, 365, 366, 367, 368, 369, 370, 371)을 한번에 수신할 수 있다.
또는, 프로세서(170)는, 경로(391)를 따라 차량(10)이 이동하는 중에, 전체의 타일(350, 352, 361, 362, 363, 364, 365, 366, 367, 368, 369, 370, 371)을 나누어 수신할 수 있다. 프로세서(170)는, 경로(391)를 따라 차량(10)이 이동하는 중에, 차량(10)의 위치를 기준으로, 전체의 타일(350, 352, 361, 362, 363, 364, 365, 366, 367, 368, 369, 370, 371) 중 적어도 일부만 수신할 수 있다. 이후에, 프로세서(170)는, 차량(10) 이동 중에 지속적으로 타일을 수신하고, 기 수신된 타일을 삭제할 수 있다.
도 6c는 본 발명의 실시예에 따라 일렉트로닉 호라이즌 데이터를 생성하는 동작을 설명하는데 참조되는 도면이다.
도 6c를 참조하면, 프로세서(170)는, HD 맵 데이터에 기초하여, 일렉트로닉 호라이즌 데이터를 생성할 수 있다.
차량(10)은, 최종 목적지가 설정된 상태에서 주행될 수 있다. 최종 목적지는, 사용자 인터페이스 장치(200) 또는 통신 장치(220)를 통해 수신된 사용자 입력에 기초하여 설정될 수 있다. 실시예에 따라, 최종 목적지는 주행 시스템(260)에 의해 설정될 수도 있다.
최종 목적지가 설정된 상태에서, 차량(10)이 주행 중 제1 지점으로부터 기 설정 거리 이내에 위치할 수 있다. 차량(10)이 제1 지점으로부터 기 설정 거리 이내에에 위치하는 경우, 프로세서(170)는, 제1 지점을 시작지점으로 하고 제2 지점을 끝지점으로 하는 일렉트로닉 호라이즌 데이터를 생성할 수 있다. 제1 지점 및 제2 지점은, 최종 목적지를 향하는 경로 상의 일 지점일 수 있다. 제1 지점은, 차량(10)이 위치하거나 가까운 미래에 위치할 지점으로 설명될 수 있다. 제2 지점은 상술한 호라이즌으로 설명될 수 있다.
프로세서(170)는, 제1 지점에서 제2 지점까지의 구간을 포함하는 영역의 HD 맵을 수신할 수 있다. 예를 들면, 프로세서(170)는, 제1 지점에서 제2 지점까지의 구간으로부터 반경 소정 거리 이내의 영역에 대한 HD 맵을 요청하여 수신할 수 있다.
프로세서(170)는, HD 맵에 기초하여, 제1 지점에서 제2 지점까지의 구간을 포함하는 영역에 대한 일렉트로닉 호라이즌 데이터를 생성할 수 있다. 프로세서(170)는, 제1 지점에서 제2 지점까지의 구간을 포함하는 영역에 대한, 호라이즌 맵 데이터를 생성할 수 있다. 프로세서(170)는, 제1 지점에서 제2 지점까지의 구간을 포함하는 영역에 대한, 호라이즌 패스 데이터를 생성할 수 있다. 프로세서(170)는, 제1 지점에서 제2 지점까지의 구간을 포함하는 영역에 대한, 메인 패스(313) 데이터를 생성할 수 있다. 프로세서(170)는, 제1 지점에서 제2 지점까지의 구간을 포함하는 영역에 대한, 서브 패스(314)를 생성할 수 있다.
차량(10)이 제2 지점으로부터 기 설정 거리 이내에 위치하는 경우, 프로세서(170)는, 제2 지점을 시작지점으로 하고 제3 지점을 끝지점으로 하는 일렉트로닉 호라이즌 데이터를 생성할 수 있다. 제2 지점 및 제3 지점은, 최종 목적지를 향하는 경로 상의 일 지점일 수 있다. 제2 지점은, 차량(10)이 위치하거나 가까운 미래에 위치할 지점으로 설명될 수 있다. 제3 지점은, 상술한 호라이즌으로 설명될 수 있다. 한편, 제2 지점을 시작지점으로 하고 제3 지점을 끝지점으로 하는 일렉트로닉 호라이즌 데이터는 상술한 제1 지점을 시작지점으로 하고 제2 지점을 끝지점으로 하는 일렉트로닉 호라이즌 데이터와 지리적으로 연결될 수 있다.
제2 지점을 시작지점으로 하고 제3 지점을 끝지점으로 하는 일렉트로닉 호라이즌 데이터 생성 동작은, 제1 지점을 시작지점으로 하고 제2 지점을 끝지점으로 하는 일렉트로닉 호라이즌 데이터를 생성동작이 준용될 수 있다.
실시예에 따라, 차량(10)은, 최종 목적지가 설정되지 않은 상태에서도 주행될 수 있다.
도 7은 본 발명의 실시예에 따른 전자 장치의 플로우 차트이다.
도 7을 참조하면, 적어도 하나의 프로세서(170)는, 전원 공급부(190)로부터 전원을 공급받을 수 있다(S710). 적어도 하나의 프로세서(170)는, 전원이 공급되는 상태에서 지속적으로, HD 맵 데이터에 기초하여, 특정된 영역에 대한 일렉트로닉 호라이즌 데이터를 획득할 수 있다(S720).
적어도 하나의 프로세서(170)는, 맵 매칭 피처로 기 설정된 제1 오브젝트에 기초하여, 제1 맵 매칭을 수행할 수 있다(S730). 제1 오브젝트는, 제1 트래픽 사인을 포함할 수 있다. 제1 트래픽 사인은, 신호등, 이정표, 트래픽 사인 보드, 노면에 표시된 트래픽 사인 중 적어도 어느 하나를 포함할 수 있다. 제1 맵 매칭을 수행하는 단계(S730)는, 적어도 하나의 프로세서(170)가, 제1 트래픽 사인과 관련된 맵 매칭 피처에 대한 제1 정보를 수신하는 단계, 적어도 하나의 프로세서(170)가, 오브젝트 검출 장치(210)로부터, 제1 트래픽 사인과 관련된 제2 정보를 수신하는 단계 및 적어도 하나의 프로세서(170)가, 제1 정보와 제2 정보를 비교하여 맵 매칭을 수행하는 단계를 포함할 수 있다.
적어도 하나의 프로세서(170)가, 맵 매칭 피처로 기 설정된 제1 오브젝트에 기초한 맵 매칭이 페일(fail)되는 경우(S740), 신규 맵 매칭 피처로 설정된 제2 오브젝트에 기초하여 제2 맵 매칭을 수행할 수 있다(S750). 한편, 제1 오브젝트에 기초한 맵 매칭의 페일 여부에 대한 판단은, 프로세서(170), 서버(21) 및 타 차량 중 적어도 어느 하나에서 수행될 수 있다.
제2 오브젝트는, 제2 트래픽 사인을 포함할 수 있다. 제2 트래픽 사인은, 신호등, 이정표, 트래픽 사인 보드, 노면에 표시된 트래픽 사인 중 적어도 어느 하나를 포함할 수 있다. 제2 맵 매칭을 수행하는 단계(S750)는, 적어도 하나의 프로세서(170)가, 제1 정보와 제2 정보를 비교하는 맵 매칭이 페일되는 경우, 제2 트래픽 사인과 관련된 맵 매칭 피처에 대한 제3 정보를 수신하는 단계, 적어도 하나의 프로세서(170)가, 오브젝트 검출 장치(210)로부터, 제2 트래픽 사인에 대한 제4 정보를 수신하는 단계 및 적어도 하나의 프로세서(170)가, 제3 정보와 제4 정보를 비교하여 맵 매칭을 수행하는 단계를 포함할 수 있다.
제2 오브젝트는, 고정 오브젝트 중 적어도 어느 하나를 포함할 수 있다. 고정 오브젝트는, 가로등, 가로수, 기 주차된 차량, 신호를 기다리는 보행자, 간판, 건물, 가드레일 중 적어도 어느 하나를 포함할 수 있다. 제2 맵 매칭을 수행하는 단계(S750)는, 적어도 하나의 프로세서(170)가, 제1 정보와 제2 정보를 비교하는 맵 매칭이 페일되는 경우, 고정 오브젝트와 관련된 맵 매칭 피처에 대한 제3 정보를 수신하는 단계, 적어도 하나의 프로세서(170)가, 오브젝트 검출 장치(210)로부터, 고정 오브젝트에 대한 제4 정보를 수신하는 단계 및 적어도 하나의 프로세서(170)가, 제3 정보와 제4 정보를 비교하여 맵 매칭을 수행하는 단계를 포함할 수 있다.
제4 정보를 수신하는 단계는, 적어도 하나의 프로세서(170)가, 오브젝트 검출 장치(210)로부터, 라이다 및 레이다 중 적어도 어느 하나에 의해 센싱된 고정 오브젝트에 대한 제4 정보를 수신하는 단계를 포함할 수 있다. 고정 오브젝트는, 가드 레일을 포함할 수 있다. 제4 정보를 수신하는 단계는, 적어도 하나의 프로세서(170)가, 오브젝트 검출 장치(210)로부터, 가드 레일을 향하는 복수의 클라우드 포인트에 대한 제4 정보를 수신하는 단계를 포함할 수 있다. 복수의 클라우드 포인트는, 라이다 및 레이다 중 적어도 어느 하나에서 생성될 수 있다.
차량용 전자 장치의 동작 방법은, 적어도 하나의 프로세서(170)가, 차량 주변 공간을 복수의 영역으로 구분하는 단계를 더 포함할 수 있다. 구분하는 단계는, S720 단계와 S730 단계 사이에 실행될 수 있다. 이경우, 제2 맵 매칭을 수행하는 단계(S750)는, 복수의 영역 중 제1 영역에 위치한 제1 오브젝트에 기초한 맵 매칭이 페일되는 경우, 제1 영역에 위치한 제2 오브젝트에 기초하여 맵 매칭을 수행하는 단계를 포함할 수 있다.
한편, 제2 오브젝트는, 무빙 오브젝트 중 적어도 어느 하나를 포함할 수 있다. 예를 들면, 제2 오브젝트는, 차량(10)이 군집을 이루어 주행하는 경우, 군집에 포함된 타 차량 중 적어도 어느 하나를 포함할 수 있다.
차량용 전자 장치의 동작 방법은, 적어도 하나의 프로세서가, 제2 오브젝트를 신규 맵 매칭 피처로 설정하는 단계를 더 포함할 수 있다. 설정하는 단계는, S740 단계와 S750 단계 사이에 실행될 수 있다.
도 8 내지 도 17은 본 발명의 실시예에 따른 전자 장치의 동작을 설명하는데 참조되는 도면이다. 도 8 내지 도 17의 차량용 전자 장치의 동작은 프로세서(170)에서 수행될 수 있다.
도 8을 참조하면, HD 맵에서, 차량(10)이 이용할 수 있는 데이터들은 피처(feature) 또는 로드 퍼니처(road furniture)로 명명될 수 있다. 피처는, 트래픽 사인, 사인 페이스(sign faces), 배리어(barrier), 각 차로(each lane), 레인 프로퍼티(lane property), 가이드 레일(guide-rail), 폴(pole) 등이 있으며, 이러한 피처들이 포함된 맵을 피처 맵이라고 한다. 이러한 피처 기반 맵에 포함된 데이터들은 카메라를 고려하여 만들어졌기 때문에, 거의 모든 데이터 검출(data detection) 및 이를 이용한 로컬라이제이션(localization) 알고리즘은 GNSS, IMU, 카메라를 센서 퓨전(sensor fusion)한다. 이때, 검출된 오브젝트에 대한 데이터들은 차량 내부의 전자 장치를 통해 서버(21)로 전송된다. 서버(21)는, 수신된 각 오브젝트에 대한 위치 정보를 통해 맵의 최선성을 유지한다. 이러한 방식은, 만약 카메라가 해당 오브젝트를 디텍션하지 못한 경우, 맵의 최선성이 유지될 수 없는 문제가 있다.
도 9를 참조하면, 지시부호 910에 예시된 바와 같이, 안개낀 상황에서 트래픽 사인은 카메라에 의해서 검출될 수 없다. 만약, 트래픽 사인이 가변 신호라면 현재 상태를 서버(21)에 업데이트할 수 없다. 지시부호 920에 예시된 바와 같이, 가로수 등의 고정 장애물에 의해 도로변의 트래픽 사인이 보이지 않는 경우, 카메라를 통한 트래픽 사인 검출이 불가능하다. 지시부호 930에 예시된 바와 같이 교통량이 많아 다른 오브젝트(예를 들면 타 차량)에 의해 트래픽 사인이 가려지는 경우, 카메라를 통한 트래픽 사인 검출이 불가능하다.
도 10을 참조하면, 차량용 전자 장치(100)는, 일렉트로닉 호라이즌 데이터 제공부(Electronic Horizon Provider, EHP)(1010), 드라이빙 폴리시 제공부(Driving Policy Provider(1020), 맵 매칭 수행부(1030)을 포함할 수 있다. 일렉트로닉 호라이즌 데이터 제공부(Electronic Horizon Provider, EHP)(1010), 드라이빙 폴리시 제공부(Driving Policy Provider(1020), 맵 매칭 수행부(1030)는 프로세서(170)의 하위 구성으로 분류될 수 있다.
일렉트로닉 호라이즌 데이터 제공부(1010)는, 일렉트로닉 호라이즌 데이터를 생성하여 제공할 수 있다. 드라이빙 폴리시 제공부(1020)는, 일렉트로닉 호라이즌 데이터와 오브젝트 검출 장치(210)로부터 수신된 센싱 데이터에 기초하여, 드라이빙 폴리시를 생성하여 제공할 수 있다. 맵 매칭 수행부(1030)는, 맵 매칭 피처로 설정된 오브젝트에 기초하여 맵 매칭을 수행할 수 있다.
맵 매칭 수행부(1030)는, 일렉트로닉 호라이즌 데이터에서 맵 매칭 피처로 설정된 오브젝트에 대한 정보(제1 정보)를 획득할 수 있다(S1031). 맵 매칭 수행부(1030)는, 오브젝트 검출 장치(210)로부터 맵 매칭 피처로 설정된 오브젝트에 대한 정보(제2 정보)를 수신할 수 있다(S1031). 맵 매칭 수행부(1030)는, 오브젝트 검출 장치(210)로부터 맵 매칭 피처로 설정된 오브젝트외에 다른 오브젝트에 대한 정보를 더 수신할 수 있다.
맵 매칭 수행부(1030)는, 제1 정보와 제2 정보의 비교를 통해, 맵 매칭을 수행할 수 있다(S1032). 맵 매칭 수행부(1030)는, 제1 정보와 제2 정보의 비교를 통해, HD 맵의 피처가 오브젝트 검출 장치(210)에 의해 검출되는지 판단할 수 있다.
S1032 단계에서, HD 맵의 피처가 오브젝트 검출 장치에 의해 검출되는 것으로 판단되는 경우, 프로세서(170)는, HD 맵의 업데이트 필요성을 판단할 수 있다(S1034).
업데이트가 필요한 것으로 판단되는 경우, 인프라스트럭처(20)에 업데이트 요청을 할 수 있다(S1035). 업데이트가 필요 없는 것으로 판단되는 경우, 다음 맵 매칭 피처 비교를 준비할 수 있다(S1036).
S1032 단계에서, HD 맵의 피처가 오브젝트 검출 장치에 의해 검출되지 않는 것으로 판단되는 경우, S1031 단계에서 수신된 맵 매칭 피처로 설정된 오브젝트외의 다른 오브젝트 정보 중에서 특이점을 추출할 수 있는 데이터를 선별하여 업데이트 요청할 수 있다(S1033, S1034, S1035).
인프라스트럭처(20)에 포함된 서버(21)는, 기존 HD 맵 데이터에 업데이트 요청이 있는 경우, 정해진 폴리시(policy)에 맞게 업데이트를 수행할 수 있다. 서버(21)는, 기존 HD 맵 데이터 이외의 추가 데이터는 새롭게 등록하고 서비스할 수 있다.
도 11을 참조하면, 차량(10) 관점에서, 커브 구간에서 선행 트럭(1120)에 의해 트래픽 사인(1110)이 가려지게 된다. 이경우, 오브젝트 검출 장치(210)의 카메라에 의해 검출되지 않는다.
차량용 전자 장치(100)는, 오브젝트 검출 장치(210)로부터 라이다 및 레이다 중 적어도 어느 하나에 의한 출력값(예를 들면, 클라우드 포인트(1140))를 수신할 수 있다. 차량용 전자 장치(100)는, 인프라스트럭쳐(20)에 상기 출력값에 대한 업데이트 요청을 수행할 수 있다. 차량용 전자 장치(100)는, 커브 구간의 가드 레일(1130)에 대한 데이터(예를 들면, 가드레일의 비선형 수학 모델 또는 절대 위치)를 업데이트 시킬 수 있다. 차량용 전자 장치(100)는, 업데이트를 통해, 트래픽 사인(1110)이 가려지는 상황에서의 차량(10)의 위치 판단에 도움을 주는 추가적인 피처로 인프라스트럭처(20)에 저장시킬 수 있다.
도 12를 참조하면, 차량(10)의 시야에서 선행 차량(1211)에 의해 트래픽 사인(1210)이 가려져, 오브젝트 검출 장치(210)의 카메라에 의해 트래픽 사인(1210)의 검출이 불가능할 수 있다. 이경우, 차량용 전자 장치(100)는, 트래픽 사인(1200) 검출이 불가능한 상태의 이미지를 서버(21)로 전송할 수 있다.
서버(21)는, 타 차량이나 보행자들로부터 새로이 맵 매칭 피처가 될 만한 오브젝트들의 GPS 정보를 저장할 수 있다. 예를 들면, 해당 구간에서 전봇대 사진이 새로운 피처로 요청을 많이 받으면, 서버(21)는, 전봇대의 GPS 정보를 파악하여 저장할 수 있다. 서버(21)는, 주차된 차량, 장시간 카페에 앉아있는 사람의 핸드폰 등의 요청을 동시에 받거나 주기적으로 받는다면 해당 정보의 GPS를 저장하여 차량에 제공할 수 있다.
차량용 전자 장치(100)는, 다른 오브젝트(1220, 1230, 1240)들의 이미지를 서버(21)로 전송하고, 서버(21)로부터 새로운 맵 매칭 피처가 되는 오브젝트의 GPS 정보를 수신할 수 있다. 차량용 전자 장치(100)는, 서버(21)로부터 수신한 GPS 정보에 기초하여 새로운 맵 매칭 피처를 등록할 수 있다. 차량용 전자 장치(100)는, 새로운 맵 매칭 피처를 이용하여 차량(10)의 위치 판단에 도움을 받을 수 있다.
도 13을 참조하면, 눈이 오거나, 안개가 끼거나, 비가 오는 상황에서는 오브젝트 검출 장치(210)의 카메라에 의한 오브젝트 검출이 어렵다. 이경우, 차량용 전자 장치(100)는, 주변 타 차량의 GPS 정보를 수신할 수 있다. 차량용 전자 장치(100)는, 오브젝트 검출 장치(210)의 레이다 또는 라이다의 센싱 데이터를 활용하여 주변 타 차량과의 거리를 계산할 수 있다. 이러한 상황에서, 차량용 전자 장치(100)는, 관련된 정보를 미리 획득해야하고, 보다 정확한 위치를 얻기 위해 여러 정보를 복합적으로 활용해야한다. 차량용 전자 장치(100)는, 카메라에 의한 정보 신뢰 가중치를 낮추고, V2V를 통해 수신된 정보의 가중치를 높여 맵 매칭을 수행할 수 있다. 차량용 전자 장치(100)는, GPS 정보, 레이다 정보의 가중치 조정을 통해, 차량(10)의 위치 판단에 도움을 줄 수 있다.
도 14를 참조하면, 도 14의 차량용 전자 장치(100)의 동작은, 도 10의 차량용 전자 장치(100)의 S1033 단계를 제외하고 동일하다. 차이점을 중심으로 설명하면, S1032 단계에서, HD 맵의 피처가 오브젝트 검출 장치에 의해 검출되지 않는 것으로 판단되는 경우, 프로세서(170)는, 업데이트를 수행할 수 있다(S1033a). 프로세서(170)는, 기존에 맵 매칭 피처로 설정된 오브젝트외의 다른 오브젝트를 맵 매칭 피처로 설정하고, 새로 맵 매칭 피처로 설정된 오브젝트에 대한 정보를 인프라스트럭처(20)에 전송할 수 있다.
도 15를 참조하면, 차량용 전자 장치(100)는, 맵 매칭 피처가 될 수 있는 오브젝트가 포함된 이미지를 인프라스트럭처(20)에 전송할 수 있다. 예를 들면, 차량용 전자 장치(100)는, 기 주차된 타 차량, 전봇대 등이 포함된 이미지를 인프라스트럭처(20)에 전송할 수 있다. 기 주차된 타 차량, 전봇대는, 통신은 불가하지만 고정 GPS 정보를 임시로 받을 수 있는 오브젝트에 해당한다. 예를 들면, 차량용 전자 장치(100)는, 정차된 타 차량, 횡단 보도에서 신호 대기 중인 보행자 등이 포함된 이미지를 인프라스트럭처(20)에 전송할 수 있다. 정차된 타 차량, 보행자는, 통신이 가능하면서 GPS 정보를 받을 수 있는 오브젝트에 해당한다. 보행자의 경우, 보행자가 소지한 이동 단말기를 이용해, 통신이 가능하다.
인프라스트럭처(20)에 포함된 서버(21)는 차량(10)의 GPS 정보, 피처, 이미지 정보를 수신하할 수 있다. 서버(21)는, 새로운 맵 매칭 피처로 설정될 수 있는 오브젝트에 대한 정보를 차량용 전자 장치(100)에 제공할 수 있다. 예를 들면, 서버(21)는, 보행자의 GPS 정보, 전봇대의 GPS 정보, 기 주차된 타 차량의 GPS 정보, 정차 중인 타 차량의 GPS 정보를 차량용 전자 장치(100)에 제공할 수 있다.
도 16을 참조하면, 도 16의 차량용 전자 장치(100)의 동작은, 도 10의 차량용 전자 장치(100)의 S1033단계를 제외하고 동일하다. 차이점을 중심으로 설명하면, S1032 단계에서, HD 맵의 피처가 오브젝트 검출 장치에 의해 검출되지 않는 것으로 판단되는 경우, 프로세서(170)는, 업데이트를 수행할 수 있다(S1033a). 프로세서(170)는, 기존에 맵 매칭 피처로 설정된 오브젝트외의 다른 오브젝트를 맵 매칭 피처로 설정하고, 새로 맵 매칭 피처로 설정된 오브젝트에 대한 정보를 인프라스트럭처(20)에 전송할 수 있다. 차량용 전자 장치(100)는, 통신 장치(220)를 통해, 오브젝트로부터 직접 GPS 정보를 수신할 수 있다(S1033b).
일렉트로닉 호라이즌 데이터 제공부(1010)는, 통신 장치(220)를 통해, 타 차량과 신호를 교환할 수 있다. 일렉트로닉 호라이즌 데이터 제공부(1010)는, 타 차량의 GPS 정보를 수신할 수 있다. 일렉트로닉 호라이든 데이터 제공부(1010)는, 맵 매칭 수행부(1030)로부터 타 차량의 GPS 정보 요청이 있는 경우, 타 차량의 GPS 정보를 제공할 수 있다. 맵 매칭 수행부(1030)는, 일렉트로닉 호라이즌 데이터 제공부(1010)로부터 타 차량의 GPS 정보를 수신할 수 있다. 여기서, 타 차량은, 새로 맵 매칭 피처로 설정된 오브젝트(제2 오브젝트)일 수 있다.
한편, 실시예에 따라, S1033b 단계는, S1031, S1032, S1033a, S1034, S1035 단계가 반복되는 경우에 수행될 수 있다. V2V 통신 통해, 타 차량의 GPS를 직접 타 차량으로부터 수신함으로써, 데이터를 받는데 발생되는 지연에 미리 대비할 수 있다. 차량용 전자 장치(100)는, 카메라의 가중치를 낮추고 레이다(또는 라이다) 및 V2V 정보의 가중치를 높여 차량(10)의 위치를 파악할 수 있다.
도 17을 참조하면, 차량용 전자 장치(100)는, 기 설정 시간 이내 새로운 맵 매칭 피처의 등록이 이루어지지 않는 경우, 서버(21)에 주변 타 차량의 GPS 정보를 요청할 수 있다. 차량용 전자 장치(100)는, 서버(21)로부터 주변 타 차량의 GPS 정보를 수신할 수 있다. 차량용 전자 장치(100)는, 주변 타 차량으로부터 GPS 정보를 수신할 수 있다. 차량용 전자 장치(100)는, 오브젝트 검출 장치(210)의 레이다 또는 라이다에 의해 센싱된 주변 타 차량과의 거리 정보를 수신할 수 있다. 차량용 전자 장치(100)는, 수신된 GPS 정보와 거리 정보에 기초하여, 타 차량을 맵 매칭 피처로 설정할 수 있다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 프로세서 또는 제어부를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.

Claims (20)

  1. 전원을 공급하는 전원 공급부;
    특정된 영역의 HD 맵 데이터 수신하고, 오브젝트 검출 장치로부터, 오브젝트에 대한 데이터를 수신하는 인터페이스부; 및
    상기 전원이 공급되는 상태에서 지속적으로, 상기 HD(High Definition) 맵 데이터에 기초하여, 특정된 영역에 대한 일렉트로닉 호라이즌 데이터를 획득하고,
    상기 오브젝트에 대한 데이터에 기초하여, 맵 매칭을 수행하되,
    맵 매칭 피처로 기 설정된 제1 오브젝트에 기초한 맵 매칭이 페일(fail)되는 경우, 신규 맵 매칭 피처로 설정된 제2 오브젝트에 기초하여 맵 매칭을 수행하는 프로세서;를 포함하는 차량용 전자 장치.
  2. 제 1항에 있어서,
    상기 제1 오브젝트에 기초한 맵 매칭의 페일 여부에 대한 판단은 상기 프로세서, 서버 및 타 차량 중 적어도 어느 하나에서 수행되는 차량용 전자 장치.
  3. 제 1항에 있어서,
    상기 제1 오브젝트는, 제1 트래픽 사인을 포함하고,
    상기 프로세서는,
    상기 일렉트로닉 호라이즌 데이터로부터, 상기 제1 트래픽 사인과 관련된 맵 매칭 피처에 대한 제1 정보를 획득하고,
    상기 오브젝트 검출 장치로부터, 상기 제1 트래픽 사인과 관련된 제2 정보를 수신하고,
    상기 제1 정보와 상기 제2 정보를 비교하여 맵 매칭을 수행하는 차량용 전자 장치.
  4. 제 3항에 있어서,
    상기 제2 오브젝트는, 제2 트래픽 사인을 포함하고,
    상기 프로세서는,
    상기 제1 정보와 상기 제2 정보를 비교하는 맵 매칭이 페일되는 경우, 상기 제2 트래픽 사인과 관련된 맵 매칭 피처에 대한 제3 정보를 수신하고,
    상기 오브젝트 검출 장치로부터, 상기 제2 트래픽 사인에 대한 제4 정보를 수신하고,
    상기 제3 정보와 상기 제4 정보를 비교하여 맵 매칭을 수행하는 차량용 전자 장치.
  5. 제 3항에 있어서,
    상기 제2 오브젝트는, 고정 오브젝트 중 적어도 어느 하나를 포함하고,
    상기 프로세서는,
    상기 제1 정보와 상기 제2 정보를 비교하는 맵 매칭이 페일되는 경우, 상기 고정 오브젝트와 관련된 맵 매칭 피처에 대한 제3 정보를 수신하고,
    상기 오브젝트 검출 장치로부터, 상기 고정 오브젝트에 대한 제4 정보를 수신하고,
    상기 제3 정보와 상기 제4 정보를 비교하여 맵 매칭을 수행하는 차량용 전자 장치.
  6. 제 5항에 있어서,
    상기 프로세서는,
    상기 오브젝트 검출 장치로부터, 라이다 및 레이다 중 적어도 어느 하나에 의해 센싱된 상기 고정 오브젝트에 대한 상기 제4 정보를 수신하는 차량용 전자 장치.
  7. 제 6항에 있어서,
    상기 고정 오브젝트는, 가드 레일을 포함하고,
    상기 프로세서는,
    상기 오브젝트 검출 장치로부터, 상기 가드 레일을 향하는 복수의 클라우드 포인트에 대한 상기 제4 정보를 수신하고,
    상기 복수의 클라우드 포인트는,
    상기 라이다 및 상기 레이다 중 적어도 어느 하나에서 생성되는 차량용 전자 장치.
  8. 제 1항에 있어서,
    상기 프로세서는,
    차량 주변 공간을 복수의 영역으로 구분하고, 상기 복수의 영역 중 제1 영역에 위치한 제1 오브젝트에 기초한 맵 매칭이 페일되는 경우, 상기 제1 영역에 위치한 제2 오브젝트에 기초하여 맵 매칭을 수행하는 차량용 전자 장치.
  9. 제 1항에 있어서,
    상기 제2 오브젝트는, 무빙 오브젝트 중 적어도 어느 하나를 포함하는 차량용 전자 장치.
  10. 제 9항에 있어서,
    상기 제2 오브젝트는, 차량이 군집을 이루어 주행하는 경우, 상기 군집에 포함된 타 차량 중 적어도 어느 하나를 포함하는 차량용 전자 장치.
  11. 제 1항에 있어서,
    상기 프로세서는,
    상기 제2 오브젝트를 신규 맵 매칭 피처로 설정하고,
    상기 오브젝트 검출 장치로부터 수신된 상기 제2 오브젝트에 대한 정보를 통신 장치를 통해 서버에 제공하는 차량용 전자 장치.
  12. 적어도 하나의 프로세서가, 전원 공급부로부터 전원을 공급받는 단계;
    적어도 하나의 프로세서가, 상기 전원이 공급되는 상태에서 지속적으로, 상기 HD(High Definition) 맵 데이터에 기초하여, 특정된 영역에 대한 일렉트로닉 호라이즌 데이터를 획득하는 단계;
    적어도 하나의 프로세서가, 맵 매칭 피처로 기 설정된 제1 오브젝트에 기초하여, 제1 맵 매칭을 수행하는 단계; 및
    적어도 하나의 프로세서가, 맵 매칭 피처로 기 설정된 제1 오브젝트에 기초한 맵 매칭이 페일(fail)되는 경우, 신규 맵 매칭 피처로 설정된 제2 오브젝트에 기초하여 제2 맵 매칭을 수행하는 단계;를 포함하는 차량용 전자 장치의 동작 장법.
  13. 제 12항에 있어서,
    상기 제1 오브젝트에 기초한 맵 매칭의 페일 여부에 대한 판단은 상기 프로세서, 서버 및 타 차량 중 적어도 어느 하나에서 수행되는 차량용 전자 장치의 동작 방법.
  14. 제 12항에 있어서,
    상기 제1 오브젝트는, 제1 트래픽 사인을 포함하고,
    상기 제1 맵 매칭을 수행하는 단계는,
    적어도 하나의 프로세서가, 상기 일렉트로닉 호라이즌 데이터로부터, 상기 제1 트래픽 사인과 관련된 맵 매칭 피처에 대한 제1 정보를 수신하는 단계;
    적어도 하나의 프로세서가, 상기 오브젝트 검출 장치로부터, 상기 제1 트래픽 사인과 관련된 제2 정보를 수신하는 단계; 및
    적어도 하나의 프로세서가, 상기 제1 정보와 상기 제2 정보를 비교하여 맵 매칭을 수행하는 단계;를 포함하는 차량용 전자 장치의 동작 방법.
  15. 제 14항에 있어서,
    상기 제2 오브젝트는, 제2 트래픽 사인을 포함하고,
    상기 제2 맵 매칭을 수행하는 단계는,
    적어도 하나의 프로세서가, 상기 제1 정보와 상기 제2 정보를 비교하는 맵 매칭이 페일되는 경우, 상기 제2 트래픽 사인과 관련된 맵 매칭 피처에 대한 제3 정보를 수신하는 단계;
    적어도 하나의 프로세서가, 상기 오브젝트 검출 장치로부터, 상기 제2 트래픽 사인에 대한 제4 정보를 수신하는 단계; 및
    적어도 하나의 프로세서가, 상기 제3 정보와 상기 제4 정보를 비교하여 맵 매칭을 수행하는 단계;를 포함하는 차량용 전자 장치의 동작 방법.
  16. 제 14항에 있어서,
    상기 제2 오브젝트는, 고정 오브젝트 중 적어도 어느 하나를 포함하고,
    상기 제2 맵 매칭을 수행하는 단계는,
    적어도 하나의 프로세서가, 상기 제1 정보와 상기 제2 정보를 비교하는 맵 매칭이 페일되는 경우, 상기 고정 오브젝트와 관련된 맵 매칭 피처에 대한 제3 정보를 수신하는 단계;
    적어도 하나의 프로세서가, 상기 오브젝트 검출 장치로부터, 상기 고정 오브젝트에 대한 제4 정보를 수신하는 단계; 및
    적어도 하나의 프로세서가, 상기 제3 정보와 상기 제4 정보를 비교하여 맵 매칭을 수행하는 단계;를 포함하는 차량용 전자 장치의 동작 방법.
  17. 제 16항에 있어서,
    상기 제4 정보를 수신하는 단계는,
    적어도 하나의 프로세서가, 상기 오브젝트 검출 장치로부터, 라이다 및 레이다 중 적어도 어느 하나에 의해 센싱된 상기 고정 오브젝트에 대한 상기 제4 정보를 수신하는 단계;를 포함하는 차량용 전자 장치의 동작 방법.
  18. 제 17항에 있어서,
    상기 고정 오브젝트는, 가드 레일을 포함하고,
    상기 제4 정보를 수신하는 단계는,
    적어도 하나의 프로세서가, 상기 오브젝트 검출 장치로부터, 상기 가드 레일을 향하는 복수의 클라우드 포인트에 대한 상기 제4 정보를 수신하는 단계;를 포함하고,
    상기 복수의 클라우드 포인트는,
    상기 라이다 및 상기 레이다 중 적어도 어느 하나에서 생성되는 차량용 전자 장치의 동작 방법.
  19. 제 12항에 있어서,
    적어도 하나의 프로세서가, 차량 주변 공간을 복수의 영역으로 구분하는 단계;를 더 포함하고,
    상기 제2 맵 매칭을 수행하는 단계는,
    상기 복수의 영역 중 제1 영역에 위치한 제1 오브젝트에 기초한 맵 매칭이 페일되는 경우, 상기 제1 영역에 위치한 제2 오브젝트에 기초하여 맵 매칭을 수행하는 단계;를 포함하는 차량용 전자 장치의 동작 방법.
  20. 제 12항에 있어서,
    상기 제2 오브젝트는, 무빙 오브젝트 중 적어도 어느 하나를 포함하는 차량용 전자 장치의 동작 방법.
PCT/KR2019/008134 2019-07-03 2019-07-03 차량용 전자 장치 및 차량용 전자 장치의 동작 방법 WO2021002504A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/KR2019/008134 WO2021002504A1 (ko) 2019-07-03 2019-07-03 차량용 전자 장치 및 차량용 전자 장치의 동작 방법
US17/260,520 US20220120568A1 (en) 2019-07-03 2019-07-03 Electronic device for vehicle, and method of operating electronic device for vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2019/008134 WO2021002504A1 (ko) 2019-07-03 2019-07-03 차량용 전자 장치 및 차량용 전자 장치의 동작 방법

Publications (1)

Publication Number Publication Date
WO2021002504A1 true WO2021002504A1 (ko) 2021-01-07

Family

ID=74100514

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/008134 WO2021002504A1 (ko) 2019-07-03 2019-07-03 차량용 전자 장치 및 차량용 전자 장치의 동작 방법

Country Status (2)

Country Link
US (1) US20220120568A1 (ko)
WO (1) WO2021002504A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220067768A1 (en) * 2020-08-28 2022-03-03 Telenav, Inc. Navigation system with high definition mapping mechanism and method of operation thereof

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080032508A (ko) * 2006-10-10 2008-04-15 엘지전자 주식회사 네비게이션 시스템에서 탐색된 주행경로의 매핑방법
KR20120079341A (ko) * 2011-01-04 2012-07-12 팅크웨어(주) 맵데이터갱신방법, 이를 수행하는 전자기기 및 기록매체
US20170192436A1 (en) * 2016-01-05 2017-07-06 Electronics And Telecommunications Research Institute Autonomous driving service system for autonomous driving vehicle, cloud server for the same, and method for operating the cloud server
KR20180000672A (ko) * 2016-06-23 2018-01-03 엘지전자 주식회사 차량에 구비된 차량 제어 장치 및 차량의 제어방법
KR20180005484A (ko) * 2016-07-06 2018-01-16 엘지전자 주식회사 실시간 지도 생성을 위한 v2x 통신 시스템 및 그 동작방법

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101534927B1 (ko) * 2013-10-08 2015-07-07 현대자동차주식회사 차량 인지 장치 및 방법
US20200217667A1 (en) * 2019-01-08 2020-07-09 Qualcomm Incorporated Robust association of traffic signs with a map

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080032508A (ko) * 2006-10-10 2008-04-15 엘지전자 주식회사 네비게이션 시스템에서 탐색된 주행경로의 매핑방법
KR20120079341A (ko) * 2011-01-04 2012-07-12 팅크웨어(주) 맵데이터갱신방법, 이를 수행하는 전자기기 및 기록매체
US20170192436A1 (en) * 2016-01-05 2017-07-06 Electronics And Telecommunications Research Institute Autonomous driving service system for autonomous driving vehicle, cloud server for the same, and method for operating the cloud server
KR20180000672A (ko) * 2016-06-23 2018-01-03 엘지전자 주식회사 차량에 구비된 차량 제어 장치 및 차량의 제어방법
KR20180005484A (ko) * 2016-07-06 2018-01-16 엘지전자 주식회사 실시간 지도 생성을 위한 v2x 통신 시스템 및 그 동작방법

Also Published As

Publication number Publication date
US20220120568A1 (en) 2022-04-21

Similar Documents

Publication Publication Date Title
WO2019209057A1 (en) Method of determining position of vehicle and vehicle using the same
WO2020145441A1 (ko) 차량용 전자 장치 및 차량용 전자 장치의 동작 방법
WO2021002519A1 (ko) 차량용 광고 제공 장치 및 차량용 광고 제공 방법
WO2017196062A1 (en) Distance sensor, and calibration method performed by device and system including the distance sensor
WO2014163307A1 (ko) 자동차 자동 운행 시스템
JPH11212640A (ja) 自律走行車両及び自律走行車両を制御する方法
WO2020096083A1 (ko) 차량용 전자 장치, 차량용 전자 장치의 동작 방법 및 시스템
WO2018143589A1 (ko) 차선 정보를 출력하는 방법 및 장치
WO2020241955A1 (ko) 차량용 전자 장치 및 차량용 전자 장치의 동작 방법
WO2020105751A1 (ko) 탑승자 모니터링 방법 및 이를 위한 장치
WO2020004767A1 (ko) 차량에 구비되는 텔레매틱스 시스템 및 이를 제어하는 방법
WO2020241954A1 (ko) 차량용 전자 장치 및 차량용 전자 장치의 동작 방법
WO2021002501A1 (ko) 차량용 전자 장치
WO2021040057A1 (ko) 차량용 전자 장치 및 차량용 전자 장치의 동작 방법
WO2021002517A1 (ko) 공유형 차량 관리 장치 및 공유형 차량의 관리 방법
WO2020145432A1 (ko) Multi soc 시스템을 통해 차량을 제어하는 방법
WO2020091119A1 (ko) 차량용 전자 장치, 차량용 전자 장치의 동작 방법 및 시스템
WO2020138760A1 (ko) 전자 장치 및 그의 제어 방법
WO2018135745A1 (ko) 차량 주변의 객체를 나타내는 영상을 생성하는 방법 및 장치
WO2021002504A1 (ko) 차량용 전자 장치 및 차량용 전자 장치의 동작 방법
WO2020091113A1 (ko) 차량용 전자 장치, 차량용 전자 장치의 동작 방법 및 시스템
WO2020096081A1 (ko) 차량용 전자 장치, 차량용 전자 장치의 동작 방법 및 시스템
WO2020145440A1 (ko) 차량용 전자 장치 및 차량용 전자 장치의 동작 방법
WO2020091114A1 (ko) 차량용 전자 장치, 차량용 전자 장치의 동작 방법 및 시스템
WO2021010517A1 (ko) 차량용 전자 장치 및 그의 동작 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19936169

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19936169

Country of ref document: EP

Kind code of ref document: A1