WO2023210890A1 - 차량 내 네트워크 및 이의 제어 방법 - Google Patents

차량 내 네트워크 및 이의 제어 방법 Download PDF

Info

Publication number
WO2023210890A1
WO2023210890A1 PCT/KR2022/016954 KR2022016954W WO2023210890A1 WO 2023210890 A1 WO2023210890 A1 WO 2023210890A1 KR 2022016954 W KR2022016954 W KR 2022016954W WO 2023210890 A1 WO2023210890 A1 WO 2023210890A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
signal
node
ethernet
pcp
Prior art date
Application number
PCT/KR2022/016954
Other languages
English (en)
French (fr)
Inventor
홍현택
김학성
이상훈
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020247027989A priority Critical patent/KR20240137063A/ko
Publication of WO2023210890A1 publication Critical patent/WO2023210890A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L45/00Routing or path finding of packets in data switching networks
    • H04L45/645Splitting route computation layer and forwarding layer, e.g. routing according to path computational element [PCE] or based on OpenFlow functionality
    • H04L45/655Interaction between route computation entities and forwarding entities, e.g. for route determination or for flow table update
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/023Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/40Bus networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/40Bus networks
    • H04L12/40143Bus networks involving priority mechanisms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/40Bus networks
    • H04L12/40169Flexible bus arrangements
    • H04L12/40176Flexible bus arrangements involving redundancy
    • H04L12/40182Flexible bus arrangements involving redundancy by using a plurality of communication lines
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/12Discovery or management of network topologies
    • H04L41/122Discovery or management of network topologies of virtualised topologies, e.g. software-defined networks [SDN] or network function virtualisation [NFV]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L45/00Routing or path finding of packets in data switching networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L45/00Routing or path finding of packets in data switching networks
    • H04L45/12Shortest path evaluation
    • H04L45/125Shortest path evaluation based on throughput or bandwidth
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/50Queue scheduling
    • H04L47/52Queue scheduling by attributing bandwidth to queues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L49/00Packet switching elements
    • H04L49/60Software-defined switches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/51Discovery or management thereof, e.g. service location protocol [SLP] or web services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L69/00Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
    • H04L69/08Protocols for interworking; Protocol conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/40Bus networks
    • H04L2012/40208Bus networks characterized by the use of a particular bus standard
    • H04L2012/40215Controller Area Network CAN
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/40Bus networks
    • H04L2012/40267Bus for use in transportation systems
    • H04L2012/40273Bus for use in transportation systems the transportation system being a vehicle

Definitions

  • This disclosure relates to an in-vehicle network for transmitting heterogeneous protocol messages in a vehicle and a method of controlling the same.
  • vehicle functions are becoming more diverse. These vehicle functions can be divided into convenience functions to promote driver convenience, and safety functions to promote driver and/or pedestrian safety.
  • Convenience functions of a vehicle may be related to driver convenience, such as providing infotainment (information + entertainment) functions to the vehicle, supporting partial autonomous driving functions, or helping secure the driver's field of vision such as night vision or blind spots.
  • driver convenience adaptive cruise control (ACC), smart parking assist system (SPAS), night vision (NV), and head up display (HUD) , around view monitor (AVM), and adaptive headlight system (AHS) functions.
  • ACC adaptive cruise control
  • SPAS smart parking assist system
  • NV night vision
  • HUD head up display
  • AHS adaptive headlight system
  • LDWS lane departure warning system
  • LKAS lane keeping assist system
  • AEB autonomous emergency braking
  • Ethernet network systems are being applied to vehicles.
  • legacy network systems such as CAN (Controller Area Network) systems are still widely used in vehicles, the Ethernet network system needs to coexist with the legacy network system.
  • a CAN signal may be generated in the in-vehicle Ethernet network system, converted to an Ethernet signal, and transmitted, or an Ethernet signal may be generated and transmitted in the first place.
  • the present disclosure is proposed to solve the above-described problems and various problems related thereto, and aims to provide an in-vehicle network and a control method thereof that can eliminate delays when transmitting safety-related Ethernet signals in an in-vehicle Ethernet network system. The purpose.
  • a first node in a vehicle receives a first CAN signal from a first sensor of the first node through CAN (Controller Area Network) communication, a first A node converting a first CAN signal into a first Ethernet signal with different priority information according to vehicle conditions, and the first node converting the converted first Ethernet signal to a second node in the vehicle through Ethernet communication.
  • a method of controlling an in-vehicle network including a transmitting step may be provided.
  • the priority information may include a Priority Code Point (PCP) value.
  • PCP Priority Code Point
  • the first node is connected to a first vehicle context and a first CAN ID range, a first vehicle context and a second CAN ID range, a second vehicle context and a first CAN ID range, a second vehicle context and a second CAN ID range, respectively.
  • a PCP table with corresponding PCP values can be saved.
  • the control method may further include the step of a first node receiving the vehicle status from a network manager of a third node within the vehicle.
  • the control method further includes the network manager receiving data for vehicle situation determination from at least one node in the vehicle, and the network manager determining the vehicle situation based on the vehicle situation determination data. It can be included.
  • the data for determining the vehicle situation may include information about at least one of driving speed, weather, time, and driving road conditions.
  • the control method may further include the step of the network manager transmitting the determined vehicle situation to all nodes in the vehicle.
  • the control method is such that the first node determines which of the first vehicle situation and the second vehicle situation the transmitted vehicle situation corresponds to, and the CAN ID of the first CAN signal is within the first CAN ID range and the second CAN ID.
  • Retrieving a PCP value for a first CAN signal from the PCP table based on which of the ranges it falls into, and having the first node convert the first CAN signal to a first Ethernet signal with the retrieved PCP value. may include.
  • the first node has a first vehicle situation and a first CAN signal transmission cycle range, a first vehicle situation and a second CAN signal transmission cycle range, a second vehicle situation and a first CAN signal transmission cycle range, a second vehicle situation, and a second CAN signal transmission cycle range.
  • a PCP table with PCP values corresponding to each CAN signal transmission cycle range can be saved.
  • the control method is such that the first node determines which of the first vehicle situation and the second vehicle situation the received vehicle situation corresponds to, and the transmission period of the first CAN signal is within the range of the first CAN signal transmission period and the second vehicle situation.
  • a first node transmits a first Ethernet signal with a first PCP value to a second node through a first rank queue, and transmits a first Ethernet signal with a second PCP value to a second node through a second rank queue.
  • the transmission bandwidth of the first rank queue may be wider than the transmission bandwidth of the second rank queue.
  • the control method may include a fourth node transmitting an emergency Ethernet signal to another node through a first rank queue.
  • the fourth node includes a second Ethernet-based sensor that senses data necessary for safe operation of the vehicle, and the second sensor may generate data necessary for safe operation of the vehicle as the emergency Ethernet signal.
  • the emergency Ethernet signal includes a first emergency Ethernet signal and a second emergency Ethernet signal
  • the fourth node transmits the first emergency Ethernet signal to another node through the first rank queue, and sends the second emergency Ethernet signal to the second emergency Ethernet signal. It can be transmitted to other nodes through a rating queue.
  • the first to fourth nodes may be ECUs (Electronic Control Units) within the vehicle.
  • the first node includes a CAN transceiver for transmitting and receiving the first CAN signal from the first sensor, a CAN2ETH converter for converting the first CAN signal into a first Ethernet signal, and an Ethernet transceiver for transmitting the first Ethernet signal to the second node. , and a PCP DB storing the PCP table.
  • the Ethernet transceiver may receive the determined vehicle status as an Ethernet signal from the network manager.
  • the control method includes determining, based on priority information of the first Ethernet signal, whether the bandwidth required for transmission of the first Ethernet signal can be secured in the transmission path between the first node and the second node, if the bandwidth can be secured. , controlling the first Ethernet signal to be transmitted to the second node according to the transmission path, and
  • the method may further include changing the transmission path to pass through a third node and controlling the first Ethernet signal to be transmitted to the second node according to the changed transmission path.
  • it includes a first node and a second node, wherein the first node receives a first CAN signal from a first sensor of the first node through CAN communication, and the first node receives a first CAN signal from a first sensor of the first node through CAN communication.
  • a CAN signal is converted into a first Ethernet signal with different priority information depending on the vehicle situation, and the first node transmits the converted first Ethernet signal to the second node through Ethernet communication.
  • Network can be provided.
  • 1 and 2 are exterior views of a vehicle related to one embodiment of the present disclosure.
  • 3 and 4 are diagrams showing the interior of a vehicle related to an embodiment of the present disclosure.
  • Figure 5 is a block diagram referenced in explaining a vehicle related to an embodiment of the present disclosure.
  • Figure 6 is a block diagram of a hybrid network system for communication between a plurality of nodes of a vehicle according to the present disclosure.
  • Figure 7 shows the frame structure of a CAN signal and an Ethernet signal that can be used in one embodiment of the present disclosure.
  • Figure 8 is an example of a PCP table according to an embodiment of the present disclosure.
  • Figure 9 is a block diagram of a hybrid network system for communication between a plurality of nodes of a vehicle according to the present disclosure.
  • FIG. 10 shows a flow chart in which a CAN signal is converted into an Ethernet signal and transmitted between nodes according to the PCP table of FIG. 8.
  • Figure 11 is an example of a PCP table according to an embodiment of the present disclosure.
  • FIGS. 12 and 13 are block diagrams of a hybrid network system for communication between a plurality of nodes of a vehicle according to the present disclosure.
  • FIG. 14 shows a flowchart in which a CAN signal is converted into an Ethernet signal and transmitted between nodes according to the PCP table of FIG. 11.
  • FIG. 15 shows another flowchart in which a CAN signal is converted into an Ethernet signal and transmitted between nodes according to the PCP table of FIG. 11.
  • Figures 16 and 17 show a flowchart for determining the current status of a vehicle according to an embodiment of the present disclosure.
  • Figure 18 is an example of a PCP table according to an embodiment of the present disclosure.
  • Figure 19 shows a flowchart for determining the current status of a vehicle according to an embodiment of the present disclosure.
  • Figures 20 and 21 are examples of PCP tables according to an embodiment of the present disclosure.
  • Figure 22 is a block diagram of a hybrid network system for communication between a plurality of nodes of a vehicle according to the present disclosure.
  • Figure 23 shows the packet structure of a control request message for securing a transmission path for an Ethernet signal according to an embodiment of the present disclosure.
  • FIGS 24 and 25 show an example in which the transmission path of an Ethernet signal is changed according to the control request message of Figure 23.
  • These components may each be composed of separate individual hardware modules or may be implemented as two or more hardware modules, or two or more components may be implemented as one hardware module, and in some cases, may also be implemented as software. Of course.
  • the vehicle described in this disclosure may be a concept including a car and a motorcycle. Below, description of vehicles will focus on automobiles.
  • the vehicle described in this disclosure may be a concept that includes all internal combustion engine vehicles having an engine as a power source, a hybrid vehicle having an engine and an electric motor as a power source, and an electric vehicle having an electric motor as a power source.
  • FIGS. 1 and 2 are diagrams showing the exterior of a vehicle related to an embodiment of the present disclosure
  • FIGS. 3 and 4 are diagrams showing the interior of a vehicle related to an embodiment of the present disclosure
  • Figure 5 is a block diagram referenced in explaining a vehicle related to an embodiment of the present disclosure.
  • the vehicle 100 may include wheels rotated by a power source and a steering input device 510 for controlling the moving direction of the vehicle 100.
  • Vehicle 100 may be an autonomous vehicle.
  • the vehicle 100 may be switched to autonomous driving mode or manual mode based on user input.
  • the vehicle 100 may be switched from a manual mode to an autonomous driving mode, or from an autonomous driving mode to a manual mode, based on a user input received through the user interface device 200.
  • the vehicle 100 may be switched to autonomous driving mode or manual mode based on driving situation information.
  • Driving situation information may be generated based on object information provided by the object detection device 300.
  • the vehicle 100 may be switched from manual mode to autonomous driving mode, or from autonomous driving mode to manual mode, based on driving situation information generated by the object detection device 300.
  • the vehicle 100 may be switched from manual mode to autonomous driving mode, or from autonomous driving mode to manual mode, based on driving situation information received through the communication device 400.
  • the vehicle 100 may be switched from manual mode to autonomous driving mode or from autonomous driving mode to manual mode based on information, data, and signals provided from an external device.
  • the autonomous vehicle 100 may be driven based on the driving system 700 .
  • the autonomous vehicle 100 may be driven based on information, data, or signals generated by the driving system 710, the parking system 740, and the parking system 750.
  • the autonomous vehicle 100 may receive user input for driving through the driving control device 500. Based on user input received through the driving control device 500, the vehicle 100 may be driven.
  • the overall length refers to the length from the front to the rear of the vehicle 100
  • the overall width refers to the width of the vehicle 100
  • the overall height refers to the length from the bottom of the wheels to the roof.
  • the overall length direction (L) is the direction that is the standard for measuring the overall length of the vehicle 100
  • the overall width direction (W) is the direction that is the standard for measuring the overall width of the vehicle 100
  • the overall height direction (H) is the direction that is the standard for measuring the overall width of the vehicle 100. It may refer to the direction that serves as the standard for measuring the total height of (100).
  • the vehicle 100 includes a user interface device 200, an object detection device 300, a communication device 400, a driving operation device 500, a vehicle driving device 600, and a navigation system. It may include (700), a navigation system 770, a sensing unit 120, a vehicle interface unit 130, a memory 140, a control unit 170, and a power supply unit 190.
  • the vehicle 100 may further include other components in addition to the components described in this specification, or may not include some of the components described.
  • the user interface device 200 is a device for communication between the vehicle 100 and the user.
  • the user interface device 200 may receive user input and provide information generated by the vehicle 100 to the user.
  • the vehicle 100 may implement User Interfaces (UI) or User Experience (UX) through the user interface device 200.
  • UI User Interfaces
  • UX User Experience
  • the user interface device 200 may include an input unit 210, an internal camera 220, a biometric detection unit 230, an output unit 250, and a user interface processor 270. Depending on the embodiment, the user interface device 200 may further include other components in addition to the components described, or may not include some of the components described.
  • the input unit 210 is used to receive information from the user, and the data collected by the input unit 210 can be analyzed by the user interface processor 270 and processed as a user's control command.
  • the input unit 210 may be placed inside the vehicle.
  • the input unit 210 is an area of the steering wheel, an area of the instrument panel, an area of the seat, an area of each pillar, and a door.
  • the input unit 210 may include a voice input unit 211, a gesture input unit 212, a touch input unit 213, and a mechanical input unit 214.
  • the voice input unit 211 can convert the user's voice input into an electrical signal.
  • the converted electrical signal may be provided to the user interface processor 270 or the control unit 170.
  • the voice input unit 211 may include one or more microphones.
  • the gesture input unit 212 can convert the user's gesture input into an electrical signal.
  • the converted electrical signal may be provided to the user interface processor 270 or the control unit 170.
  • the gesture input unit 212 may include at least one of an infrared sensor and an image sensor for detecting a user's gesture input. Depending on the embodiment, the gesture input unit 212 may detect a user's 3D gesture input. To this end, the gesture input unit 212 may include a light output unit that outputs a plurality of infrared lights or a plurality of image sensors.
  • the gesture input unit 212 may detect the user's 3D gesture input through a time of flight (TOF) method, a structured light method, or a disparity method.
  • TOF time of flight
  • the touch input unit 213 can convert the user's touch input into an electrical signal.
  • the converted electrical signal may be provided to the user interface processor 270 or the control unit 170.
  • the touch input unit 213 may include a touch sensor for detecting a user's touch input.
  • the touch input unit 213 may be formed integrally with the display unit 251 to implement a touch screen. This touch screen can provide both an input interface and an output interface between the vehicle 100 and the user.
  • the mechanical input unit 214 may include at least one of a button, a dome switch, a jog wheel, and a jog switch.
  • the electrical signal generated by the mechanical input unit 214 may be provided to the user interface processor 270 or the control unit 170.
  • the mechanical input unit 214 may be placed on a steering wheel, center fascia, center console, cockpit module, door, etc.
  • the internal camera 220 can acquire images inside the vehicle.
  • the user interface processor 270 may detect the user's state based on the image inside the vehicle.
  • the user interface processor 270 may obtain user gaze information from an image inside the vehicle.
  • the user interface processor 270 may detect a user's gesture from an image inside the vehicle.
  • the biometric detection unit 230 can acquire the user's biometric information.
  • the biometric detection unit 230 includes a sensor that can acquire the user's biometric information, and can obtain the user's fingerprint information, heart rate information, etc. using the sensor. Biometric information can be used for user authentication.
  • the output unit 250 is intended to generate output related to vision, hearing, or tactile sensation.
  • the output unit 250 may include at least one of a display unit 251, an audio output unit 252, and a haptic output unit 253.
  • the display unit 251 can display graphic objects corresponding to various information.
  • the display unit 251 includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display. It may include at least one of a display, a 3D display, and an e-ink display.
  • the display unit 251 and the touch input unit 213 may form a layered structure or be formed as one piece, thereby implementing a touch screen.
  • the display unit 251 may be implemented as a Head Up Display (HUD).
  • HUD Head Up Display
  • the display unit 251 is equipped with a projection module and can output information through an image projected on a windshield or window.
  • the display unit 251 may include a transparent display.
  • the transparent display can be attached to a windshield or window.
  • a transparent display can display a certain screen while having a certain transparency.
  • transparent displays are transparent TFEL (Thin Film Elecroluminescent), transparent
  • It may include at least one of an Organic Light-Emitting Diode (OLED), a transparent Liquid Crystal Display (LCD), a transmissive transparent display, and a transparent Light Emitting Diode (LED) display.
  • OLED Organic Light-Emitting Diode
  • LCD transparent Liquid Crystal Display
  • LED transparent Light Emitting Diode
  • the transparency of a transparent display can be adjusted.
  • the user interface device 200 may include a plurality of display units 251a to 251g.
  • the display unit 251 includes one area of the steering wheel, one area of the instrument panel (521a, 251b, 251e), one area of the seat (251d), one area of each pillar (251f), and one area of the door ( 251g), may be placed in an area of the center console, an area of the headlining, or an area of the sun visor, or may be implemented in an area of the windshield (251c) or an area of the window (251h).
  • the audio output unit 252 converts the electrical signal provided from the user interface processor 270 or the control unit 170 into an audio signal and outputs it. To this end, the sound output unit 252 may include one or more speakers.
  • the haptic output unit 253 generates a tactile output.
  • the haptic output unit 253 may operate to vibrate the steering wheel, seat belt, and seats 110FL, 110FR, 110RL, and 110RR so that the user can perceive the output.
  • the user interface processor 270 may control the overall operation of each unit of the user interface device 200.
  • the user interface device 200 may include a plurality of user interface processors 270 or may not include the user interface processor 270.
  • the user interface device 200 may be operated according to the control of the processor 170 or a processor of another device in the vehicle 100. .
  • the user interface device 200 may be called a vehicle display device.
  • the user interface device 200 may be operated under the control of the control unit 170.
  • the object detection device 300 is a device for detecting objects located outside the vehicle 100.
  • Objects may be various objects related to the operation of the vehicle 100. Objects may include lanes, other vehicles, pedestrians, two-wheeled vehicles, traffic signals, lights, roads, structures, speed bumps, landmarks, animals, etc.
  • Objects can be classified into moving objects and fixed objects.
  • a moving object may be a concept that includes other vehicles and pedestrians.
  • a fixed object may be a concept including a traffic signal, road, or structure.
  • the object detection device 300 may include a camera 310, radar 320, lidar 330, ultrasonic sensor 340, infrared sensor 350, and object detection processor 370.
  • the object detection apparatus 300 may further include other components in addition to the components described, or may not include some of the components described.
  • the camera 310 may be located at an appropriate location outside the vehicle to obtain images of the exterior of the vehicle.
  • the camera 310 may be a mono camera, a stereo camera 310a, an Around View Monitoring (AVM) camera 310b, or a 360-degree camera.
  • AVM Around View Monitoring
  • camera 310 may be placed close to the front windshield, inside the vehicle, to obtain an image of the front of the vehicle.
  • the camera 310 may be placed around the front bumper or radiator grill.
  • the camera 310 may be placed close to the rear windshield in the interior of the vehicle to obtain an image of the rear of the vehicle.
  • the camera 310 may be placed around the rear bumper, trunk, or tailgate.
  • the camera 310 may be placed close to at least one of the side windows inside the vehicle to obtain an image of the side of the vehicle.
  • the camera 310 may be placed around a side mirror, fender, or door.
  • the camera 310 may provide the acquired image to the object detection processor 370.
  • the radar 320 may include an electromagnetic wave transmitting unit and a receiving unit.
  • the radar 320 may be implemented as a pulse radar or continuous wave radar based on the principle of transmitting radio waves.
  • the radar 320 may be implemented in a frequency modulated continuous wave (FMCW) method or a frequency shift keyong (FSK) method depending on the signal waveform among the continuous wave radar methods.
  • FMCW frequency modulated continuous wave
  • FSK frequency shift keyong
  • the radar 320 detects an object using electromagnetic waves based on a Time of Flight (TOF) method or a phase-shift method, and determines the location of the detected object, the distance to the detected object, and the relative speed. can be detected.
  • TOF Time of Flight
  • phase-shift method determines the location of the detected object, the distance to the detected object, and the relative speed. can be detected.
  • the radar 320 may be placed at an appropriate location outside the vehicle to detect objects located in front, behind, or on the sides of the vehicle.
  • LiDAR 330 may include a laser transmitter and a receiver. LiDAR 330 may be implemented in a time of flight (TOF) method or a phase-shift method.
  • TOF time of flight
  • LiDAR 330 may be implemented as a driven or non-driven type.
  • the LIDAR 330 When implemented in a driven manner, the LIDAR 330 is rotated by a motor and can detect objects around the vehicle 100.
  • the LIDAR 330 can detect objects located within a predetermined range based on the vehicle 100 through optical steering.
  • the vehicle 100 may include a plurality of non-driven LIDARs 330.
  • the LIDAR 330 detects an object via laser light based on a time of flight (TOF) method or a phase-shift method, and determines the location of the detected object, the distance to the detected object, and Relative speed can be detected.
  • TOF time of flight
  • phase-shift method determines the location of the detected object, the distance to the detected object, and Relative speed can be detected.
  • Lidar 330 may be placed at an appropriate location outside the vehicle to detect objects located in front, behind, or on the sides of the vehicle.
  • the ultrasonic sensor 340 may include an ultrasonic transmitter and a receiver.
  • the ultrasonic sensor 340 can detect an object based on ultrasonic waves and detect the location of the detected object, the distance to the detected object, and the relative speed.
  • the ultrasonic sensor 340 may be placed at an appropriate location outside the vehicle to detect objects located in front, behind, or on the sides of the vehicle.
  • the infrared sensor 350 may include an infrared transmitter and a receiver.
  • the infrared sensor 340 can detect an object based on infrared light, and detect the location of the detected object, the distance to the detected object, and the relative speed.
  • the infrared sensor 350 may be placed at an appropriate location outside the vehicle to detect objects located in front, behind, or on the sides of the vehicle.
  • the object detection processor 370 may control the overall operation of each unit of the object detection device 300.
  • the object detection processor 370 can detect and track an object based on the acquired image.
  • the object detection processor 370 can perform operations such as calculating a distance to an object and calculating a relative speed to an object through an image processing algorithm.
  • the object detection processor 370 may detect and track an object based on a reflected electromagnetic wave in which the transmitted electromagnetic wave is reflected by the object and returned.
  • the object detection processor 370 may perform operations such as calculating the distance to the object and calculating the relative speed to the object, based on electromagnetic waves.
  • the object detection processor 370 may detect and track an object based on reflected laser light in which the transmitted laser is reflected by the object and returned.
  • the object detection processor 370 may perform operations such as calculating the distance to the object and calculating the relative speed to the object based on the laser light.
  • the object detection processor 370 may detect and track an object based on reflected ultrasonic waves, in which the transmitted ultrasonic waves are reflected by the object and returned.
  • the object detection processor 370 may perform operations such as calculating the distance to the object and calculating the relative speed to the object, based on ultrasonic waves.
  • the object detection processor 370 may detect and track an object based on reflected infrared light that is transmitted when the infrared light is reflected by the object and returned.
  • the object detection processor 370 may perform operations such as calculating a distance to an object and calculating a relative speed to an object based on infrared light.
  • the object detection apparatus 300 may include a plurality of object detection processors 370 or may not include the object detection processor 370.
  • the camera 310, radar 320, lidar 330, ultrasonic sensor 340, and infrared sensor 350 may each individually include a processor.
  • the object detection device 300 may be operated according to the control of the processor 170 or a processor of another device in the vehicle 100. .
  • the object detection device 400 may be operated under the control of the control unit 170.
  • the communication device 400 is a device for communicating with an external device.
  • the external device may be another vehicle, mobile terminal, or server.
  • the communication device 400 may include at least one of a transmitting antenna, a receiving antenna, a radio frequency (RF) circuit capable of implementing various communication protocols, and an RF element to perform communication.
  • RF radio frequency
  • the communication device 400 may include a short-range communication unit 410, a location information unit 420, a V2X communication unit 430, an optical communication unit 440, a broadcast transceiver 450, and a communication processor 470.
  • the communication device 400 may further include other components in addition to the components described, or may not include some of the components described.
  • the short-range communication unit 410 is a unit for short-range communication.
  • the short-range communication unit 410 includes Bluetooth (Bluetooth), RFID (Radio Frequency Identification), Infrared Data Association (IrDA), UWB (Ultra Wideband), ZigBee, NFC (Near Field Communication), and Wi-Fi (Wireless).
  • Bluetooth Bluetooth
  • RFID Radio Frequency Identification
  • IrDA Infrared Data Association
  • UWB Ultra Wideband
  • ZigBee Ultra Wideband
  • ZigBee Ultra Wideband
  • ZigBee Ultra Wideband
  • ZigBee Ultra Wideband
  • ZigBee Ultra Wideband
  • ZigBee Ultra Wideband
  • ZigBee Ultra Wideband
  • ZigBee Ultra Wideband
  • ZigBee Ultra Wideband
  • ZigBee Ultra Wideband
  • ZigBee Ultra Wideband
  • ZigBee Ultra Wideband
  • ZigBee Ultra Wideband
  • ZigBee Ultra Wideband
  • ZigBee Ultra Wideband
  • the short-range communication unit 410 may form a wireless area network and perform short-range communication between the vehicle 100 and at least one external device.
  • the location information unit 420 is a unit for acquiring location information of the vehicle 100.
  • the location information unit 420 may include a Global Positioning System (GPS) module or a Differential Global Positioning System (DGPS) module.
  • GPS Global Positioning System
  • DGPS Differential Global Positioning System
  • the V2X communication unit 430 is a unit for performing wireless communication with a server (V2I: Vehicle to Infra), another vehicle (V2V: Vehicle to Vehicle), or a pedestrian (V2P: Vehicle to Pedestrian).
  • the V2X communication unit 430 may include an RF circuit capable of implementing communication with infrastructure (V2I), communication between vehicles (V2V), and communication with pedestrians (V2P) protocols.
  • the optical communication unit 440 is a unit for communicating with an external device through light.
  • the optical communication unit 440 may include an optical transmitter that converts an electrical signal into an optical signal and transmits it to the outside, and an optical receiver that converts the received optical signal into an electrical signal.
  • the light emitting unit may be formed to be integrated with the lamp included in the vehicle 100.
  • the broadcast transceiver 450 is a unit for receiving a broadcast signal from an external broadcast management server through a broadcast channel or transmitting a broadcast signal to the broadcast management server.
  • Broadcast channels may include satellite channels and terrestrial channels.
  • Broadcast signals may include TV broadcast signals, radio broadcast signals, and data broadcast signals.
  • the communication processor 470 may control the overall operation of each unit of the communication device 400.
  • the communication device 400 may include a plurality of communication processors 470 or may not include the communication processor 470.
  • the communication device 400 may be operated under the control of the processor 170 or a processor of another device in the vehicle 100.
  • the communication device 400 may implement a vehicle display device together with the user interface device 200.
  • the vehicle display device may be called a telematics device or an AVN (Audio Video Navigation) device.
  • the communication device 400 may be operated under the control of the control unit 170.
  • the driving control device 500 is a device that receives user input for driving.
  • the vehicle 100 may be operated based on signals provided by the driving control device 500.
  • the driving control device 500 may include a steering input device 510, an acceleration input device 530, and a brake input device 570.
  • the steering input device 510 may receive an input of the direction of travel of the vehicle 100 from the user.
  • the steering input device 510 is preferably formed in a wheel shape to enable steering input by rotation.
  • the steering input device may be formed in the form of a touch screen, touch pad, or button.
  • the acceleration input device 530 may receive an input for acceleration of the vehicle 100 from the user.
  • the brake input device 570 may receive an input for decelerating the vehicle 100 from the user.
  • the acceleration input device 530 and the brake input device 570 are preferably formed in the form of pedals. Depending on the embodiment, the acceleration input device or the brake input device may be formed in the form of a touch screen, touch pad, or button.
  • the driving control device 500 may be operated under the control of the control unit 170.
  • the vehicle driving device 600 is a device that electrically controls the operation of various devices in the vehicle 100.
  • the vehicle driving device 600 may include a power train driving unit 610, a chassis driving unit 620, a door/window driving unit 630, a safety device driving unit 640, a lamp driving unit 650, and an air conditioning driving unit 660. You can.
  • the vehicle driving device 600 may further include other components in addition to the components described, or may not include some of the components described.
  • the power train driver 610 can control the operation of the power train device.
  • the power train driving unit 610 may include a power source driving unit 611 and a transmission driving unit 612.
  • the power source driver 611 may control the power source of the vehicle 100.
  • the power source driver 610 may perform electronic control of the engine. Thereby, the output torque of the engine, etc. can be controlled.
  • the power source driving unit 611 can adjust the engine output torque according to the control of the control unit 170.
  • the power source driver 610 may control the motor.
  • the power source driving unit 610 can adjust the rotational speed and torque of the motor according to the control of the control unit 170.
  • the transmission drive unit 612 can control the transmission.
  • the transmission drive unit 612 can adjust the state of the transmission.
  • the transmission drive unit 612 can adjust the state of the transmission to forward (D), reverse (R), neutral (N), or park (P).
  • the transmission drive unit 612 can adjust the gear engagement state in the forward (D) state.
  • the chassis driver 620 can control the operation of the chassis device.
  • the chassis drive unit 620 may include a steering drive unit 621, a brake drive unit 622, and a suspension drive unit 623.
  • the steering drive unit 621 may perform electronic control of the steering apparatus within the vehicle 100.
  • the steering drive unit 621 can change the moving direction of the vehicle.
  • the brake driver 622 may perform electronic control of the brake apparatus within the vehicle 100. For example, the speed of the vehicle 100 can be reduced by controlling the operation of the brakes disposed on the wheels.
  • the brake driver 622 can individually control each of the plurality of brakes.
  • the brake driver 622 can control braking force applied to a plurality of wheels differently.
  • the suspension drive unit 623 may perform electronic control of the suspension apparatus within the vehicle 100. For example, when the road surface is curved, the suspension drive unit 623 may control the suspension device to reduce vibration of the vehicle 100. Meanwhile, the suspension driving unit 623 can individually control each of the plurality of suspensions.
  • the door/window driving unit 630 may perform electronic control of the door apparatus or window apparatus within the vehicle 100.
  • the door/window driving unit 630 may include a door driving unit 631 and a window driving unit 632.
  • the door driver 631 can control the door device.
  • the door driver 631 can control the opening and closing of a plurality of doors included in the vehicle 100.
  • the door driver 631 can control the opening or closing of the trunk or tail gate.
  • the door driver 631 can control the opening or closing of the sunroof.
  • the window driver 632 may perform electronic control of a window apparatus. It is possible to control the opening or closing of a plurality of windows included in the vehicle 100.
  • the safety device driver 640 may perform electronic control of various safety apparatuses in the vehicle 100.
  • the safety device driver 640 may include an airbag driver 641, a seat belt driver 642, and a pedestrian protection device driver 643.
  • the airbag driving unit 641 may perform electronic control of the airbag apparatus within the vehicle 100.
  • the airbag driving unit 641 may control the airbag to be deployed when danger is detected.
  • the seat belt drive unit 642 may perform electronic control of the seat belt appartus in the vehicle 100. For example, when danger is detected, the seat belt drive unit 642 can control the passenger to be fixed to the seat (110FL, 110FR, 110RL, 110RR) using the seat belt.
  • the pedestrian protection device driving unit 643 may perform electronic control of the hood lift and pedestrian airbag. For example, the pedestrian protection device driving unit 643 may control the hood to lift up and the pedestrian airbag to deploy when a collision with a pedestrian is detected.
  • the lamp driver 650 may perform electronic control of various lamp apparatuses in the vehicle 100.
  • the air conditioning driver 660 may perform electronic control of the air conditioning device (air cinditioner) in the vehicle 100. For example, when the temperature inside the vehicle is high, the air conditioning driver 660 can control the air conditioning device to operate so that cold air is supplied into the vehicle interior.
  • the air conditioning driver 660 can control the air conditioning device to operate so that cold air is supplied into the vehicle interior.
  • the vehicle driving device 600 may include a vehicle driving processor. Each unit of the vehicle driving device 600 may individually include a processor.
  • the vehicle driving device 600 may be operated under the control of the control unit 170.
  • the operation system 700 is a system that controls various operations of the vehicle 100.
  • the navigation system 700 may be operated in autonomous driving mode.
  • the driving system 700 may include a driving system 710, a parking system 740, and a parking system 750.
  • the navigation system 700 may further include other components in addition to the components described, or may not include some of the components described.
  • the navigation system 700 may include a navigation processor. Each unit of the navigation system 700 may individually include a processor.
  • the navigation system 700 when the navigation system 700 is implemented in software, it may be a sub-concept of the control unit 170.
  • the navigation system 700 includes at least one of the user interface device 200, the object detection device 300, the communication device 400, the vehicle driving device 600, and the control unit 170. It may be a concept that includes
  • the driving system 710 can drive the vehicle 100.
  • the driving system 710 may receive navigation information from the navigation system 770 and provide a control signal to the vehicle driving device 600 to drive the vehicle 100.
  • the driving system 710 may receive object information from the object detection device 300 and provide a control signal to the vehicle driving device 600 to drive the vehicle 100.
  • the driving system 710 may receive a signal from an external device through the communication device 400 and provide a control signal to the vehicle driving device 600 to drive the vehicle 100.
  • the parking system 740 can remove the vehicle 100.
  • the parking system 740 may receive navigation information from the navigation system 770 and provide a control signal to the vehicle driving device 600 to remove the vehicle 100.
  • the parking system 740 may receive object information from the object detection device 300 and provide a control signal to the vehicle driving device 600 to remove the vehicle 100.
  • the parking system 740 may receive a signal from an external device through the communication device 400 and provide a control signal to the vehicle driving device 600 to remove the vehicle 100.
  • the parking system 750 can park the vehicle 100.
  • the parking system 750 may receive navigation information from the navigation system 770 and provide a control signal to the vehicle driving device 600 to park the vehicle 100.
  • the parking system 750 may receive object information from the object detection device 300 and provide a control signal to the vehicle driving device 600 to park the vehicle 100.
  • the parking system 750 may park the vehicle 100 by receiving a signal from an external device through the communication device 400 and providing a control signal to the vehicle driving device 600.
  • the navigation system 770 may provide navigation information.
  • Navigation information may include at least one of map information, set destination information, route information according to the set destination, information on various objects on the route, lane information, and current location information of the vehicle.
  • Navigation system 770 may include memory and a navigation processor.
  • the memory can store navigation information.
  • the navigation processor may control the operation of the navigation system 770.
  • the navigation system 770 may receive information from an external device through the communication device 400 and update pre-stored information.
  • the navigation system 770 may be classified as a sub-component of the user interface device 200.
  • the sensing unit 120 can sense the status of the vehicle.
  • the sensing unit 120 includes a posture sensor (e.g., yaw sensor, roll sensor, pitch sensor), collision sensor, wheel sensor, speed sensor, and inclination sensor.
  • Sensor weight sensor, heading sensor, yaw sensor, gyro sensor, position module, vehicle forward/reverse sensor, battery sensor, fuel sensor, tire sensor, steering wheel It may include a rotational steering sensor, vehicle interior temperature sensor, vehicle interior humidity sensor, ultrasonic sensor, illuminance sensor, accelerator pedal position sensor, brake pedal position sensor, etc.
  • the sensing unit 120 includes vehicle posture information, vehicle collision information, vehicle direction information, vehicle location information (GPS information), vehicle angle information, vehicle speed information, vehicle acceleration information, vehicle tilt information, vehicle forward/backward information, and battery. Obtain sensing signals for information, fuel information, tire information, vehicle lamp information, vehicle interior temperature information, vehicle interior humidity information, steering wheel rotation angle, vehicle exterior illumination, pressure applied to the accelerator pedal, pressure applied to the brake pedal, etc. can do.
  • the sensing unit 120 includes an accelerator pedal sensor, a pressure sensor, an engine speed sensor, an air flow sensor (AFS), an intake temperature sensor (ATS), a water temperature sensor (WTS), and a throttle position sensor. (TPS), TDC sensor, crank angle sensor (CAS), etc. may be further included.
  • the vehicle interface unit 130 may serve as a passageway for various types of external devices connected to the vehicle 100.
  • the vehicle interface unit 130 may have a port that can be connected to a mobile terminal, and can be connected to a mobile terminal through the port. In this case, the vehicle interface unit 130 can exchange data with the mobile terminal.
  • the vehicle interface unit 130 may serve as a conduit for supplying electrical energy to a connected mobile terminal.
  • the vehicle interface unit 130 may provide electrical energy supplied from the power supply unit 190 to the mobile terminal under the control of the control unit 170. .
  • the memory 140 is electrically connected to the control unit 170.
  • the memory 140 can store basic data for the unit, control data for controlling the operation of the unit, and input/output data.
  • the memory 140 may be a variety of storage devices such as ROM, RAM, EPROM, flash drive, hard drive, etc.
  • the memory 140 may store various data for the overall operation of the vehicle 100, such as programs for processing or controlling the control unit 170.
  • the memory 140 may be formed integrally with the control unit 170 or may be implemented as a sub-component of the control unit 170.
  • the control unit 170 may control the overall operation of each unit within the vehicle 100.
  • the control unit 170 may be called an Electronic Control Unit (ECU).
  • ECU Electronic Control Unit
  • the various processors described above may also be named ECU.
  • the power supply unit 190 may supply power required for the operation of each component under the control of the control unit 170.
  • the power supply unit 190 may receive power from a battery inside the vehicle.
  • processors and control units 170 included in the vehicle 100 include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), and FPGAs ( It may be implemented using at least one of field programmable gate arrays, processors, controllers, micro-controllers, microprocessors, and other electrical units for performing functions.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • processors controllers, micro-controllers, microprocessors, and other electrical units for performing functions.
  • a plurality of ECUs may be installed to control each component within the vehicle 100.
  • Each ECU can perform the function of calculating data recognized from sensors and giving commands to the actuator.
  • a plurality of ECUs in the vehicle 100 were able to communicate with each other through a legacy network system such as a CAN (Controller Area Network) system without a host computer.
  • a legacy network system such as a CAN (Controller Area Network) system without a host computer.
  • the vehicle 100 communicates in real time with other vehicles, traffic and communication infrastructure, pedestrian terminals, etc. through wireless LAN (WLAN) and/or mobile communication (e.g., LTE, 5G, etc.) to provide driver convenience and transportation. It is evolving into a connected car to help with safety and provide various Internet services.
  • WLAN wireless LAN
  • mobile communication e.g., LTE, 5G, etc.
  • the vehicle 100 can also be understood as a large Internet of Things (IoT) device in the sense that the connected car itself becomes a communication device.
  • IoT Internet of Things
  • Ethernet network system As vehicle E/E architecture evolves in order to become more sophisticated as a connected car, an Ethernet network system is being introduced to the vehicle 100.
  • legacy network systems such as CAN (Controller Area Network) systems are still widely used in vehicles, the Ethernet network system needs to coexist with the legacy network system.
  • FIG. 6 is a block diagram of a hybrid network system for communication between a plurality of nodes of a vehicle according to the present disclosure.
  • the legacy network system is a CAN system and the next-generation network system is an Ethernet network system.
  • the next-generation network system is an Ethernet network system.
  • this is merely an example, and of course, other network systems may be considered for the legacy network system and the next-generation network system.
  • the vehicle 100 may include a plurality of ECUs.
  • the vehicle 100 is illustrated as including five ECUs, namely ECU1 (1010), ECU2 (1020), ECU3 (1030), ECU4 (1040), and ECU5 (1050).
  • ECU1 1010
  • ECU2 1020
  • ECU3 1030
  • ECU4 1040
  • ECU5 1050
  • each of the plurality of ECUs may be understood as a “node.”
  • ECU1 (1010) The individual internal configuration of ECU1 (1010), ECU2 (1020), ECU3 (1030), and ECU4 (1040) will be explained with ECU1 (1010) as the representative. That is, ECU2 (1020), ECU3 (1030), and ECU4 (1040) may have the same internal configuration as ECU1 (1010).
  • ECU1 (1010) includes a CAN transceiver (1011) for transmitting and receiving CAN signals (or data, messages), a CAN2ETH converter (1012) for converting the received CAN signal into an Ethernet signal, and a CAN2ETH converter (1012) for converting the received CAN signal into an Ethernet signal.
  • An Ethernet transceiver 1013 for transmitting to a node and receiving an Ethernet signal from another node, and a PCP DB ( database) (or memory) 1014. The above PCP will be explained again later.
  • ECU5 (1050) is a central ECU and may further include a network manager (1055) in addition to the CAN transceiver, CAN2ETH converter, Ethernet transserver, and PCP DB mentioned above.
  • the network manager 1055 may include a vehicle status determination module 1056 and a vehicle status notification module 1057.
  • the network manager 1055 may be configured in hardware or software. The operation of the network manager 1055 will be described later.
  • Ethernet communication can be performed between ECU1 (1010), ECU2 (1020), ECU3 (1030), ECU4 (1040), and ECU5 (1050).
  • ECU1 (1010) communicates over Ethernet with ECU5 (1050) through the L1-5 link
  • ECU1 (1020) communicates over Ethernet with ECU5 (1050) through the L2-5 link
  • ECU3 (1030) An example is that Ethernet communication is performed with ECU5 (1050) through this L3-5 link
  • ECU4 (1040) performs Ethernet communication with ECU5 (1050) through the L4-5 link.
  • the plurality of ECUs can perform Ethernet communication with each other through different links.
  • Each ECU (1010, 1020, 1030, 1040, 1050) may control at least one sensor and/or at least one actuator (eg, the aforementioned driving unit).
  • CAN communication can be performed with the CAN transceiver of the corresponding ECU.
  • the CAN sensing signal from the sensor is transmitted to the CAN transceiver of the corresponding ECU, and the transmitted CAN sensing signal is converted into an Ethernet sensing signal through the CAN2ETH converter of the corresponding ECU and transmitted through the Ethernet transceiver of the corresponding ECU. Can be transmitted to other nodes.
  • Ethernet driving signal from another node is received through the Ethernet transceiver of the corresponding ECU, and the received Ethernet driving signal is converted into a CAN driving signal through the CAN2ETH converter of the corresponding ECU and transmitted to the actuator through the CAN transceiver of the corresponding ECU. can be sent to
  • Ethernet communication can be performed with the Ethernet transceiver of the corresponding ECU.
  • the Ethernet sensing signal from the sensor can be directly transmitted to the Ethernet transceiver of the corresponding ECU and transmitted to another node without passing through the CAN2ETH converter of the corresponding ECU.
  • An Ethernet driving signal from another node can be received through the Ethernet transceiver of the corresponding ECU and directly transmitted to the actuator without passing through the CAN2ETH converter of the corresponding ECU.
  • ECU1 controls sensor 1-1 (1111) and sensor 1-2 (1112)
  • ECU2 controls sensor 2 (1121)
  • ECU3 controls sensor 1-1 (1111) and sensor 1-2 (1112). It is illustrated as controlling 3 (1131).
  • each ECU may be configured to control more or fewer sensors and/or actuators.
  • Figure 7 shows the frame structure of a CAN signal and an Ethernet signal that can be used in one embodiment of the present disclosure.
  • the CAN signal includes a Start of Frame (SOF) field, an Identifier (ID) field, a Remote Transmission Request (RTR) field, a control field data field, a Cyclic Redundancy Check (CRC) field, an Acknowledge (ACK) field, and an End of Frame (EOF) field. ) fields can be included.
  • SOF Start of Frame
  • ID Identifier
  • RTR Remote Transmission Request
  • CRC Cyclic Redundancy Check
  • ACK Acknowledge
  • EEF End of Frame
  • the SOR field indicates the beginning of the frame of the CAN signal and may include information for synchronization of all nodes.
  • the ID field may include 11 bits of identification information (ID) of the CAN signal.
  • ID identification information
  • the CAN ID value of the CAN signal can be set to one of 0 to 2047, and the higher the priority, the lower the CAN ID value can be set. That is, the CAN signal with the CAN ID value of 0 may have the highest priority, and the CAN signal with the CAN ID value of 2047 may have the lowest priority.
  • the RTR field may include information to distinguish whether the CAN signal corresponds to a data frame or a remote frame.
  • the control field may include a 2-bit IDentifier Extension (IDE) bit and a 4-bit Data Length Code (DLC).
  • IDE IDentifier Extension
  • DLC Data Length Code
  • the data field may contain data for transmission from one node to another node.
  • the ACK field may include information indicating whether the CAN signal was received correctly.
  • the EOF field may include information to indicate the end of the frame of the CAN signal.
  • the Ethernet signal includes a destination MAC (Media Access Control) address field, a source MAC address field, a virtual local area network (VRAN) tag field, a Type/Length field, a payload field, and a Frame Check Sequence (FCS). Can contain fields.
  • MAC Media Access Control
  • VRAN virtual local area network
  • FCS Frame Check Sequence
  • the destination MAC address field may include MAC address information of the node that will receive the Ethernet signal.
  • the source MAC address field may include MAC address information of the node transmitting the Ethernet signal.
  • the VRAN tag field may include information on the VLAN to which the Ethernet signal belongs.
  • the VRAN tag field may include a tag protocol identifier (TPID) field, a priority code point (PCP) field, a canonical format identifier (CFI) field, and a VLAN identifier (VID) field.
  • TPID tag protocol identifier
  • PCP priority code point
  • CFI canonical format identifier
  • VIP VLAN identifier
  • the TPID field may include information to indicate that the VLAN tag field exists after the source MAC address field.
  • the PCP field may include 3 bits of information regarding the priority of the Ethernet signal.
  • Ethernet signals with PCP3 priority are transmitted at the Critical Applications (CA) level
  • Ethernet signals with PCP2 priority are transmitted at the Excellent Effort (EE) level
  • Ethernet signals with PCP1 priority are transmitted at the BE ( It can be transmitted at the Best Effort level. That is, if there are three Ethernet signals each with priorities PCP1, PCP2, and PCT3, the Ethernet signal with priority PCP3 is transmitted at the fastest speed, the Ethernet signal with priority PCP1 is transmitted at the slowest speed, and the Ethernet signal with priority PCP2 is transmitted at the slowest speed. Ethernet signals with priority can be transmitted at intermediate speeds.
  • the CFI information may include information regarding whether the Ethernet signal can be dropped in a congestion situation in the Ethernet network.
  • the type/length field may mean the data size of the payload field if the value of this field is 1,500 or less, and otherwise, it may mean the type of the Ethernet signal.
  • the payload field may include a payload for transmission by the Ethernet signal.
  • the FCS field may include information for checking errors in transmission and reception of the Ethernet signal.
  • Figure 8 is an example of a PCP table according to an embodiment of the present disclosure.
  • the CAN signal whose CAN ID belongs to the first range is mapped to PCP 3 priority (or the corresponding PCP value), and the CAN signal whose CAN ID belongs to the second range is mapped to the PCP 2 priority (or the corresponding PCP value). It is mapped to a PCP value), and for a CAN signal whose CAN ID belongs to the third range, it is mapped to a PCP 1 priority (or a PCP value corresponding thereto).
  • the CAN ID in the first range is 0 to 500
  • the CAN ID in the second range is 501 to 1000
  • the CAN ID in the third range is 1001 to 2047, but the present disclosure is not limited thereto.
  • FIG. 9 is a block diagram of a hybrid network system for communication between a plurality of nodes of a vehicle according to the present disclosure.
  • FIG. 10 shows a flow chart in which a CAN signal is converted into an Ethernet signal and transmitted between nodes according to the PCP table of FIG. 8.
  • Figure 9 shows a case where the CAN signal generated by the sensor 1-1 (1111) controlled by the ECU1 (1010) is converted into an Ethernet signal in the ECU1 (1010) and transmitted to the ECU4 (1040), which is the target ECU. It is illustrating.
  • the CAN transceiver 1011 of the ECU1 (1010) may receive the CAN signal generated by the sensor 1-1 (1111) and transmit it to the CAN2ETH converter 1012 of the ECU1 (1010) [S101].
  • the CAN2ETH converter 1012 extracts the CAN ID from the ID field of the CAN signal and searches the PCP priority mapped to the extracted CAN ID by referring to the PCP table of the PCP DB 1014 [S102 ].
  • the CAN2ETH converter 1012 may convert the CAN signal into an Ethernet signal so that a value corresponding to the retrieved PCP priority is filled in the PCP field and transmit the converted Ethernet signal to the Ethernet transceiver 1013 [S103 ].
  • the Ethernet transceiver 1013 has three classes of queues, a first class queue (e.g., SR (Stream Reservation)-A class queue), and a second class queue (e.g., SR (Stream Reservation)).
  • a buffer (not shown) that operates a level B queue) and a third level queue (for example, a Best Effort (BE) level queue) may be operated.
  • the first rank queue is a queue that transmits data through the widest bandwidth among the three rank queues
  • the third rank queue is a queue that transmits data through the narrowest bandwidth among the three rank queues
  • the second rank queue is a queue that transmits data through the narrowest bandwidth among the three rank queues.
  • the queue may be a queue that transmits data through an intermediate bandwidth among the three levels of queues.
  • First-level queues and second-level queues may only be responsible for up to a certain percentage (eg, 75%) of the total network bandwidth.
  • the Ethernet transceiver 1013 assigns an Ethernet signal with a PCP 3 priority to a first-class queue, an Ethernet signal with a PCP 2 priority to a second-class queue, and an Ethernet signal with a PCP 3 priority. May be assigned to level 3 queue.
  • the Ethernet signal can be transmitted to the ECU4 (1040) through the assigned queue [S104].
  • an Ethernet signal with PCP3 priority can be transmitted at the fastest speed
  • an Ethernet signal with PCP1 priority can be transmitted at the slowest speed
  • an Ethernet signal with PCP2 priority can be transmitted at an intermediate speed
  • the sensor 2 (1121) of the ECU2 (1020) is important for the safe driving of the vehicle 100 and transmits an Ethernet signal that needs to be transmitted urgently (for example, an object located in the front, rear, or side of the vehicle). Assume that it is an Ethernet-based device that generates a radar or image signal for detection, and that the generated Ethernet signal needs to be quickly transmitted to the ECU4 (1040) for safe driving of the vehicle (100).
  • Ethernet signals that need to be transmitted quickly for safe driving will be referred to as “emergency Ethernet signals.”
  • the ECU2 (1020) can be assigned a priority of PCP 3 and assigned to the first level queue of the ECU2 (1020).
  • Ethernet signals with PCP 3 priority for example, Ethernet signals converted from CAN signals to have PCP 3 priority
  • the CAN ID in the first range is 0 to 100
  • the CAN ID in the second range is 101 to 800
  • the CAN ID in the third range is 801 to 2047.
  • the number of Ethernet signals converted from CAN signals with CAN IDs in the second range increases and a second-level queue must be used.
  • the second range Ethernet signal Latency may occur in transmission of the second range Ethernet signal.
  • the second range Ethernet signal and the second range Ethernet signal may, for example, be related to infotainment data within the vehicle 100. If latency occurs in transmission of the infotainment data even when the vehicle 100 is not driving, the user It may cause discomfort to you. Accordingly, the PCP table needs to be operated flexibly according to the driving situation of the vehicle 10.
  • FIG. 11 is an example of a PCP table according to an embodiment of the present disclosure.
  • PCP has priority 3 and is assigned to the first level queue of the corresponding ECU.
  • the emergency Ethernet signal may not necessarily have PCP 3 priority and be assigned to the first level queue of the corresponding ECU.
  • the emergency Ethernet signal is also divided into a first emergency Ethernet signal and a second emergency Ethernet signal according to its importance, so that the more important first emergency Ethernet signal has PCP 3 priority and is the first level of the corresponding ECU. It can be assigned to a queue, and the less important second emergency Ethernet signal can be assigned to the second level queue of the corresponding ECU by having PCP 2 priority.
  • FIG. 11 will be explained based on the first emergency Ethernet signal and the second emergency Ethernet signal.
  • the CAN ID in the first range, the CAN ID in the second range, and the CAN ID in the third range may be given different PCP priorities depending on the current situation of the vehicle 100.
  • the current situation of the vehicle 100 can be divided into four situations, that is, a first situation, a second situation, a third situation, and a fourth situation. This is just an example, and of course it can be divided into fewer or more situations.
  • the first situation is a situation in which it is judged to be good to secure more than 75% of the bandwidth required for transmission of the emergency Ethernet signal (hereinafter referred to as the bandwidth for the emergency Ethernet signal), and the second situation is a situation in which the bandwidth for the emergency Ethernet signal is less than 75% and more than 50%.
  • the bandwidth for the emergency Ethernet signal is less than 75% and more than 50%.
  • the third situation is a situation where it is judged that it is sufficient to secure less than 50% but more than 25% of the bandwidth for the emergency Ethernet signal
  • the fourth situation is when the bandwidth for the emergency Ethernet signal is secured to less than 25%. It may be a situation that is judged to be possible.
  • the first situation is a situation in which the safe driving of the vehicle 100 must be considered the most important (for example, a high-speed driving situation in rainy weather), and the safety of the vehicle 100 increases from the second to the fourth situation.
  • driving may be considered less important (e.g., a stopped situation).
  • the numerical range of the bandwidth for the emergency Ethernet signal according to each situation is illustrative and may be a different numerical range.
  • the situation of the vehicle 100 is based on at least one of several factors that may affect the safety of the vehicle 100, such as the current driving speed of the vehicle 100, current weather, current driving time, and driving road conditions. It may be determined by the vehicle situation determination module 1056 of the network manager 1055 of the central ECU5 1050. The vehicle situation determination module 1056 may receive signals about various factors that may affect the safety from the corresponding ECU.
  • FIG. 11 illustrates that the CAN ID is divided into four ranges in the PCP table, that is, a first range, a second range, a third range, and a fourth range. That is, in Figure 11, the CAN ID in the first range is 0 to 500, the CAN ID in the second range is 501 to 1000, the CAN ID in the third range is 1001 to 1500, and the CAN ID in the fourth range is 1501 to 2047. Although the examples are relatively substantially equally divided, the present disclosure is not limited thereto.
  • a CAN signal with a CAN ID in the first range is mapped to PCP 2 priority
  • a CAN signal with a CAN ID in the second to fourth ranges is mapped to PCP 1 priority.
  • a CAN signal whose CAN ID falls within the first range is mapped to PCP 3 priority
  • a CAN signal whose CAN ID falls within the second range is mapped to PCP 2 priority
  • a CAN signal whose CAN ID falls within the third range is mapped to PCP 2 priority. It is illustrated that the CAN signal belonging to the fourth range is mapped to PCP 1 priority.
  • CAN signals whose CAN ID belongs to the first range are mapped to PCP 3 priority
  • CAN signals whose CAN ID belongs to the second and third ranges are mapped to PCP 2 priority
  • CAN signals whose CAN ID belongs to the second and third ranges are mapped to PCP 3 priority. It is illustrated that the CAN signal belonging to the fourth range is mapped to PCP 1 priority.
  • the CAN signal in the first range is mapped to PCP 3 priority, so the Ethernet signal converted from the CAN signal in the first range, that is, the Ethernet signal in the first range and the first emergency Ethernet signal, are Level 1 queues can be shared.
  • the second emergency Ethernet signal shares a second rank queue with the Ethernet signal in the first range in the first situation, but is converted from the Ethernet signal in the first range and the CAN signal in the second range in the second situation; That is, it is possible to share the second range Ethernet signal and the second level queue.
  • the second emergency Ethernet signal shares the second-range Ethernet signal with the second-range Ethernet signal in the third situation, but in the fourth situation it shares the second-range Ethernet signal with the third-range Ethernet signal and the second-rank queue. You can share it.
  • FIGS. 12 to 14 are block diagrams of a hybrid network system for communication between a plurality of nodes of a vehicle according to the present disclosure.
  • FIG. 14 shows a flow chart in which a CAN signal is converted into an Ethernet signal and transmitted between nodes according to the PCP table of FIG. 11.
  • the CAN signal generated by the sensor 1-1 (1111) controlled by the ECU1 (1010) is converted into an Ethernet signal in the ECU1 (1010) and transmitted to the ECU4 (1040), which is the target ECU. ) will be explained using the case of transmission as an example.
  • Data on elements necessary to determine the situation of the vehicle 100 (e.g., current speed, current weather, current driving time, driving road conditions) (hereinafter referred to as data for determining vehicle situation) is stored in the central ECU5 (1050). It can be transmitted to the network manager 1055.
  • the data for determining the vehicle situation is sensed by the ECU1 (1010) as a CAN signal by the sensor 1-2 (1112) and transmitted to the CAN transceiver (1011) and the CAN2ETH converter (1012) of the ECU1 (100). And it is exemplified that it is transmitted to the network manager 1055 of the central ECU5 (1050) through the Ethernet transceiver 1013.
  • the data for determining the vehicle situation from another ECU can be transmitted to the network manager 1055 of the central ECU5 1050. Since the CAN signal is converted to an Ethernet signal and transmitted between nodes was previously described, detailed description will be omitted.
  • the sensor that senses the data for determining the vehicle situation is necessarily a CAN-based device, and therefore the data for determining the vehicle situation does not necessarily have to be sensed as a CAN signal.
  • the sensor that senses the data for determining the vehicle situation may be an Ethernet-based device, and therefore, of course, the data for determining the vehicle situation may be sensed as an Ethernet signal.
  • the network manager 1055 may receive the vehicle situation determination data from at least one ECU and determine the current situation of the vehicle 100 in real time through the vehicle situation determination module 1056.
  • the network manager 1055 may notify the current status of the vehicle 100 to at least one ECU of the vehicle 100 through the vehicle status notification module 1057.
  • the network manager 1055 informs all ECUs of the vehicle 100 about the current situation of the vehicle 100 (e.g., one of the first to fourth situations described above). situation) can be notified.
  • the current status of the vehicle 100 can be transmitted as an Ethernet signal to the corresponding CAN2ETH converter through the corresponding Ethernet transceiver of each ECU [S141].
  • the CAN transceiver 1011 of the ECU1 (1010) may receive the CAN signal generated by the sensor 1-1 (1111) and transmit it to the CAN2ETH converter 1012 of the ECU1 (1010) [S101 ].
  • the CAN2ETH converter 1012 extracts the CAN ID from the ID field of the CAN signal and refers to the PCP table of the PCP DB 1014 based on the current status of the received vehicle 100.
  • the PCP priority mapped to the ID can be searched [S102].
  • the CAN2ETH converter 1012 converts the CAN signal into an Ethernet signal so that a value corresponding to the retrieved PCP priority (hereinafter also referred to as “PCP value”) is filled in the PCP field, and converts the converted Ethernet signal into the Ethernet signal. It can be transmitted to the transceiver 1013 [S103].
  • PCP value a value corresponding to the retrieved PCP priority
  • the Ethernet transceiver 1013 assigns an Ethernet signal with a PCP 3 priority to a first-class queue, an Ethernet signal with a PCP 2 priority to a second-class queue, and an Ethernet signal with a PCP 3 priority. May be assigned to level 3 queue.
  • the Ethernet signal can be transmitted to the ECU4 (1040) through the assigned queue [S104].
  • the first emergency Ethernet signal and the second emergency Ethernet signal can be transmitted between each node through the bandwidth secured by dynamic operation of the PCP table according to the vehicle's situation.
  • FIG. 15 shows another flowchart in which a CAN signal is converted into an Ethernet signal and transmitted between nodes according to the PCP table of FIG. 11.
  • the ECU1 (1010) can receive the data for determining the vehicle situation as a CAN signal from the sensor 1-2 (1112) [S151].
  • the ECU1 (1010) can convert the CAN signal into an Ethernet signal and transmit it to the central ECU (1050) [S152, S153].
  • the central ECU (1050) can receive the data for determining the vehicle situation from the ECU1 (1010) and determine in real time which of the first to fourth situations the current situation of the vehicle 100 corresponds to. [S154]. For example, the central ECU 1050 may determine the current situation by calculating the bandwidth required for transmission of the emergency Ethernet signal based on the data for determining the vehicle situation [S154].
  • the central ECU (1050) can notify the current status of the vehicle (100) to all ECUs, including the ECU1 (1010) [S155].
  • the ECU1 (1010) can receive the CAN signal generated by the sensor 1-1 (1111) and extract the CAN ID from the ID field of the CAN signal [S156].
  • the ECU1 (1010) may retrieve the PCP priority mapped to the extracted CAN ID by referring to the PCP table of the PCP DB (1014) based on the received current status of the vehicle 100 [ S157].
  • the ECU1 (1010) may convert the CAN signal to an Ethernet signal so that a value corresponding to the retrieved PCP priority is filled in the PCP field [S158].
  • the ECU1 (1010) can assign the converted Ethernet signal to a queue corresponding to the PCP priority and transmit it to the ECU4 (1040) [S159].
  • the first emergency Ethernet signal and the second emergency Ethernet signal can be transmitted between each node through the bandwidth secured by dynamic operation of the PCP table according to the vehicle's situation.
  • Figures 16 and 17 show a flowchart for determining the current status of a vehicle according to an embodiment of the present disclosure.
  • the network manager 1055 may receive data for determining vehicle status from at least one ECU [S161]. Since this has been explained previously, detailed explanation will be omitted.
  • the network manager 1055 may store the received vehicle situation determination data as a table [S162].
  • the received vehicle situation determination data may be temporarily stored in volatile memory or permanently stored in non-volatile memory. This is for the network manager 1055 to determine the current status of the vehicle by collecting data for determining vehicle status received from various nodes.
  • the network manager 1055 can determine the current situation of the vehicle based on the received vehicle situation determination data [S163]. This will be explained again with further reference to FIG. 17.
  • the network manager 1055 may transmit the current status of the identified vehicle or the PCP table reference standard to each ECU [S164].
  • the data for determining the vehicle situation includes whether the vehicle is driving and the current weather, and the current weather of the vehicle is determined based on the data for determining the vehicle situation and the PCP table of FIG. 11. I will explain how to understand the situation.
  • the network manager 1055 can determine whether the vehicle 100 is currently driving [S171].
  • the network manager 1055 can determine whether the current weather is rainy [S172].
  • the network manager 1055 may determine that the current situation of the vehicle is a first situation in which securing a first bandwidth (for example, 75% or more) is required for transmission of the emergency Ethernet signal. [S173].
  • a first bandwidth for example, 75% or more
  • the network manager 1055 determines that the current situation of the vehicle is a second situation that requires securing a second bandwidth (for example, less than 75% and more than 50%) for transmission of the emergency Ethernet signal. It can be done [S174].
  • a second bandwidth for example, less than 75% and more than 50%
  • the network manager 1055 can determine whether the current weather is rainy [S175].
  • the network manager 1055 determines that the current situation of the vehicle is a third situation that requires securing a third bandwidth (for example, less than 50% and more than 25%) for transmission of the emergency Ethernet signal. It can be done [S176].
  • a third bandwidth for example, less than 50% and more than 25%
  • the network manager 1055 may determine that the current situation of the vehicle requires securing a fourth bandwidth (for example, less than 25%) for transmission of the emergency Ethernet signal [S177 ].
  • FIG. 18 is an example of a PCP table according to an embodiment of the present disclosure
  • FIG. 19 shows a flowchart for determining the current status of a vehicle according to an embodiment of the present disclosure.
  • the current situation of the vehicle 100 can be divided into two situations, that is, a first situation and a second situation.
  • the first situation may be a situation in which it is judged to be good to secure more than 50% of the bandwidth for the emergency Ethernet signal
  • the second situation may be a situation in which it is judged to be good to secure less than 50% of the bandwidth for the emergency Ethernet signal.
  • CAN signals whose CAN IDs belong to the first range are mapped to PCP 3 priority
  • CAN signals whose CAN IDs belong to the second and third ranges are mapped to PCP 2 priorities
  • CAN signals whose CAN IDs belong to the second and third ranges are mapped to PCP 3 priorities. It is illustrated that the CAN signal belonging to the fourth range is mapped to PCP 1 priority.
  • the first emergency Ethernet signal may share the second rank queue with the first range Ethernet signal and the second range Ethernet signal in the first situation.
  • the CAN signal in the first range is mapped to PCP 3 priority, so the Ethernet signal in the first range and the first emergency Ethernet signal can share the first level queue.
  • the second emergency Ethernet signal may share the second level queue with the second range Ethernet signal and the third range Ethernet signal.
  • the vehicle situation determination data includes whether the vehicle is driving, and the current situation of the vehicle is determined based on the vehicle situation determination data and the PCP table of FIG. 18. I will explain what to do.
  • the network manager 1055 can determine whether the vehicle 100 is currently driving [S191].
  • the network manager 1055 determines that the current situation of the vehicle is a first situation in which securing a first bandwidth (for example, 50% or more) is required for transmission of the emergency Ethernet signal. It can be judged that it is [S192].
  • a first bandwidth for example, 50% or more
  • the network manager 1055 determines that the current situation of the vehicle is a second situation in which securing a second bandwidth (for example, less than 50%) is required for transmission of the emergency Ethernet signal. It can be judged that it is [S193].
  • a second bandwidth for example, less than 50%
  • the CAN ID can be divided into four ranges, that is, the first range, the second range, the third range, and the fourth range, and the CAN ID of the first range is 0 to 500, and the CAN ID of the first range is 0 to 500.
  • the CAN ID in the second range is 501 to 1000
  • the CAN ID in the third range is 1001 to 1500
  • the CAN ID in the fourth range is 1501 to 2047.
  • the PCP is not limited to this and may be defined by various criteria. This will be explained further with reference to FIGS. 20 and 21.
  • Figures 20 and 21 are examples of PCP tables according to an embodiment of the present disclosure.
  • the CAN ID is divided into four ranges, that is, a first range, a second range, a third range, and a fourth range, so it may be divided into a relatively exponential scale. That is, the CAN ID in the first range is 0 to 50, the CAN ID in the second range is 51 to 250, the CAN ID in the third range is 251 to 1000, and the CAN ID in the fourth range is 1001 to 2047. It may be possible.
  • the CAN signals do not have to be distinguished only by the CAN ID.
  • the CAN signals may be distinguished based on their transmission periods. It is based on the fact that the shorter the transmission period of a CAN signal, the higher the importance of the CAN signal.
  • the CAN signals can be divided into three ranges, a first range, a second range, and a third range. That is, the CAN signal in the first range is a CAN signal with a signal transmission period of 0.1 seconds or less, the CAN signal in the second range is a CAN signal with a signal transmission period of more than 0.1 second and less than 0.25 seconds, and the CAN signal in the third range is a CAN signal with a signal transmission period of less than 0.25 seconds. It can be a CAN signal with a period of 0.25 seconds or less.
  • the range values of the transmission period are illustrative and are not limited thereto.
  • FIG. 22 is a block diagram of a hybrid network system for communication between a plurality of nodes of a vehicle according to the present disclosure.
  • the legacy network system is a CAN system and the next-generation network system is an Ethernet network system.
  • the next-generation network system is an Ethernet network system.
  • this is merely an example, and of course, other network systems may be considered for the legacy network system and the next-generation network system.
  • the vehicle 100 may include a plurality of ECUs.
  • the vehicle 100 is illustrated as including four ECUs, namely ECU1 (1010), ECU2 (1020), ECU3 (1030), and ECU4 (1040).
  • ECU1 1010
  • ECU2 1020
  • ECU3 1030
  • ECU4 1040
  • this is just an example, and of course the vehicle 100 may include more ECUs.
  • Each ECU (1010, 1020, 1030, 1040) has a CAN2ETH converter (1012, 1022, 1032, 1042) for converting CAN signals to Ethernet signals, and an SDN switch (1018, 1018) for SDN (Software Defined Networking) communication. 1028, 1038, 1048).
  • CAN2ETH converter 1012, 1022, 1032, 1042
  • SDN switch 1018, 1018) for SDN (Software Defined Networking) communication. 1028, 1038, 1048).
  • the indication of CAN transceiver and Ethernet transceiver in each ECU is omitted.
  • the ECU1 (1010) includes CAN2ETH converter 1 (1012) and SDN switch 1 (1018)
  • the ECU2 (1020) includes CAN2ETH converter 2 (1022) and SDN switch 2 (1028)
  • the ECU3 (1030) includes CAN2ETH converter 3 (1032) and SDN switch 3 (1038)
  • the ECU4 (1040) may include CAN2ETH converter 4 (1042) and SDN switch 4 (1048).
  • Each ECU (1010, 1020, 1030, 1040) includes at least one sensor (1111, 1121, 1131, 1141) and/or at least one actuator (e.g., the aforementioned driving unit) (1113, 1122, 1132, 1142). You can control it.
  • the ECU1 (1010) controls sensor 1 (1111) and actuator 1 (1113)
  • the ECU2 (1020) controls sensor 2 (1121) and actuator 2 (1122)
  • the ECU3 (1030) It is illustrated that controls sensor 3 (1131) and actuator 3 (1132), and the ECU4 (1040) controls sensor 4 (1141) and actuator 4 (1142).
  • each ECU may be configured to control more or fewer sensors and/or actuators.
  • the vehicle may include a host computer 1050 for managing electrical/electronic control of the vehicle 100, such as controlling the plurality of ECUs.
  • the host computer 1050 may be a high-performance computer (HPC) or a general purpose computer.
  • the host computer 1050 may include an SDN switch 5 (1058), an SDN controller 1053, a priority manager 1054, and an application 1059.
  • the host computer 1050 may be the same entity as the ECU 1050 or may be a different entity.
  • Each of the ECUs 1010, 1020, 1030, and 1040 and the host computer 1050 can be understood as a node of this network system.
  • the network system is illustrated as being composed of five nodes, but of course, it may be composed of fewer or more nodes.
  • the ECU1 (1010) is connected to the ECU2 (1020) through an L1-2 link, connected to the ECU3 (1030) through an L1-3 link, and connected to the host computer (1050) through an L1-5 link. You can.
  • the ECU2 (1020) may be connected to the ECU4 (1040) through an L2-4 link and with the host computer 1050 through an L2-5 link.
  • the ECU3 (1030) may be connected to the ECU4 (1040) through an L3-4 link and with the host computer 1050 through an L3-5 link.
  • the ECU4 (1040) can be connected to the host computer (1050) through an L4-5 link.
  • the present network system is configured so as not to have any one of these links, or the other link (for example, a link connecting the ECU1 (1010) and the ECU4 (1040) and/or the ECU2 (1020) and the Of course, the link connecting ECU3 (1030) may be further defined.
  • ECU1 (1010) The operation of the CAN2ETH converter (1012, 1022, 1032, 1042) and the SDN switch (1018, 1028, 1038, 1048) in each ECU (1010, 1020, 1030, 1040) is explained using ECU1 (1010) as an example. would. Of course, the description of ECU1 (1010) can be applied to other ECUs.
  • the CAN2ETH converter 1 (1012) can receive a signal sensed by the sensor 1 (1111) controlled by the ECU1 (1010).
  • the signal sensed by Sensor 1 (1111) can be transmitted to ECU1 (1010) as a CAN sensing signal based on the CAN system.
  • the CAN2ETH converter 1 (1012) can convert the CAN sensing signal (or message) into an Ethernet sensing signal (or message).
  • the SDN switch 1 (1018) is for the ECU1 (1010) to communicate an Ethernet signal with another ECU or a host computer (i.e., another node).
  • the Ethernet sensing signal can be transmitted to the SDN switch of another node. and can receive Ethernet signals from other nodes.
  • the destination Internet Protocol (IP)/Media Access Control (MAC) address of the Ethernet signal may be predefined in the SDN switch 1 (1018) depending on the type (and/or identifier) of the Ethernet signal.
  • the SDN switch 1 (1018) organizes information about the transmission path corresponding to each type of Ethernet signal (i.e., matching between the source IP/MAC address and the destination IP/MAC address or between the IP/MAC address and the output port).
  • the table can be saved. In this disclosure, the table may be referred to as a “forward table.”
  • Ethernet signals can be communicated between one ECU and another ECU or between one ECU and a host computer through an SDN switch.
  • the SDN Software Defined Networking
  • changing the bandwidth may be understood as securing the bandwidth necessary for communication.
  • the SDN switch 5 (1058) is for the host computer 1050 to communicate Ethernet signals with other ECUs. Likewise, the transmission path of the Ethernet signal is predefined in the SDN switch 5 (1058) according to the type of the Ethernet signal. Like SDN Switch 1 (1018), SDN Switch 5 (1058) can also store a forwarding table that organizes transmission paths corresponding to each type of Ethernet signal.
  • the SDN controller 1053 is responsible for the control plane within the vehicle 100, and the transmission path of the Ethernet signal in the data plane (i.e., at least one of the path pattern and bandwidth of the transmission path) can be changed depending on the communication environment within the vehicle 100, etc.
  • the priority manager 1054 monitors signals (or messages) for service communication multicast within the vehicle 100 and transmits signals with a certain priority or higher among the monitored signals to the SDN controller 1053. , This is to enable the SDN controller 1053 to secure or change a transmission path for an Ethernet signal related to service communication corresponding to a signal with a certain priority or higher.
  • the application 1059 may be an application that supports operations and/or calculations of the SDN controller 1053 and the priority manager 1054.
  • the SDN controller 1053 and the priority manager 1054 may utilize the application 1059 for their own operations and/or calculations.
  • FIG. 23 shows the packet structure of a control request message for securing a transmission path for an Ethernet signal according to an embodiment of the present disclosure
  • FIGS. 24 and 25 show the control request of FIG. 23.
  • An example is shown in which the transmission path of an Ethernet signal changes depending on the message.
  • the ECU2 (1020) When the ECU2 (1020) receives a CAN sensing signal from, for example, the sensor 2 (1121), the CAN2EHT converter 2 (1022) of the ECU2 (1020) converts the CAN sensing signal into an Ethernet sensing signal and transmits the CAN sensing signal to the ECU2 (1020). ) of the SDN switch 2 (1028), and the SDN switch 2 (1028) refers to its own forwarding table (hereinafter referred to as “forwarding table 2”) and sees the converted Ethernet sensing signal. It can be transmitted to other nodes within the network system. Let's assume that the other node receiving the Ethernet sensing signal is the ECU4 (1040). Also, let us assume that the transmission path of the Ethernet sensing signal predefined in the transmission table 2 is an L2-4 link (that is, the transmission path consists of the L2-4 link).
  • the latency of the Ethernet sensing signal is determined according to the current data traffic situation of the L2-4 link. may occur. Even if any physical problem occurs in the L2-4 link, the ECU4 (1040) may not be able to receive the Ethernet sensing signal at all.
  • the host computer (1050) sends a control request message to secure a transmission path for the Ethernet sensing signal. It can be sent to .
  • control request message may be composed of an Ethernet packet part (A) and a payload packet part (B).
  • the Ethernet packet part (A) is intended to comply with standards for TCP/IP-based communication between nodes, and includes an Ethernet packet header (ETH), a VLAN tag header (VLAN Tag) for additional information for network virtualization, It may include an IP header (IP) and a TCP header (TCP).
  • ETH Ethernet packet header
  • VLAN Tag VLAN tag header
  • IP IP header
  • TCP TCP header
  • the payload packet part (B) includes a message type (Msg. Type) indicating the type of the CAN sensing signal (or the Ethernet sensing signal), an identifier (CAN ID) of the CAN sensing signal (or the Ethernet signal), Priority of the CAN sensing signal (or the Ethernet sensing signal), data size of the CAN sensing signal (or the Ethernet sensing signal), source IP information (Src. IP) of the Ethernet sensing signal ( That is, source identifier), and destination IP information (Des. IP) of the Ethernet sensing signal (i.e., destination identifier).
  • the message type is illustrated as a network control request (NET_CTRL_REQ).
  • control request message may be transmitted to the SDN controller 1053 of the host computer 1050 along the L2-5 link.
  • the control request message may be generated and transmitted only when the priority of the Ethernet sensing signal is above a certain level, or it may be generated and transmitted regardless of the priority.
  • the SDN controller 1053 can determine the priority of the Ethernet sensing signal that the ECU2 (1020) intends to transmit from the control request message.
  • the SDN controller 1053 uses the information in the control request message to set the scheduled transmission path of the Ethernet sensing signal to the L2-4 link, as shown in FIG. 25. It can be seen that it is (transmission path 1). That is, the SDN controller 1053 can determine that the path pattern of the scheduled transmission path consists of the L2-4 link. The SDN controller 1053 can also determine the data size of the Ethernet sensing signal from the control request message.
  • the SDN controller 1053 can check whether the bandwidth required to transmit the Ethernet sensing signal in the L2-4 link is available.
  • the required bandwidth may vary depending on the data size of the Ethernet sensing signal. For example, the required bandwidth may be proportional to the data size of the Ethernet sensing signal.
  • the required bandwidth may be the same regardless of the priority or may vary depending on the priority. If the required bandwidth is different depending on the priority, the required bandwidth may be wide if the priority is high and narrow if the priority is low. Alternatively, if the required bandwidth is different depending on the priority, the required bandwidth may be narrow if the priority is high and wide if the priority is low.
  • the SDN controller 1053 can maintain the scheduled transmission path (transmission path 1) of the Ethernet sensing signal, that is, the L2-4 link. That is, the pattern of the transmission path can be maintained consisting of the L2-4 link. In addition, the SDN controller 1053 can secure the bandwidth necessary for transmission of the Ethernet sensing signal in the L2-4 path.
  • the Ethernet sensing signal can be transmitted according to the predetermined transmission path.
  • the SDN controller 1053 maintains the scheduled transmission path (transmission path 1), but blocks other communication traffic with lower priority than the Ethernet sensing signal to prevent the Ethernet sensing signal. Bandwidth for transmission can be secured.
  • the Ethernet sensing signal can be transmitted according to the predetermined transmission path.
  • the bandwidth required for transmission of the Ethernet sensing signal on the scheduled transmission path may not be secured.
  • a physical problem may occur in the scheduled transmission path and the scheduled transmission path may be blocked, making Ethernet communication through it completely impossible.
  • This case can also be understood as a type of case in which the bandwidth required for transmission of the Ethernet sensing signal cannot be secured.
  • the SDN controller 1053 secures the bandwidth for transmission of the Ethernet sensing signal through the scheduled transmission path (i.e., path pattern of the transmission path) (transmission path 1), as shown in FIG. 25.
  • the scheduled transmission path i.e., path pattern of the transmission path
  • transmission path 1 i.e., path pattern of the transmission path
  • FIG. 25 illustrates that the other transmission path (transmission path 2) (i.e., path pattern) consists of the L2-5 link and the S4-5 link.
  • the other transmission path may consist of the L1-2 link, the L1-3 link, and the L3-4 link.
  • the SDN controller 1053 switches the SDN switch 2 1028 involved in the transmission path 2 for transmission of the Ethernet sensing signal.
  • the SDN switch 2 (1028) and the SDN switch 5 (1058) can be controlled to change the forwarding table 2 of and the forwarding table 5 of the SDN switch 5 (1058).
  • the transmission table 2 can be changed so that when the SDN switch 2 (1028) receives the Ethernet sensing signal from the CAN2ETH converter 2 (1022), it transmits it to the SDN switch 5 (1058).
  • the forwarding table 5 can be changed so that when the SDN switch 5 (1058) receives the Ethernet sensing signal from the SDN switch 2 (1028), it transmits it to the SDN switch 4 (1048).
  • the Ethernet sensing signal can be transmitted through the other transmission path.
  • Computer-readable media includes all types of recording devices that store data that can be read by a computer system. Examples of computer-readable media include HDD (Hard Disk Drive), SSD (Solid State Disk), SDD (Silicon Disk Drive), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. It also includes those implemented in the form of carrier waves (e.g., transmission via the Internet). Additionally, the computer may include a control unit of the autonomous driving system. Accordingly, the above detailed description should not be construed as restrictive in all respects and should be considered illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Mechanical Engineering (AREA)
  • Small-Scale Networks (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 개시는 전술한 문제점 및 이와 연관된 다양한 문제점을 해결하기 위해 제안되는 것으로서, 차량 내 제 1 노드가 CAN(Controller Area Network) 통신을 통해 제 1 노드의 제 1 센서로부터 제 1 CAN 신호를 수신하는 단계, 제 1 노드가 제 1 CAN 신호를 차량 상황에 따라서 다른 우선순위 정보를 갖는 제 1 이더넷 신호로 변환하는 단계, 및 제 1 노드가 이더넷 통신을 통해 상기 변환된 제 1 이더넷 신호를 상기 차량 내 제 2 노드로 전송하는 단계를 포함하는 차량 내 네트워크의 제어 방법 등을 제공할 수 있다.

Description

차량 내 네트워크 및 이의 제어 방법
본 개시는 차량 내 이종 프로토콜 메시지를 전송하기 위한 차량 내 네트워크 및 이의 제어 방법에 관한 것이다.
차량을 이용하는 사용자의 안전 및 편의를 위해, 차량에는 각종 센서와 장치가 구비되고 있으며, 차량의 기능이 다양화 되고 있다. 이러한 차량의 기능은 운전자의 편의를 도모하기 위한 편의 기능, 그리고 운전자 및/또는 보행자의 안전을 도모하기 위한 안전 기능으로 나뉠 수 있다.
차량의 편의 기능은 차량에 인포테인먼트(information + entertainment) 기능을 부여하고, 부분적인 자율 주행 기능을 지원하거나, 야간 시야나 사각 대와 같은 운전자의 시야 확보를 돕는 등의 운전자 편의와 관련될 수 있다. 예를 들어, 운전자 편의와 관련해서는 적응 순향 제어(active cruise control, ACC), 스마트주자시스템(smart0020parking assist system, SPAS), 나이트비전(night vision, NV), 헤드 업 디스플레이(head up display, HUD), 어라운드 뷰 모니터(around view monitor, AVM), 적응형 상향등 제어(adaptive headlight system, AHS) 기능 등이 있다.
또한, 차량의 안전 기능과 관련해서는 차선 이탈 경고 시스템(lane departure warning system, LDWS), 차선 유지 보조 시스템(lane keeping assist system, LKAS), 자동 긴급 제동(autonomous emergency braking, AEB) 기능 등이 있다.
최근에는 차량 E/E 아키텍처의 진화에 따라 이더넷 네트워크 시스템이 차량에 적용되고 있다. 그런데, 차량에는 여전히 CAN(Controller Area Network) 시스템과 같은 레거시 네트워크 시스템이 널리 쓰이고 있기 때문에 이더넷 네트워크 시스템이 레거시 네트워크 시스템과 공존할 필요가 있다.
차량 내 이더넷 네트워크 시스템에서 CAN 신호가 생성되어 이더넷 신호로 변환되어 전송될 수도 있고, 애초에 이더넷 신호가 생성되어 전송될 수도 있다.
CAN 시스템에서의CAN 신호의 경우 정적 네트워크(static network) 구성과 CAN 통신의 특성으로 인해 저지연(low latency) 통신이 가능하지만, 이더넷 네트워크 시스템에서 특히 안전과 관련된 이더넷 신호의 경우 이더넷 통신 특성으로 인해 고지연(high latency)이 발생될 수 있어 차량 운행 안전에 문제가 발생될 수 있다.
본 개시는 전술한 문제점 및 이와 연관된 다양한 문제점을 해결하기 위해 제안되는 것으로서, 차량 내 이더넷 네트워크 시스템에서 안전과 관련된 이더넷 신호의 전송시 지연이 해소될 수 있는 차량 내 네트워크 및 이의 제어 방법을 제공하는 것을 목적으로 한다.
상기와 같은 목적을 달성하기 위해 본 개시의 일 측면에 따르면, 차량 내 제 1 노드가 CAN(Controller Area Network) 통신을 통해 제 1 노드의 제 1 센서로부터 제 1 CAN 신호를 수신하는 단계, 제 1 노드가 제 1 CAN 신호를 차량 상황에 따라서 다른 우선순위 정보를 갖는 제 1 이더넷 신호로 변환하는 단계, 및 제 1 노드가 이더넷 통신을 통해 상기 변환된 제 1 이더넷 신호를 상기 차량 내 제 2 노드로 전송하는 단계를 포함하는 차량 내 네트워크의 제어 방법을 제공할 수 있다.
상기 우선순위 정보는 PCP(Priority Code Point) 값을 포함할 수 있다.
제 1 노드는, 제 1 차량 상황 및 제 1 CAN ID 범위, 제 1 차량 상황 및 제 2 CAN ID 범위, 제 2 차량 상황 및 제 1 CAN ID 범위, 제 2 차량 상황 및 제 2 CAN ID 범위에 각각 대응되는 PCP 값을 갖는 PCP 테이블을 저장할 수 있다.
상기 제어 방법은, 제 1 노드가 상기 차량 내 제 3 노드의 네트워크 매니저로부터 상기 차량 상황을 수신하는 단계를 더욱 포함할 수 있다.
상기 제어 방법은, 상기 네트워크 매니저가 상기 차량 내 적어도 하나의 노드로부터 차량 상황 판단용 데이터를 수신하는 단계, 및 상기 네트워크 매니저가 상기 차량 상황 판단용 데이터에 기반하여 상기 차량 상황을 판단하는 단계를 더욱 포함할 수 있다.
상기 차량 상황 판단용 데이터는 주행 속도, 날씨, 시간, 주행 도로 여건 중 적어도 하나에 관한 정보를 포함할 수 있다.
상기 제어 방법은, 상기 네트워크 매니저가 상기 판단된 차량 상황을 상기 차량 내 모든 노드에 전송하는 단계를 더욱 포함할 수 있다.
상기 제어 방법은, 제 1 노드가, 상기 전송 받은 차량 상황이 제 1 차량 상황 및 제 2 차량 상황 중 어느 것에 대응되는지와, 제 1 CAN 신호의 CAN ID가 제 1 CAN ID 범위 및 제 2 CAN ID 범위 중 어느 것에 속하는지에 기반하여, 상기 PCP 테이블에서 제 1 CAN 신호를 위한 PCP 값을 검색하는 단계, 및 제 1 노드가 제 1 CAN 신호를 상기 검색된 PCP 값을 갖는 제 1 이더넷 신호로 변환하는 단계를 포함할 수 있다.
제 1 노드는, 제 1 차량 상황 및 제 1 CAN 신호 전송 주기 범위, 제 1 차량 상황 및 제 2 CAN 신호 전송 주기 범위, 제 2 차량 상황 및 제 1 CAN 신호 전송 주기 범위, 제 2 차량 상황 및 제 2 CAN 신호 전송 주기 범위에 각각 대응되는 PCP 값을 갖는 PCP 테이블을 저장할 수 있다.
상기 제어 방법은, 제 1 노드가, 상기 전송 받은 차량 상황이 제 1 차량 상황 및 제 2 차량 상황 중 어느 것에 대응되는지와, 제 1 CAN 신호의 전송 주기가 제 1 CAN 신호 전송 주기 범위 및 제 2 CAN 신호 전송 주기 범위 중 어느 것에 속하는지에 기반하여, 상기 PCP 테이블에서 제 1 CAN 신호를 위한 PCP 값을 검색하는 단계, 및 제 1 노드가 제 1 CAN 신호를 상기 검색된 PCP 값을 갖는 제 1 이더넷 신호로 변환하는 단계를 포함할 수 있다.
제 1 노드는 제 1 PCP 값을 갖는 제 1 이더넷 신호를 제 1 등급 큐를 통해 제 2 노드로 전송하고, 제 2 PCP 값을 갖는 제 1 이더넷 신호를 제 2 등급 큐를 통해 제 2 노드로 전송할 수 있다.
제 1 등급 큐의 전송 대역폭은 제 2 등급 큐의 전송 대역폭보다 넓을 수 있다.
상기 제어 방법은, 제 4 노드가 긴급 이더넷 신호를 제 1 등급 큐를 통해 다른 노드로 전송하는 단계를 포함할 수 있다.
제 4 노드는 상기 차량의 안전 운행에 필요한 데이터를 센싱하는 이더넷 기반의 제 2 센서를 포함하고, 제 2 센서는 상기 차량의 안전 운행에 필요한 데이터를 상기 긴급 이더넷 신호로서 생성할 수 있다.
상기 긴급 이더넷 신호는 제 1 긴급 이더넷 신호 및 제 2 긴급 이더넷 신호를 포함하고, 제 4 노드는 제 1 긴급 이더넷 신호를 제 1 등급 큐를 통해 다른 노드로 전송하고, 제 2 긴급 이더넷 신호를 제 2 등급 큐를 통해 다른 노드로 전송할 수 있다.
제 1 노드 내지 제 4 노드는 상기 차량 내의 ECU(Electronic Control Unit)일 수 있다.
제 1 노드는, 제 1 센서로부터 제 1 CAN 신호를 송수신하기 위한 CAN 트랜시버, 제 1 CAN 신호를 제 1 이더넷 신호로 변환하기 위한 CAN2ETH 변환기, 제 1 이더넷 신호를 제 2 노드로 전송하기 위한 이더넷 트랜시버, 및 상기 PCP 테이블을 저장하는 PCP DB를 포함할 수 있다.
상기 이더넷 트랜시버는 상기 판단된 차량 상황을 이더넷 신호로서 상기 네트워크 매니저로부터 수신할 수 있다.
상기 제어 방법은, 제 1 이더넷 신호의 우선 순위 정보에 기반하여, 제 1 노드 및 제 2 노드 간의 전송 경로에서 제 1 이더넷 신호의 전송에 필요한 대역폭이 확보 가능한지 판단하는 단계, 상기 대역폭이 확보 가능한 경우, 제 1 이더넷 신호가 상기 전송 경로에 따라 제 2 노드에 전송되도록 제어하는 단계, 및
상기 대역폭이 확보 가능하지 않은 경우, 상기 전송 경로가 제 3 노드를 경유하도록 변경하고, 제 1 이더넷 신호가 상기 변경된 전송 경로에 따라 제 2 노드에 전송되도록 제어하는 단계를 더욱 포함할 수 있다.
또한, 본 개시의 일 측면에 따르면, 제 1 노드 및 제 2 노드를 포함하고, 제 1 노드가 CAN 통신을 통해 제 1 노드의 제 1 센서로부터 제 1 CAN 신호를 수신하고, 제 1 노드가 제 1 CAN 신호를 차량 상황에 따라서 다른 우선순위 정보를 갖는 제 1 이더넷 신호로 변환하고, 제 1 노드가 이더넷 통신을 통해 상기 변환된 제 1 이더넷 신호를 제 2 노드로 전송하는 것을 특징으로 하는 차량 내 네트워크를 제공할 수 있다.
본 개시에 따른 차량 내 네트워크 및 이의 제어 방법의 효과에 대해 설명하면 다음과 같다.
본 개시의 여러 측면들 중 적어도 하나에 의하면, 차량 내 이더넷 네트워크 시스템에서 안전과 관련된 이더넷 신호의 전송시 지연이 해소될 수 있는 차량 안전 운행을 더욱 도모할 수 있다는 장점이 있다.
도 1 및 도 2는 본 개시의 일실시예와 관련된 차량의 외관이다.
도 3 및 도 4는 본 개시의 일실시예와 관련된 차량의 내부를 도시한 도면이다.
도 5은 본 개시의 일실시예와 관련된 차량을 설명하는데 참조되는 블럭도이다.
도 6은 본 개시에 따른 차량의 복수 개의 노드들 간의 통신을 위한 하이브리드 네트워크 시스템의 블록도이다.
도 7은 본 개시의 일실시예에서 이용될 수 있는 CAN 신호 및 이더넷 신호의 프레임 구조를 도시한다.
도 8은 본 개시의 일실시예에 따른 PCP 테이블의 예시이다.
도 9은 본 개시에 따른 차량의 복수 개의 노드들 간의 통신을 위한 하이브리드 네트워크 시스템의 블록도이다.
도 10은 도 8의 PCP 테이블에 따라 CAN 신호가 이더넷 신호로 변환되어 노드 간에 전송되는 순서도를 도시한다.
도 11은 본 개시의 일실시예에 따른 PCP 테이블의 예시이다.
도 12 및 도 13은 본 개시에 따른 차량의 복수 개의 노드들 간의 통신을 위한 하이브리드 네트워크 시스템의 블록도이다.
도 14은 도 11의 PCP 테이블에 따라 CAN 신호가 이더넷 신호로 변환되어 노드 간에 전송되는 순서도를 도시한다.
도 15는 도 11의 PCP 테이블에 따라 CAN 신호가 이더넷 신호로 변환되어 노드 간에 전송되는 또다른 순서도를 도시한다.
도 16 및 도 17은 본 개시의 일실시예에 따라 차량의 현재 상황을 판단하는 순서도를 도시한다.
도 18은 본 개시의 일실시예에 따른 PCP 테이블의 예시이다.
도 19는 본 개시의 일실시예에 따라 차량의 현재 상황을 판단하는 순서도를 도시한다.
도 20 및 도 21은 본 개시의 일실시예에 따른 PCP 테이블의 예시이다.
도 22은 본 개시에 따른 차량의 복수 개의 노드들 간의 통신을 위한 하이브리드 네트워크 시스템의 블록도이다.
도 23은 본 개시의 일실시예에 따라 이더넷 신호의 전송 경로를 확보하기 위한 제어 요청 메시지의 패킷 구조를 도시한다.
도 24 및 도 25는 도 23의 제어 요청 메시지에 따라 이더넷 신호의 전송 경로가 변경되는 예시를 도시한다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
이들 구성요소들은 각각 별도의 개별 하드웨어 모듈로 구성되거나 둘 이상의 하드웨어 모듈로 구현될 수도 있고, 둘 이상의 구성요소들이 하나의 하드웨어 모듈로 구현될 수도 있으며, 경우에 따라서는 소프트웨어로도 구현될 수 있음은 물론이다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 명세서에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
이하 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 본 명세서의 실시예를 상세하게 설명하지만, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다.
본 명세서에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는, 단순한 용어의 명칭이 아닌 그 용어가 가지는 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 함을 밝혀두고자 한다.
본 개시에서 기술되는 차량은, 자동차, 오토바이를 포함하는 개념일 수 있다. 이하에서는, 차량에 대해 자동차를 위주로 기술한다.
본 개시에서 기술되는 차량은, 동력원으로서 엔진을 구비하는 내연기관 차량, 동력원으로서 엔진과 전기 모터를 구비하는 하이브리드 차량, 동력원으로서 전기 모터를 구비하는 전기 차량등을 모두 포함하는 개념일 수 있다.
도 1 및 도 2는 본 개시의 실시 예와 관련된 차량의 외관이고, 도 3 및 도 4는 본 개시의 실시예와 관련된 차량의 내부를 도시한 도면이다. 도 5은 본 개시의 실시예와 관련된 차량을 설명하는데 참조되는 블럭도이다.
도 1 내지 도 5을 참조하면, 차량(100)은 동력원에 의해 회전하는 바퀴, 차량(100)의 진행 방향을 조절하기 위한 조향 입력 장치(510)를 포함할 수 있다.
차량(100)은 자율 주행 차량일 수 있다. 차량(100)은, 사용자 입력에 기초하여, 자율 주행 모드 또는 메뉴얼 모드로 전환될 수 있다. 예를 들면, 차량(100)은, 사용자 인터페이스 장치(200)를 통해 수신되는 사용자 입력에 기초하여, 메뉴얼 모드에서 자율 주행 모드로 전환되거나, 자율 주행 모드에서 메뉴얼 모드로 전환될 수 있다.
차량(100)은, 주행 상황 정보에 기초하여, 자율 주행 모드 또는 메뉴얼 모드로 전환될 수 있다. 주행 상황 정보는, 오브젝트 검출 장치(300)에서 제공된 오브젝트 정보에 기초하여 생성될 수 있다. 예를 들면, 차량(100)은, 오브젝트 검출 장치(300)에서 생성되는 주행 상황 정보에 기초하여, 메뉴얼 모드에서 자율 주행 모드로 전환되거나, 자율 주행 모드에서 메뉴얼 모드로 전환될 수 있다. 예를 들면, 차량(100)은, 통신 장치(400)를 통해 수신되는 주행 상황 정보에 기초하여, 메뉴얼 모드에서 자율 주행 모드로 전환되거나, 자율 주행 모드에서 메뉴얼 모드로 전환될 수 있다.
차량(100)은, 외부 디바이스에서 제공되는 정보, 데이터, 신호에 기초하여 메뉴얼 모드에서 자율 주행 모드로 전환되거나, 자율 주행 모드에서 매뉴얼 모드로 전환될 수 있다.
차량(100)이 자율 주행 모드로 운행되는 경우, 자율 주행 차량(100)은, 운행 시스템(700)에 기초하여 운행될 수 있다. 예를 들면, 자율 주행 차량(100)은, 주행 시스템(710), 출차 시스템(740), 주차 시스템(750)에서 생성되는 정보, 데이터 또는 신호에 기초하여 운행될 수 있다.
차량(100)이 메뉴얼 모드로 운행되는 경우, 자율 주행 차량(100)은, 운전 조작 장치(500)를 통해 운전을 위한 사용자 입력을 수신할 수 있다. 운전 조작 장치(500)를 통해 수신되는 사용자 입력에 기초하여, 차량(100)은 운행될 수 있다.
전장(overall length)은 차량(100)의 앞부분에서 뒷부분까지의 길이, 전폭(width)은 차량(100)의 너비, 전고(height)는 바퀴 하부에서 루프까지의 길이를 의미한다. 이하의 설명에서, 전장 방향(L)은 차량(100)의 전장 측정의 기준이 되는 방향, 전폭 방향(W)은 차량(100)의 전폭 측정의 기준이 되는 방향, 전고 방향(H)은 차량(100)의 전고 측정의 기준이 되는 방향을 의미할 수 있다.
도 5에 예시된 바와 같이, 차량(100)은, 사용자 인터페이스 장치(200), 오브젝트 검출 장치(300), 통신 장치(400), 운전 조작 장치(500), 차량 구동 장치(600), 운행 시스템(700), 내비게이션 시스템(770), 센싱부(120), 차량 인터페이스부(130), 메모리(140), 제어부(170) 및 전원공급부(190)를 포함할 수 있다.
실시예에 따라, 차량(100)은, 본 명세서에서 설명되는 구성 요소 외에 다른 구성 요소를 더 포함하거나, 설명되는 구성 요소 중 일부를 포함하지 않을 수 있다.
사용자 인터페이스 장치(200)는, 차량(100)과 사용자와의 소통을 위한 장치이다. 사용자 인터페이스 장치(200)는, 사용자 입력을 수신하고, 사용자에게 차량(100)에서 생성된 정보를 제공할 수 있다. 차량(100)은, 사용자 인터페이스 장치 (200)를 통해, UI(User Interfaces) 또는 UX(User Experience)를 구현할 수 있다.
사용자 인터페이스 장치(200)는, 입력부(210), 내부 카메라(220), 생체 감지부(230), 출력부(250) 및 사용자 인터페이스 프로세서(270)를 포함할 수 있다. 실시예에 따라, 사용자 인터페이스 장치(200)는, 설명되는 구성 요소 외에 다른 구성 요소를 더 포함하거나, 설명되는 구성 요소 중 일부를 포함하지 않을 수도 있다.
입력부(210)는, 사용자로부터 정보를 입력받기 위한 것으로, 입력부(210)에서 수집한 데이터는, 사용자 인터페이스 프로세서(270)에 의해 분석되어, 사용자의 제어 명령으로 처리될 수 있다.
입력부(210)는, 차량 내부에 배치될 수 있다. 예를 들면, 입력부(210)는, 스티어링 휠(steering wheel)의 일 영역, 인스투루먼트 패널(instrument panel)의 일영역, 시트(seat)의 일 영역, 각 필러(pillar)의 일 영역, 도어(door)의 일 영역, 센터 콘솔(center console)의 일 영역, 헤드 라이닝(head lining)의 일 영역, 썬바이저(sunvisor)의 일 영역, 윈드 쉴드(windshield)의 일 영역 또는 윈도우(window)의 일영역 등에 배치될 수 있다.
입력부(210)는, 음성 입력부(211), 제스쳐 입력부(212), 터치 입력부(213) 및 기계식 입력부(214)를 포함할 수 있다.
음성 입력부(211)는, 사용자의 음성 입력을 전기적 신호로 전환할 수 있다. 전환된 전기적 신호는, 사용자 인터페이스 프로세서(270) 또는 제어부(170)에 제공될 수 있다. 음성입력부(211)는, 하나 이상의 마이크로 폰을 포함할 수 있다.
제스쳐 입력부(212)는, 사용자의 제스쳐 입력을 전기적 신호로 전환할 수 있다. 전환된 전기적 신호는, 사용자 인터페이스 프로세서(270) 또는 제어부(170)에 제공될 수 있다.
제스쳐 입력부(212)는, 사용자의 제스쳐 입력을 감지하기 위한 적외선 센서 및 이미지 센서 중 적어도 어느 하나를 포함할 수 있다. 실시예에 따라, 제스쳐 입력부(212)는, 사용자의 3차원 제스쳐 입력을 감지할 수 있다. 이를 위해, 제스쳐 입력부(212)는, 복수의 적외선 광을 출력하는 광출력부 또는 복수의 이미지 센서를 포함할 수 있다.
제스쳐 입력부(212)는, TOF(Time of Flight) 방식, 구조광(Structured light) 방식 또는 디스패러티(Disparity) 방식을 통해 사용자의 3차원 제스쳐 입력을 감지할 수 있다.
터치 입력부(213)는, 사용자의 터치 입력을 전기적 신호로 전환할 수 있다. 전환된 전기적 신호는 사용자 인터페이스 프로세서(270) 또는 제어부(170)에 제공될 수 있다.
터치 입력부(213)는, 사용자의 터치 입력을 감지하기 위한 터치 센서를 포함할 수 있다. 실시예에 따라, 터치 입력부(213)는 디스플레이부(251)와 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한, 터치 스크린은, 차량(100)과 사용자 사이의 입력 인터페이스 및 출력 인터페이스를 함께 제공할 수 있다.
기계식 입력부(214)는, 버튼, 돔 스위치(dome switch), 조그 휠 및 조그 스위치 중 적어도 어느 하나를 포함할 수 있다. 기계식 입력부(214)에 의해 생성된 전기적 신호는, 사용자 인터페이스 프로세서(270) 또는 제어부(170)에 제공될 수 있다. 기계식 입력부(214)는, 스티어링 휠, 센테 페시아, 센타 콘솔, 칵픽 모듈, 도어 등에 배치될 수 있다.
내부 카메라(220)는, 차량 내부 영상을 획득할 수 있다. 사용자 인터페이스 프로세서(270)는, 차량 내부 영상을 기초로, 사용자의 상태를 감지할 수 있다. 사용자 인터페이스 프로세서(270)는, 차량 내부 영상에서 사용자의 시선 정보를 획득할 수 있다. 사용자 인터페이스 프로세서(270)는, 차량 내부 영상에서 사용자의 제스쳐를 감지할 수 있다.
생체 감지부(230)는, 사용자의 생체 정보를 획득할 수 있다. 생체 감지부(230)는, 사용자의 생체 정보를 획득할 수 있는 센서를 포함하고, 센서를 이용하여, 사용자의 지문 정보, 심박동 정보 등을 획득할 수 있다. 생체 정보는 사용자 인증을 위해 이용될 수 있다.
출력부(250)는, 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것이다. 출력부(250)는, 디스플레이부(251), 음향 출력부(252) 및 햅틱 출력부(253) 중 적어도 어느 하나를 포함할 수 있다.
디스플레이부(251)는, 다양한 정보에 대응되는 그래픽 객체를 표시할 수 있다. 디스플레이부(251)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.
디스플레이부(251)는 터치 입력부(213)와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다.
디스플레이부(251)는 HUD(Head Up Display)로 구현될 수 있다. 디스플레이부(251)가 HUD로 구현되는 경우, 디스플레이부(251)는 투사 모듈을 구비하여 윈드 쉴드 또는 윈도우에 투사되는 이미지를 통해 정보를 출력할 수 있다.
디스플레이부(251)는, 투명 디스플레이를 포함할 수 있다. 투명 디스플레이는 윈드 쉴드 또는 윈도우에 부착될 수 있다. 투명 디스플레이는 소정의 투명도를 가지면서, 소정의 화면을 표시할 수 있다. 투명 디스플레이는, 투명도를 가지기 위해, 투명 디스플레이는 투명 TFEL(Thin Film Elecroluminescent), 투명
OLED(Organic Light-Emitting Diode), 투명 LCD(Liquid Crystal Display), 투과형 투명디스플레이, 투명 LED(Light Emitting Diode) 디스플레이 중 적어도 하나를 포함할 수 있다. 투명 디스플레이의 투명도는 조절될 수 있다.
한편, 사용자 인터페이스 장치(200)는, 복수의 디스플레이부(251a 내지 251g)를 포함할 수 있다. 디스플레이부(251)는, 스티어링 휠의 일 영역, 인스투루먼트 패널의 일 영역(521a, 251b, 251e), 시트의 일 영역(251d), 각 필러의 일 영역(251f), 도어의 일 영역(251g), 센타 콘솔의 일 영역, 헤드 라이닝의 일 영역, 썬바이저의 일 영역에 배치되거나, 윈드 쉴드의 일영역(251c), 윈도우의 일영역(251h)에 구현될 수 있다.
음향 출력부(252)는, 사용자 인터페이스 프로세서(270) 또는 제어부(170)로부터 제공되는 전기 신호를 오디오 신호로 변환하여 출력한다. 이를 위해, 음향 출력부(252)는, 하나 이상의 스피커를 포함할 수 있다.
햅틱 출력부(253)는, 촉각적인 출력을 발생시킨다. 예를 들면, 햅틱 출력부(253)는, 스티어링 휠, 안전 벨트, 시트(110FL, 110FR, 110RL, 110RR)를 진동시켜, 사용자가 출력을 인지할 수 있게 동작할 수 있다.
사용자 인터페이스 프로세서(270)는, 사용자 인터페이스 장치(200)의 각 유닛의 전반적인 동작을 제어할 수 있다. 실시예에 따라, 사용자 인터페이스 장치(200)는, 복수의 사용자 인터페이스 프로세서(270)를 포함하거나, 사용자 인터페이스 프로세서(270)를 포함하지 않을 수도 있다.
사용자 인터페이스 장치(200)에 사용자 인터페이스 프로세서(270)가 포함되지 않는 경우, 사용자 인터페이스 장치(200)는, 차량(100)내 다른 장치의 프로세서 또는 제어부(170)의 제어에 따라, 동작될 수 있다.
한편, 사용자 인터페이스 장치(200)는, 차량용 디스플레이 장치로 명명될 수 있다. 사용자 인터페이스 장치(200)는, 제어부(170)의 제어에 따라 동작될 수 있다.
오브젝트 검출 장치(300)는, 차량(100) 외부에 위치하는 오브젝트를 검출하기 위한 장치이다. 오브젝트는, 차량(100)의 운행과 관련된 다양한 물체들일 수 있다. 오브젝트는, 차선, 타 차량, 보행자, 이륜차, 교통 신호, 빛, 도로, 구조물, 과속 방지턱, 지형물, 동물 등을 포함할 수 있다.
오브젝트는, 이동 오브젝트와 고정 오브젝트로 분류될 수 있다. 예를 들면, 이동 오브젝트는, 타 차량, 보행자를 포함하는 개념일 수 있다. 예를 들면, 고정 오브젝트는, 교통 신호, 도로, 구조물을 포함하는 개념일 수 있다.
오브젝트 검출 장치(300)는, 카메라(310), 레이더(320), 라이다(330), 초음파 센서(340), 적외선 센서(350) 및 오브젝트 검출 프로세서(370)를 포함할 수 있다.
실시예에 따라, 오브젝트 검출 장치(300)는, 설명되는 구성 요소 외에 다른 구성 요소를 더 포함하거나, 설명되는 구성 요소 중 일부를 포함하지 않을 수 있다.
카메라(310)는, 차량 외부 영상을 획득하기 위해, 차량의 외부의 적절한 곳에 위치할 수 있다. 카메라(310)는, 모노 카메라, 스테레오 카메라(310a), AVM(Around View Monitoring) 카메라(310b) 또는 360도 카메라일 수 있다.
예를 들면, 카메라(310)는, 차량 전방의 영상을 획득하기 위해, 차량의 실내에서, 프런트 윈드 쉴드에 근접하게 배치될 수 있다. 또는, 카메라(310)는, 프런트 범퍼 또는 라디에이터 그릴 주변에 배치될 수 있다.
예를 들면, 카메라(310)는, 차량 후방의 영상을 획득하기 위해, 차량의 실내에서, 리어 글라스에 근접하게 배치될 수 있다. 또는, 카메라(310)는, 리어 범퍼, 트렁크 또는 테일 게이트 주변에 배치될 수 있다.
예를 들면, 카메라(310)는, 차량 측방의 영상을 획득하기 위해, 차량의 실내에서 사이드 윈도우 중 적어도 어느 하나에 근접하게 배치될 수 있다. 또는, 카메라(310)는, 사이드 미러, 휀더 또는 도어 주변에 배치될 수 있다.
카메라(310)는, 획득된 영상을 오브젝트 검출 프로세서(370)에 제공할 수 있다.
레이더(320)는, 전자파 송신부, 수신부를 포함할 수 있다. 레이더(320)는 전파 발사 원리상 펄스 레이더(Pulse Radar) 방식 또는 연속파 레이더(Continuous Wave Radar) 방식으로 구현될 수 있다. 레이더(320)는 연속파 레이더 방식 중에서 신호 파형에 따라 FMCW(Frequency Modulated Continuous Wave)방식 또는 FSK(Frequency Shift Keyong) 방식으로 구현될 수 있다.
레이더(320)는 전자파를 매개로, TOF(Time of Flight) 방식 또는 페이즈 쉬프트(phase-shift) 방식에 기초하여, 오브젝트를 검출하고, 검출된 오브젝트의 위치, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다.
레이더(320)는, 차량의 전방, 후방 또는 측방에 위치하는 오브젝트를 감지하기 위해 차량의 외부의 적절한 위치에 배치될 수 있다.
라이다(330)는, 레이저 송신부, 수신부를 포함할 수 있다. 라이다(330)는, TOF(Time of Flight) 방식 또는 페이즈 쉬프트(phase-shift) 방식으로 구현될 수 있다.
라이다(330)는, 구동식 또는 비구동식으로 구현될 수 있다.
구동식으로 구현되는 경우, 라이다(330)는, 모터에 의해 회전되며, 차량(100) 주변의 오브젝트를 검출할 수 있다.
비구동식으로 구현되는 경우, 라이다(330)는, 광 스티어링에 의해, 차량(100)을 기준으로 소정 범위 내에 위치하는 오브젝트를 검출할 수 있다. 차량(100)은 복수의 비구동식 라이다(330)를 포함할 수 있다.
라이다(330)는, 레이저 광 매개로, TOF(Time of Flight) 방식 또는 페이즈 쉬프트(phase-shift) 방식에 기초하여, 오브젝트를 검출하고, 검출된 오브젝트의 위치, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다.
라이다(330)는, 차량의 전방, 후방 또는 측방에 위치하는 오브젝트를 감지하기 위해 차량의 외부의 적절한 위치에 배치될 수 있다.
초음파 센서(340)는, 초음파 송신부, 수신부를 포함할 수 있다. 초음파 센서(340)는, 초음파를 기초로 오브젝트를 검출하고, 검출된 오브젝트의 위치, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다.
초음파 센서(340)는, 차량의 전방, 후방 또는 측방에 위치하는 오브젝트를 감지하기 위해 차량의 외부의 적절한 위치에 배치될 수 있다.
적외선 센서(350)는, 적외선 송신부, 수신부를 포함할 수 있다. 적외선 센서(340)는, 적외선 광을 기초로 오브젝트를 검출하고, 검출된 오브젝트의 위치, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다.
적외선 센서(350)는, 차량의 전방, 후방 또는 측방에 위치하는 오브젝트를 감지하기 위해 차량의 외부의 적절한 위치에 배치될 수 있다.
오브젝트 검출 프로세서(370)는, 오브젝트 검출 장치(300)의 각 유닛의 전반적인 동작을 제어할 수 있다.
오브젝트 검출 프로세서(370)는, 획득된 영상에 기초하여, 오브젝트를 검출하고, 트래킹할 수 있다. 오브젝트 검출 프로세서(370)는, 영상 처리 알고리즘을 통해, 오브젝트와의 거리 산출, 오브젝트와의 상대 속도 산출등의 동작을 수행할 수 있다.
오브젝트 검출 프로세서(370)는, 송신된 전자파가 오브젝트에 반사되어 되돌아오는 반사 전자파에 기초하여, 오브젝트를 검출하고, 트래킹할 수 있다. 오브젝트 검출 프로세서(370)는, 전자파에 기초하여, 오브젝트와의 거리 산출, 오브젝트와의 상대 속도 산출 등의 동작을 수행할 수 있다.
오브젝트 검출 프로세서(370)는, 송신된 레이저가 오브젝트에 반사되어 되돌아오는 반사 레이저 광에 기초하여, 오브젝트를 검출하고, 트래킹할 수 있다. 오브젝트 검출 프로세서(370)는, 레이저 광에 기초하여, 오브젝트와의 거리 산출, 오브젝트와의 상대 속도 산출 등의 동작을 수행할 수 있다.
오브젝트 검출 프로세서(370)는, 송신된 초음파가 오브젝트에 반사되어 되돌아오는 반사 초음파에 기초하여, 오브젝트를 검출하고, 트래킹할 수 있다. 오브젝트 검출 프로세서(370)는, 초음파에 기초하여, 오브젝트와의 거리 산출, 오브젝트와의 상대 속도 산출 등의 동작을 수행할 수 있다.
오브젝트 검출 프로세서(370)는, 송신된 적외선 광이 오브젝트에 반사되어 되돌아오는 반사 적외선 광에 기초하여, 오브젝트를 검출하고, 트래킹할 수 있다. 오브젝트 검출 프로세서(370)는, 적외선 광에 기초하여, 오브젝트와의 거리 산출, 오브젝트와의 상대 속도 산출 등의 동작을 수행할 수 있다.
실시예에 따라, 오브젝트 검출 장치(300)는, 복수의 오브젝트 검출 프로세서(370)를 포함하거나, 오브젝트 검출 프로세서(370)를 포함하지 않을 수도 있다. 예를 들면, 카메라(310), 레이더(320), 라이다(330), 초음파 센서(340) 및 적외선 센서(350) 각각은 개별적으로 프로세서를 포함할 수 있다.
오브젝트 검출 장치(300)에 오브젝트 검출 프로세서(370)가 포함되지 않는 경우, 오브젝트 검출 장치(300)는, 차량(100)내 다른 장치의 프로세서 또는 제어부(170)의 제어에 따라, 동작될 수 있다.
오브젝트 검출 장치(400)는, 제어부(170)의 제어에 따라 동작될 수 있다.
통신 장치(400)는, 외부 디바이스와 통신을 수행하기 위한 장치이다. 여기서, 외부 디바이스는, 타 차량, 이동 단말기 또는 서버일 수 있다.
통신 장치(400)는, 통신을 수행하기 위해 송신 안테나, 수신 안테나, 각종 통신 프로토콜이 구현 가능한 RF(Radio Frequency) 회로 및 RF 소자 중 적어도 어느 하나를 포함할 수 있다.
통신 장치(400)는, 근거리 통신부(410), 위치 정보부(420), V2X 통신부(430), 광통신부(440), 방송 송수신부(450) 및 통신 프로세서(470)를 포함할 수 있다.
실시예에 따라, 통신 장치(400)는, 설명되는 구성 요소외에 다른 구성 요소를 더 포함하거나, 설명되는 구성 요소 중 일부를 포함하지 않을 수 있다.
근거리 통신부(410)는, 근거리 통신(Short range communication)을 위한 유닛이다. 근거리 통신부(410)는, 블루투스(Bluetooth쪠), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다.
근거리 통신부(410)는, 근거리 무선 통신망(Wireless Area Networks)을 형성하여, 차량(100)과 적어도 하나의 외부 디바이스 사이의 근거리 통신을 수행할 수 있다.
위치 정보부(420)는, 차량(100)의 위치 정보를 획득하기 위한 유닛이다. 예를 들면, 위치 정보부(420)는, GPS(Global Positioning System) 모듈 또는 DGPS(Differential Global Positioning System) 모듈을 포함할 수 있다.
V2X 통신부(430)는, 서버(V2I: Vehicle to Infra), 타 차량(V2V: Vehicle to Vehicle) 또는 보행자(V2P: Vehicle to Pedestrian)와의 무선 통신 수행을 위한 유닛이다. V2X 통신부(430)는, 인프라와의 통신(V2I), 차량간 통신(V2V), 보행자와의 통신(V2P) 프로토콜이 구현 가능한 RF 회로를 포함할 수 있다.
광통신부(440)는, 광을 매개로 외부 디바이스와 통신을 수행하기 위한 유닛이다. 광통신부(440)는, 전기 신호를 광 신호로 전환하여 외부에 발신하는 광발신부 및 수신된 광 신호를 전기 신호로 전환하는 광수신부를 포함할 수 있다.
실시예에 따라, 광발신부는, 차량(100)에 포함된 램프와 일체화되게 형성될 수 있다.
방송 송수신부(450)는, 방송 채널을 통해, 외부의 방송 관리 서버로부터 방송 신호를 수신하거나, 방송 관리 서버에 방송 신호를 송출하기 위한 유닛이다. 방송 채널은, 위성 채널, 지상파 채널을 포함할 수 있다. 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 수 있다.
통신 프로세서(470)는, 통신 장치(400)의 각 유닛의 전반적인 동작을 제어할 수 있다.
실시예에 따라, 통신 장치(400)는, 복수의 통신 프로세서(470)를 포함하거나, 통신 프로세서(470)를 포함하지 않을 수도 있다.
통신 장치(400)에 통신 프로세서(470)가 포함되지 않는 경우, 통신 장치(400)는, 차량(100)내 다른 장치의 프로세서 또는 제어부(170)의 제어에 따라, 동작될 수 있다.
한편, 통신 장치(400)는, 사용자 인터페이스 장치(200)와 함께 차량용 디스플레이 장치를 구현할 수 있다. 이 경우, 차량용 디스플레이 장치는, 텔레매틱스(telematics) 장치 또는 AVN(Audio Video Navigation) 장치로 명명될 수 있다.
통신 장치(400)는, 제어부(170)의 제어에 따라 동작될 수 있다.
운전 조작 장치(500)는, 운전을 위한 사용자 입력을 수신하는 장치이다.
메뉴얼 모드인 경우, 차량(100)은, 운전 조작 장치(500)에 의해 제공되는 신호에 기초하여 운행될 수 있다.
운전 조작 장치(500)는, 조향 입력 장치(510), 가속 입력 장치(530) 및 브레이크 입력 장치(570)를 포함할 수 있다.
조향 입력 장치(510)는, 사용자로부터 차량(100)의 진행 방향 입력을 수신할 수 있다. 조향 입력 장치(510)는, 회전에 의해 조향 입력이 가능하도록 휠 형태로 형성되는 것이 바람직하다. 실시예에 따라, 조향 입력 장치는, 터치 스크린, 터치 패드 또는 버튼 형태로 형성될 수도 있다.
가속 입력 장치(530)는, 사용자로부터 차량(100)의 가속을 위한 입력을 수신할 수 있다. 브레이크 입력 장치(570)는, 사용자로부터 차량(100)의 감속을 위한 입력을 수신할 수 있다. 가속 입력 장치(530) 및 브레이크 입력 장치(570)는, 페달 형태로 형성되는 것이 바람직하다. 실시예에 따라, 가속 입력 장치 또는 브레이크 입력 장치는, 터치 스크린, 터치 패드 또는 버튼 형태로 형성될 수도 있다.
운전 조작 장치(500)는, 제어부(170)의 제어에 따라 동작될 수 있다.
차량 구동 장치(600)는, 차량(100)내 각종 장치의 구동을 전기적으로 제어하는 장치이다.
차량 구동 장치(600)는, 파워 트레인 구동부(610), 샤시 구동부(620), 도어/윈도우 구동부(630), 안전 장치 구동부(640), 램프 구동부(650) 및 공조 구동부(660)를 포함할 수 있다.
실시예에 따라, 차량 구동 장치(600)는, 설명되는 구성 요소외에 다른 구성 요소를 더 포함하거나, 설명되는 구성 요소 중 일부를 포함하지 않을 수 있다.
파워 트레인 구동부(610)는, 파워 트레인 장치의 동작을 제어할 수 있다.
파워 트레인 구동부(610)는, 동력원 구동부(611) 및 변속기 구동부(612)를 포함할 수 있다.
동력원 구동부(611)는, 차량(100)의 동력원에 대한 제어를 수행할 수 있다.
예를 들면, 화석 연료 기반의 엔진이 동력원인 경우, 동력원 구동부(610)는, 엔진에 대한 전자식 제어를 수행할 수 있다. 이에 의해, 엔진의 출력 토크 등을 제어할 수 있다. 동력원 구동부(611)는, 제어부(170)의 제어에 따라, 엔진 출력 토크를 조정할 수 있다.
예를 들면, 전기 에너지 기반의 모터가 동력원인 경우, 동력원 구동부(610)는, 모터에 대한 제어를 수행할 수 있다. 동력원 구동부(610)는, 제어부(170)의 제어에 따라, 모터의 회전 속도, 토크 등을 조정할 수 있다.
변속기 구동부(612)는, 변속기에 대한 제어를 수행할 수 있다. 변속기 구동부(612)는, 변속기의 상태를 조정할 수 있다. 변속기 구동부(612)는, 변속기의 상태를, 전진(D), 후진(R), 중립(N) 또는 주차(P)로 조정할 수 있다.
한편, 엔진이 동력원인 경우, 변속기 구동부(612)는, 전진(D) 상태에서, 기어의 물림 상태를 조정할 수 있다.
샤시 구동부(620)는, 샤시 장치의 동작을 제어할 수 있다. 샤시 구동부(620)는, 조향 구동부(621), 브레이크 구동부(622) 및 서스펜션 구동부(623)를 포함할 수 있다.
조향 구동부(621)는, 차량(100) 내의 조향 장치(steering apparatus)에 대한 전자식 제어를 수행할 수 있다. 조향 구동부(621)는, 차량의 진행 방향을 변경할 수 있다.
브레이크 구동부(622)는, 차량(100) 내의 브레이크 장치(brake apparatus)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 바퀴에 배치되는 브레이크의 동작을 제어하여, 차량(100)의 속도를 줄일 수 있다.
한편, 브레이크 구동부(622)는, 복수의 브레이크 각각을 개별적으로 제어할 수 있다. 브레이크 구동부(622)는, 복수의 휠에 걸리는 제동력을 서로 다르게 제어할 수 있다.
서스펜션 구동부(623)는, 차량(100) 내의 서스펜션 장치(suspension apparatus)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 서스펜션 구동부(623)는 도로면에 굴곡이 있는 경우, 서스펜션 장치를 제어하여, 차량(100)의 진동이 저감되도록 제어할 수 있다. 한편, 서스펜션 구동부(623)는, 복수의 서스펜션 각각을 개별적으로 제어할 수 있다.
도어/윈도우 구동부(630)는, 차량(100) 내의 도어 장치(door apparatus) 또는 윈도우 장치(window apparatus)에 대한 전자식 제어를 수행할 수 있다.
도어/윈도우 구동부(630)는, 도어 구동부(631) 및 윈도우 구동부(632)를 포함할 수 있다.
도어 구동부(631)는, 도어 장치에 대한 제어를 수행할 수 있다. 도어 구동부(631)는, 차량(100)에 포함되는 복수의 도어의 개방, 폐쇄를 제어할 수 있다. 도어 구동부(631)는, 트렁크(trunk) 또는 테일 게이트(tail gate)의 개방 또는 폐쇄를 제어할 수 있다. 도어 구동부(631)는, 썬루프(sunroof)의 개방 또는 폐쇄를 제어할 수 있다.
윈도우 구동부(632)는, 윈도우 장치(window apparatus)에 대한 전자식 제어를 수행할 수 있다. 차량(100)에 포함되는 복수의 윈도우의 개방 또는 폐쇄를 제어할 수 있다.
안전 장치 구동부(640)는, 차량(100) 내의 각종 안전 장치(safety apparatus)에 대한 전자식 제어를 수행할 수 있다.
안전 장치 구동부(640)는, 에어백 구동부(641), 시트벨트 구동부(642) 및 보행자 보호 장치 구동부(643)를 포함할 수 있다.
에어백 구동부(641)는, 차량(100) 내의 에어백 장치(airbag apparatus)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 에어백 구동부(641)는, 위험 감지시, 에어백이 전개되도록 제어할 수 있다.
시트벨트 구동부(642)는, 차량(100) 내의 시트벨트 장치(seatbelt appartus)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 시트벨트 구동부(642)는, 위험 감지시, 시트 밸트를 이용해 탑승객이 시트(110FL, 110FR, 110RL, 110RR)에 고정되도록 제어할 수 있다.
보행자 보호 장치 구동부(643)는, 후드 리프트 및 보행자 에어백에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 보행자 보호 장치 구동부(643)는, 보행자와의 충돌 감지시, 후드 리프트 업 및 보행자 에어백 전개되도록 제어할 수 있다.
램프 구동부(650)는, 차량(100) 내의 각종 램프 장치(lamp apparatus)에 대한 전자식 제어를 수행할 수 있다.
공조 구동부(660)는, 차량(100) 내의 공조 장치(air cinditioner)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 공조 구동부(660)는, 차량 내부의 온도가 높은 경우, 공조 장치가 동작하여, 냉기가 차량 내부로 공급되도록 제어할 수 있다.
차량 구동 장치(600)는, 차량 구동 프로세서를 포함할 수 있다. 차량 구동 장치(600)의 각 유닛은, 각각 개별적으로 프로세서를 포함할 수 있다.
차량 구동 장치(600)는, 제어부(170)의 제어에 따라 동작될 수 있다.
운행 시스템(700)은, 차량(100)의 각종 운행을 제어하는 시스템이다. 운행 시스템(700)은, 자율 주행 모드에서 동작될 수 있다.
운행 시스템(700)은, 주행 시스템(710), 출차 시스템(740) 및 주차 시스템(750)을 포함할 수 있다.
실시예에 따라, 운행 시스템(700)은, 설명되는 구성 요소외에 다른 구성 요소를 더 포함하거나, 설명되는 구성 요소 중 일부를 포함하지 않을 수 있다.
한편, 운행 시스템(700)은, 운행 프로세서를 포함할 수 있다. 운행 시스템(700)의 각 유닛은, 각각 개별적으로 프로세서를 포함할 수 있다.
한편, 실시예에 따라, 운행 시스템(700)이 소프트웨어적으로 구현되는 경우, 제어부(170)의 하위 개념일 수도 있다.
한편, 실시예에 따라, 운행 시스템(700)은, 사용자 인터페이스 장치(200), 오브젝트 검출 장치(300), 통신 장치(400), 차량 구동 장치(600) 및 제어부(170) 중 적어도 어느 하나를 포함하는 개념일 수 있다.
주행 시스템(710)은, 차량(100)의 주행을 수행할 수 있다.
주행 시스템(710)은, 내비게이션 시스템(770)으로부터 내비게이션 정보를 제공받아, 차량 구동 장치(600)에 제어 신호를 제공하여, 차량(100)의 주행을 수행할 수 있다. 주행 시스템(710)은, 오브젝트 검출 장치(300)로부터 오브젝트 정보를 제공받아, 차량 구동 장치(600)에 제어 신호를 제공하여, 차량(100)의 주행을 수행할 수 있다. 주행 시스템(710)은, 통신 장치(400)를 통해, 외부 디바이스로부터 신호를 제공받아, 차량 구동 장치(600)에 제어 신호를 제공하여, 차량(100)의 주행을 수행할 수 있다.
출차 시스템(740)은, 차량(100)의 출차를 수행할 수 있다.
출차 시스템(740)은, 내비게이션 시스템(770)으로부터 내비게이션 정보를 제공받아, 차량 구동 장치(600)에 제어 신호를 제공하여, 차량(100)의 출차를 수행할 수 있다. 출차 시스템(740)은, 오브젝트 검출 장치(300)로부터 오브젝트 정보를 제공받아, 차량 구동 장치(600)에 제어 신호를 제공하여, 차량(100)의 출차를 수행할 수 있다. 출차 시스템(740)은, 통신 장치(400)를 통해, 외부 디바이스로부터 신호를 제공받아, 차량 구동 장치(600)에 제어 신호를 제공하여, 차량(100)의 출차를 수행할 수 있다.
주차 시스템(750)은, 차량(100)의 주차를 수행할 수 있다.
주차 시스템(750)은, 내비게이션 시스템(770)으로부터 내비게이션 정보를 제공받아, 차량 구동 장치(600)에 제어 신호를 제공하여, 차량(100)의 주차를 수행할 수 있다. 주차 시스템(750)은, 오브젝트 검출 장치(300)로부터 오브젝트 정보를 제공받아, 차량 구동 장치(600)에 제어 신호를 제공하여, 차량(100)의 주차를 수행할 수 있다. 주차 시스템(750)은, 통신 장치(400)를 통해, 외부 디바이스로부터 신호를 제공받아, 차량 구동 장치(600)에 제어 신호를 제공하여, 차량(100)의 주차를 수행할 수 있다.
내비게이션 시스템(770)은, 내비게이션 정보를 제공할 수 있다. 내비게이션 정보는, 맵(map) 정보, 설정된 목적지 정보, 상기 목적지 설정 따른 경로 정보, 경로 상의 다양한 오브젝트에 대한 정보, 차선 정보 및 차량의 현재 위치 정보 중 적어도 어느 하나를 포함할 수 있다.
내비게이션 시스템(770)은, 메모리 및 내비게이션 프로세서를 포함할 수 있다. 메모리는 내비게이션 정보를 저장할 수 있다. 내비게이션 프로세서는 내비게이션 시스템(770)의 동작을 제어할 수 있다.
실시예에 따라, 내비게이션 시스템(770)은, 통신 장치(400)를 통해, 외부 디바이스로부터 정보를 수신하여, 기 저장된 정보를 업데이트 할 수 있다.
실시예에 따라, 내비게이션 시스템(770)은, 사용자 인터페이스 장치(200)의 하위 구성 요소로 분류될 수도 있다.
센싱부(120)는, 차량의 상태를 센싱할 수 있다. 센싱부(120)는, 자세 센서(예를 들면, 요 센서(yaw sensor), 롤 센서(roll sensor), 피치 센서(pitch sensor)), 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량 감지 센서, 헤딩 센서(heading sensor), 요 센서(yaw sensor), 자이로 센서(gyro sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서, 초음파 센서, 조도 센서, 가속 페달 포지션 센서, 브레이크 페달 포지션 센서, 등을 포함할 수 있다.
센싱부(120)는, 차량 자세 정보, 차량 충돌 정보, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보, 스티어링 휠 회전 각도, 차량 외부 조도, 가속 페달에 가해지는 압력, 브레이크 페달에 가해지는 압력 등에 대한 센싱 신호를 획득할 수 있다.
센싱부(120)는, 그 외, 가속페달센서, 압력센서, 엔진 회전 속도 센서(engine speed sensor), 공기 유량 센서(AFS), 흡기 온도 센서(ATS), 수온 센서(WTS), 스로틀 위치 센서(TPS), TDC 센서, 크랭크각 센서(CAS), 등을 더 포함할 수 있다.
차량 인터페이스부(130)는, 차량(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행할 수 있다. 예를 들면, 차량 인터페이스부(130)는 이동 단말기와 연결 가능한 포트를 구비할 수 있고, 상기 포트를 통해, 이동 단말기와 연결할 수 있다. 이경우, 차량 인터페이스부(130)는 이동 단말기와 데이터를 교환할 수 있다.
한편, 차량 인터페이스부(130)는 연결된 이동 단말기에 전기 에너지를 공급하는 통로 역할을 수행할 수 있다. 이동 단말기가 차량 인터페이스부(130)에 전기적으로 연결되는 경우, 제어부(170)의 제어에 따라, 차량 인터페이스부(130)는 전원 공급부(190)에서 공급되는 전기 에너지를 이동 단말기에 제공할 수 있다.
메모리(140)는, 제어부(170)와 전기적으로 연결된다. 메모리(140)는 유닛에 대한 기본데이터, 유닛의 동작제어를 위한 제어데이터, 입출력되는 데이터를 저장할 수 있다. 메모리(140)는, 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장기기 일 수 있다. 메모리(140)는 제어부(170)의 처리 또는 제어를 위한 프로그램 등, 차량(100) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다.
실시예에 따라, 메모리(140)는, 제어부(170)와 일체형으로 형성되거나, 제어부(170)의 하위 구성 요소로 구현될 수 있다.
제어부(170)는, 차량(100) 내의 각 유닛의 전반적인 동작을 제어할 수 있다. 제어부(170)는 ECU(Electronic Control Unit)로 명명될 수 있다. 경우에 따라서는 앞서 설명된 각종 프로세서들도 ECU로 명명될 수 있다.
전원 공급부(190)는, 제어부(170)의 제어에 따라, 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다. 특히, 전원 공급부(190)는, 차량 내부의 배터리 등으로부터 전원을 공급받을 수 있다.
차량(100)에 포함되는, 하나 이상의 프로세서 및 제어부(170)는, ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.
상기 차량(100) 내의 각 부품 별로 제어하기 위한 복수 개의 ECU가 장착될 수 있다. 각 ECU는 센서로부터 인지된 데이터를 계산하여 액추에어터에 명령을 하는 기능을 수행할 수 있다.
종래의 경우, 상기 차량(100) 내 복수 개의 ECU는 호스트 컴퓨터 없이 서로 CAN(Controller Area Network) 시스템과 같은 레거시 네트워크 시스템을 통해 서로 통신할 수 있었다.
그러나, 최근 차량(100)은 무선랜(WLAN) 및/또는 이동통신 (예를 들면, LTE, 5G 등)을 통해 다른 차량이나 교통 및 통신 인프라, 보행자 단말 등과 실시간으로 통신하며 운전자의 편의와 교통 안전을 돕고 인터넷의 다양한 서비스를 제공하기 위한 커넥티드카(connected car)로 발전하고 있다. 커넥티드 카 자체가 통신 기기가 된다는 의미에서 상기 차량(100)이 거대한 사물 인터넷(IoT) 기기라고도 이해될 수 있다.
이와 같은 커넥티드카로 더욱 충실해지기 발전하기 위해 차량 E/E 아키텍처가 진화함에 따라 이더넷 네트워크 시스템이 상기 차량(100)에 도입되고 있다. 그런데, 차량에는 여전히 CAN(Controller Area Network) 시스템과 같은 레거시 네트워크 시스템이 널리 쓰이고 있기 때문에 이더넷 네트워크 시스템이 레거시 네트워크 시스템과 공존할 필요가 있다.
이하, 도 6을 참조하여, 복수 개의 ECU들 간의 통신을 위해 레거시 네트워크 시스템과 차세대 네트워크 시스템이 상기 차량(100)에 적용될 수 있는 하이브리드 네트워크 시스템에 대해 설명하겠다. 도 6은 본 개시에 따른 차량의 복수 개의 노드들 간의 통신을 위한 하이브리드 네트워크 시스템의 블록도이다.
이하에서는, 상기 레거시 네트워크 시스템은 CAN 시스템이고, 상기 차세대 네트워크 시스템은 이더넷 네트워크 시스템인 것으로 가정하겠다. 그러나, 이는 단순히 예시일 뿐이고, 상기 레거시 네트워크 시스템 및 상기 차세대 네트워크 시스템에 다른 네트워크 시스템이 고려될 수 있음은 물론이다.
상기 차량(100)이 복수 개의 ECU들을 포함할 수 있다. 도 6에서는 상기 차량(100)이 5개의 ECU, 즉 ECU1(1010), ECU2(1020), ECU3(1030), ECU4(1040), ECU5(1050)를 포함하는 것으로 예시되어 있다. 그러나, 이는 단지 예시일 뿐으로서, 상기 차량(100)은 더 많은 ECU들을 포함할 수 있음은 물론이다. 상기 복수의 ECU들은 각각 “노드”로 이해될 수도 있다.
ECU1(1010), ECU2(1020), ECU3(1030), 및 ECU4(1040)의 개별 내부 구성에 대해 ECU1(1010)을 대표로 설명하겠다. 즉, ECU2(1020), ECU3(1030), 및 ECU4(1040)는 ECU1(1010)과 동일한 내부 구성을 가질 수 있다.
ECU1(1010)는 CAN 신호 (또는 데이터, 메시지)를 송수신하기 위한 CAN 트랜시버(1011)와, 상기 수신된 CAN 신호를 이더넷 신호로 변환하기 위한 CAN2ETH 변환기(1012)와, 상기 변환된 이더넷 신호를 다른 노드로 전송하고 다른 노드로부터 이더넷 신호를 수신하기 위한 이더넷 트랜시버(1013)와, 상기 CAN 신호를 이더넷 신호로로 변환할 때 사용될 PCP(Priority Code Point) 값에 관한 PCP 테이블이 저장되어 있는 PCP DB(database)(또는 메모리)(1014)를 포함할 수 있다. 상기 PCP에 대해서는 나중에 다시 설명하겠다.
ECU5(1050)는 중앙 ECU(central ECU)로서, 상기 언급된 CAN 트랜시버, CAN2ETH 변환기, 이더넷 트랜서버, 및 PCP DB 이외에 네트워크 매니저(1055)를 더욱 포함할 수 있다. 상기 네트워크 매니저(1055)은 차량 상황 결정 모듈(1056) 및 차량 상황 통지 모듈(1057)을 포함할 수 있다. 상기 네트워크 매니저(1055)는 하드웨어적으로 구성될 수도 있고, 소프트웨어적으로 구성될 수도 있음은 물론이다. 상기 네트워크 매니저(1055)의 동작에 대해서는 나중에 다시 설명하겠다.
ECU1(1010), ECU2(1020), ECU3(1030), ECU4(1040) 및 ECU5(1050) 간에는 이더넷 통신이 행해질 수 있다. 도 6에서는, ECU1(1010)이 L1-5 링크를 통해 ECU5(1050)과 이더넷 통신을 하고, ECU1(1020)이 L2-5 링크를 통해 ECU5(1050)과 이더넷 통신을 하고, ECU3(1030)이 L3-5 링크를 통해 ECU5(1050)과 이더넷 통신을 하고, ECU4(1040)이 L4-5 링크를 통해 ECU5(1050)과 이더넷 통신을 하는 것이 예시되어 있다. 그러나, 이는 단지 예시적인 것으로서, 상기 복수의 ECU들은 다른 링크를 통해 서로 이더넷 통신을 행할 수 있음은 물론이다.
각 ECU(1010, 1020, 1030, 1040, 1050)는 적어도 하나의 센서 및/또는 적어도 하나의 액추에이터(예들 들면, 전술한 구동부)를 제어할 수 있다.
상기 센서 및/또는 상기 액추에이터가 CAN 기반 디바이스인 경우 해당 ECU의 CAN 트랜시버와 CAN 통신을 할 수 있다. 이 경우, 상기 센서로부터의 CAN 센싱 신호는 상기 해당 ECU의 CAN 트랜시버로 전송되고, 상기 전송된 CAN 센싱 신호는 상기 해당 ECU의 CAN2ETH 변환기를 통해 이더넷 센싱 신호로 변환되어 상기 해당 ECU의 이더넷 트랜시버를 통해 다른 노드로 전송될 수 있다. 다른 노드로부터의 이더넷 구동 신호는 상기 해당 ECU의 이더넷 트랜시버를 통해 수신되고, 상기 수신된 이더넷 구동 신호는 상기 해당 ECU의 CAN2ETH 변환기를 통해 CAN 구동 신호로 변환되어 상기 해당 ECU의 CAN 트랜시버를 통해 상기 액추에이터로 전송될 수 있다.
상기 센서 및/또는 상기 액추에이터가 이더넷 기반 디바이스인 경우 해당 ECU의 이더넷 트랜시버와 이더넷 통신을 할 수 있다. 이 경우, 상기 센서로부터의 이더넷 센싱 신호는 상기 해당 ECU의 이더넷 트랜시버로 바로 전송되어 상기 해당 ECU의 CAN2ETH 변환기를 거치지 않고 다른 노드로 전송될 수 있다. 다른 노드로부터의 이더넷 구동 신호는 상기 해당 ECU의 이더넷 트랜시버를 통해 수신되어 상기 해당 ECU의 CAN2ETH 변환기를 거치지 않고 바로 상기 액추에이터로 전송될 수 있다.
도 6에서는 상기 ECU1(1010)가 센서1-1(1111) 및 센서1-2(1112)를 제어하고, 상기 ECU2(1020)가 센서2(1121) 를 제어하고, 상기 ECU3(1030)가 센서3(1131)을 제어하는 것으로 예시되어 있다. 이는 단지 예시일 뿐으로 각 ECU가 더 많거나 적은 센서 및/또는 액추에이터를 제어하도록 구성되어도 무방함은 물론이다.
이하, 도 7을 참조하여, CAN 신호 및 이더넷 신호의 데이터 패킷 구조에 대해 설명하겠다. 도 7은 본 개시의 일실시예에서 이용될 수 있는 CAN 신호 및 이더넷 신호의 프레임 구조를 도시한다.
먼저, 도 7의 (7-1)을 참조하여, 상기 CAN 신호의 프레임 구조에 대해 살펴 보겠다.
상기 CAN 신호는 SOF(Start of Frame) 필드, ID(Identifier) 필드, RTR(Remote Transmission Request) 필드, 컨트롤 필드 데이터 필드, CRC(Cyclic Redundancy Check) 필드, ACK(Acknowledge) 필드, EOF(End of Frame) 필드를 포함할 수 있다.
상기 SOR 필드는 상기 CAN 신호의 프레임의 처음을 지시하고 모든 노드의 동기화를 위한 정보를 포함할 수 있다.
상기 ID 필드는 11비트의 상기 CAN 신호의 식별 정보(ID)를 포함할 수 있다. 상기 CAN 신호의 CAN ID 값은 0부터 2047 중의 하나로 정해질 수 있으며 그 우선 순위가 높을수록 낮은 CAN ID 값이 정해질 수 있다. 즉, 상기 CAN ID 값이 O인 CAN 신호는 우선 순위가 가장 높고, 상기 CAN ID 값이 2047인 CAN 신호는 우선 순위가 가장 낮을 수 있다.
상기 RTR 필드는 상기 CAN 신호가 데이터 프레임 및 리모트(remote) 프레임 중 어느 것에 해당하는지를 구분하기 위한 정보를 포함할 수 있다.
상기 컨트롤 필드는 2비트의 IDE(IDentifier Extension) 비트 및 4비트의 데이터 길이 코드(DLC, Data Length Code)를 포함할 수 있다.
상기 데이터 필드는 한 노드에서 다른 노드로 전송하기 위한 데이터를 포함할 수 있다.
상기 ACK 필드는 상기 CAN 신호의 수신이 올바르게 수신되었는지를 지시하기 위한 정보를 포함할 수 있다.
상기 EOF 필드는 상기 CAN 신호의 프레임의 끝을 지시하기 위한 정보를 포함할 수 있다.
도 7의 (7-2)을 참조하여, IEEE 802.1Q 규격에 따른 상기 이더넷 신호의 프레임 구조에 대해 살펴 보겠다.
상기 이더넷 신호는 목적지 MAC(Media Access Control) 주소 필드, 출발지 MAC 주소 필드, VRAN(virtual local area network) 태그 필드, 타입/길이(Type/Length) 필드, 페이로드 필드, 및 FCS(Frame Check Sequence) 필드를 포함할 수 있다.
상기 목적지 MAC 주소 필드는, 상기 이더넷 신호를 수신할 노드의 MAC 주소 정보를 포함할 수 있다.
상기 출발지 MAC 주소 필드는, 상기 이더넷 신호를 송신하는 노드의 MAC 주소 정보를 포함할 수 있다.
상기 VRAN 태그 필드는 상기 이더넷 신호가 속하는 VLAN의 정보를 포함할 수 있다. 상기 VRAN 태그 필드는 다시 TPID(Tag protocol identifier) 필드, PCP(Priority Code Point) 필드, CFI(Canonical Format Identifier) 필드, 및 VID (VLAN Identifier) 필드를 포함할 수 있다.
상기 TPID 필드는 상기 출발지 MAC 주소 필드 다음에 상기 VLAN 태그 필드가 존재함을 알리기 위한 정보를 포함할 수 있다.
상기 PCP 필드는 상기 이더넷 신호의 우선 순위에 관한 3비트 정보를 포함할 수 있다. 예를 들어, PCP3 우선 순위를 갖는 이더넷 신호는 CA(Critical Applications) 등급으로 전송되며, PCP2 우선 순위를 갖는 이더넷 신호는 EE(Excellent Effort) 등급으로 전송되며, PCP1 우선 순위를 갖는 이더넷 신호는 BE(Best Effort) 등급으로 전송될 수 있다. 즉, PCP1, PCP2, PCT3 우선 순위를 각각 갖는 3개의 이더넷 신호가 있다면, PCP3 우선 순위를 갖는 이더넷 신호가 제일 빠른 속도로 전송되고, PCP1 우선 순위를 갖는 이더넷 신호가 제일 느린 속도로 전송되고, PCP2 우선 순위를 갖는 이더넷 신호가 그 중간 속도로 전송될 수 있다.
상기 CFI 정보는 상기 이더넷 네트워크에서의 혼잡 상황에서 상기 이더넷 신호가 누락(drop)되도록 하여도 되는지에 관한 정보를 포함할 수 있다.
상기 타입/길이 필드는, 본 필드의 값이 1,500 이하이면 페이로드 필드의 데이터 크기를 의미하고, 그렇지 않으면 상기 이더넷 신호의 타입을 의미할 수 있다.
상기 페이로드 필드는 상기 이더넷 신호가 전송하기 위한 페이로드를 포함할 수 있다.
상기 FCS 필드는 상기 이더넷 신호의 송수신의 오류를 체크하기 위한 정보를 포함할 수 있다.
이하, 도 8을 참조하여 PCP 테이블에 대해 살펴보겠다. 도 8은 본 개시의 일실시예에 따른 PCP 테이블의 예시이다.
도 8에서는, CAN ID가 제 1 범위에 속하는 CAN 신호는 PCP 3 우선 순위(또는 이에 해당하는 PCP 값)에 매핑되고, CAN ID가 제 2 범위에 속하는 CAN 신호는 PCP 2 우선 순위(또는 이에 해당하는 PCP 값)에 매핑되고, CAN ID가 제 3 범위에 속하는 CAN 신호에 대해서는 PCP 1 우선 순위(또는 이에 해당하는 PCP 값)에 매핑되는 것이 예시되어 있다. 도 8에서는 제 1 범위의 CAN ID는 0~500, 제 2 범위의 CAN ID는 501~1000, 제 3 범위의 CAN ID는 1001~2047인 것으로 예시되어 있으나, 본 개시가 이에 한정되는 것은 아니다.
이하, 도 9 및 도 10을 참조하여 도 8의 PCP 테이블에 따라 CAN 신호가 이더넷 신호로 변환되어 노드 간에 전송되는 것에 대해 설명하겠다. 도 9은 본 개시에 따른 차량의 복수 개의 노드들 간의 통신을 위한 하이브리드 네트워크 시스템의 블록도이다. 도 10은 도 8의 PCP 테이블에 따라 CAN 신호가 이더넷 신호로 변환되어 노드 간에 전송되는 순서도를 도시한다.
도 9는 상기 ECU1(1010)이 제어하는 상기 센서1-1(1111)에 의해 생성된 CAN 신호가 상기 ECU1(1010)에서 이더넷 신호로 변환되어 타겟 ECU인 상기 ECU4(1040)으로 전송되는 경우를 예시하고 있다.
상기 ECU1(1010)의 상기 CAN 트랜시버(1011)는 상기 센서1-1(1111)에 의해 생성된 CAN 신호를 수신하여 상기 ECU1(1010)의 상기 CAN2ETH 변환기(1012)로 전달할 수 있다[S101].
상기 CAN2ETH 변환기(1012)는 상기 CAN 신호의 ID 필드로부터 CAN ID를 추출하고 상기 PCP DB(1014)의 상기 PCP 테이블을 참조하여 상기 추출된 CAN ID에 매핑되는 PCP 우선 순위를 검색할 수 있다[S102].
상기 CAN2ETH 변환기(1012)는 상기 검색된 PCP 우선 순위에 해당하는 값이 상기 PCP 필드에 채워지도록 상기 CAN 신호를 이더넷 신호로 변환하고 상기 변환된 이더넷 신호를 상기 이더넷 트랜시버(1013)로 전달할 수 있다[S103].
상기 이더넷 트랜시버(1013)는 3가지 등급(class)의 큐, 제 1 등급 큐(예를 들면, SR(Stream Reservation)-A 등급 큐), 제 2 등급 큐(예를 들면, SR(Stream Reservation)-B 등급 큐), 및 제 3 등급 큐(예를 들면, BE(Best Effort) 등급 큐)를 운용하는 버퍼(미도시)를 운영할 수 있다. 제 1 등급 큐는 상기 3가지 등급 큐들 중에서 가장 넓은 대역폭을 통해 데이터를 전송하는 큐이고, 제 3 등급 큐는 상기 3가지 등급 큐들 중에서 가장 좁은 대역폭을 통해 데이터를 전송하는 큐이고, 제 2 등급의 큐는 상기 3가지 등급 큐들 중에서 그 중간 넓이의 대역폭을 통해 데이터를 전송하는 큐일 수 있다. 제 1 등급 큐 및 제 2 등급 큐는 전체 네트워크 대역폭의 특정 비율(예를 들면, 75%)까지만 담당할 수도 있다. 상기 이더넷 트랜시버(1013)는 PCP 3 우선 순위를 갖는 이더넷 신호는 제 1 등급 큐에 배정하고, PCP 2 우선 순위를 갖는 이더넷 신호는 제 2 등급 큐에 배정하고, PCP 3 우선 순위를 갖는 이더넷 신호는 제 3 등급 큐에 배정할 수 있다.
상기 이더넷 신호는 상기 배정된 큐를 통해 상기 ECU4(1040)으로 전송될 수 있다[S104].
따라서, PCP3 우선 순위를 갖는 이더넷 신호가 제일 빠른 속도로 전송되고, PCP1 우선 순위를 갖는 이더넷 신호가 제일 느린 속도로 전송되고, PCP2 우선 순위를 갖는 이더넷 신호가 그 중간 속도로 전송될 수 있다.
상기 ECU2(1020)의 상기 센서2(1121)는 상기 차량(100)의 안전 주행에 중요하여 긴급하게 전송될 필요가 있는 이더넷 신호(예를 들면, 차량의 전방, 후방 또는 측방에 위치하는 오브젝트를 감지하기 위한 레이더 또는 영상 신호)를 생성하는 이더넷 기반 디바이스로서, 상기 생성된 이더넷 신호가 상기 차량(100)의 안전 주행을 위해 상기 ECU4(1040)로 신속하게 전송될 필요가 있다고 가정하자. 이하, 안전 주행을 위해 신속하게 전송될 필요가 있는 이더넷 신호를 “긴급 이더넷 신호”라고 하겠다. 이 경우, 상기 ECU2(1020)는 상기 긴급 이더넷 신호가 상기 ECU4(1040)로 신속하게 전송되도록 하기 위해 PCP 3 우선 순위를 갖도록 하여 상기 ECU2(1020)의 제 1 등급 큐에 배정되도록 할 수 있다.
그런데, 상기 ECU2(1020)의 제 1 등급 큐에 전송 대기 중인 PCP 3 우선 순위를 갖는 다른 이더넷 신호(예를 들면, PCP 3 우선 순위를 갖도록 CAN 신호로부터 변환된 이더넷 신호)가 많다면, 상기 긴급 이더넷 신호는 상기 다른 이더넷 신호가 전송될 때까지 기다려야 하므로 전송에 레이턴시가 발생할 수 밖에 없을 수 있다.
이를 해결하기 위해, 제 1 등급 큐의 대역폭을 많이 확보하기 위해 CAN 신호의 제 1 범위를 좁히는 것을 고려할 수도 있다. 예를 들면, 제 1 범위의 CAN ID는 0~100, 제 2 범위의 CAN ID는 101~800, 제 3 범위의 CAN ID는 801~2047이 되도록 상기 PCP 테이블을 마련하는 것도 고려할 수 있다.
그러나, 이 경우 제 2 범위의 CAN ID를 갖는 CAN 신호로부터 변환된 이더넷 신호(이하, “제 2 범위 이더넷 신호”라 함)는 더 많아지고 다 같이 제 2 등급 큐를 이용해야 한다. 그리고, 제 3 범위의 CAN ID를 갖는 CAN 신호로부터 변환된 이더넷 신호(이하, “제 3 범위 이더넷 신호”라 함)도 더 많아지고 다 같이 제 3 등급 큐를 이용해야 하므로, 제 2 범위 이더넷 신호와 제 2 범위 이더넷 신호의 전송에 레이턴시가 발생될 수 있다. 제 2 범위 이더넷 신호와 제 2 범위 이더넷 신호는 예를 들면 상기 차량(100) 내의 인포테인먼트 데이터와 관련된 것일 수 있는데, 상기 차량(100)이 주행 중이 아닐 때에도 상기 인포테인먼트 데이터의 전송에 레이턴시가 발생된다면 사용자에게 불편함을 초래할 수 있다. 이에 상기 차량(10)의 주행 상황에 따라 상기 PCP 테이블이 탄력적으로 운용될 필요가 있다.
이하, 도 11을 참조하여 상기 차량(10)의 주행 상황에 따라 탄력적으로 운용될 수 있는 PCP 테이블에 대해 살펴보겠다. 도 11은 본 개시의 일실시예에 따른 PCP 테이블의 예시이다.
이상에서는 상기 긴급 이더넷 신호가 신속하게 전송되도록 하기 위해 PCP 3 우선 순위를 갖도록 하여 해당 ECU의 제 1 등급 큐에 배정되도록 하는 것에 대해 설명하였다.
그런데, 상기 긴급 이더넷 신호가 반드시 PCP 3 우선 순위를 갖도록 하여 해당 ECU의 제 1 등급 큐에 배정되어야 하는 것은 아닐 수 있다. 경우에 따라서, 상기 긴급 이더넷 신호도 그 중요도에 따라 제 1 긴급 이더넷 신호와 제 2 긴급 이더넷 신호로 구분되어, 좀더 중요한 제 1 긴급 이더넷 신호는 PCP 3 우선 순위를 갖도록 하여 상기 해당 ECU의 제 1 등급 큐에 배정되도록 하고, 조금 덜 중요한 제 2 긴급 이더넷 신호는 PCP 2 우선 순위를 갖도록 하여 해당 ECU의 제 2 등급 큐에 배정되도록 할 수도 있다. 제 1 긴급 이더넷 신호 및 제 2 긴급 이더넷 신호에 기반하여 도 11을 설명하겠다.
도 11에 도시된 바와 같이, 제 1 범위의 CAN ID, 제 2 범위의 CAN ID, 및 제 3 범위의 CAN ID는 상기 차량(100)의 현재 상황에 따라 다른 PCP 우선 순위를 부여 받을 수 있다.
예를 들면, 상기 차량(100)의 현재 상황을 네 가지 상황, 즉, 제 1 상황, 제 2 상황, 제 3 상황, 및 제 4 상황으로 구분할 수 있다. 이는 단지 예시로서, 더 적은 수의 상황 또는 더 많은 수의 상황으로 구분될 수 있음은 물론이다.
제 1 상황은 상기 긴급 이더넷 신호의 전송에 필요한 대역폭(이하, 긴급 이더넷 신호용 대역폭)를 75% 이상 확보하면 좋을 것으로 판단되는 상황이고, 제 2 상황은 상기 긴급 이더넷 신호용 대역폭을 75% 미만 50% 이상 확보하면 좋을 것으로 판단되는 상황이고, 제 3 상황은 상기 긴급 이더넷 신호용 대역폭을 50% 미만 25% 이상 확보하면 되는 것으로 판단되는 상황이고, 제 4 상황은 상기 긴급 이더넷 신호용 대역폭을 25% 미만으로 확보하면 되는 것으로 판단되는 상황일 수 있다. 즉, 제 1 상황은 상기 차량(100)의 안전 주행을 가장 중요하게 고려해야 하는 상황(예를 들면, 우천 중에 고속 주행 상황)이고, 제 2 상황에서 제 4 상황으로 갈수록 상기 차량(100)의 안전 주행이 덜 중요하게 고려될 수 있는 상황(예를 들면, 정차 상황)일 수 있다. 상기 각 상황에 따른 상기 긴급 이더넷 신호용 대역폭의 수치 범위는 예시적인 것으로서, 다른 수치 범위로 될 수도 있음은 물론이다.
상기 차량(100)의 상황은 상기 차량(100)의 현재 주행 속도, 현재 날씨, 현재 주행 시각, 주행 도로 여건 등 상기 차량(100)의 안전에 영향을 미칠 수 있는 여러 요소 중 적어도 하나에 기반하여 상기 중앙 ECU5(1050)의 상기 네트워크 매니저(1055)의 상기 차량 상황 결정 모듈(1056)에 의해 결정될 수 있다. 상기 차량 상황 결정 모듈(1056)는 상기 안전에 영향을 미칠 수 있는 여러 요소에 관한 신호를 해당 ECU로부터 수신할 수 있다.
도 11에서는 상기 PCP 테이블에 있어서 상기 CAN ID가 4개의 범위, 즉, 제 1 범위, 제 2 범위, 제 3 범위, 및 제 4 범위로 구분되는 것이 예시되어 있다. 즉, 도 11에서는 제 1 범위의 CAN ID는 0~500, 제 2 범위의 CAN ID는 501~1000, 제 3 범위의 CAN ID는 1001~1500, 및 제 4 범위의 CAN ID는 1501~2047인 것으로 비교적 실질적으로 균등하게 구분되는 예시되어 있으나, 본 개시가 이에 한정되는 것은 아니다.
제 1 상황에서, PCP3 우선 순위에 매핑되는 CAN 신호는 없는 것으로 예시되어 있다. CAN ID가 제 1 범위에 속하는 CAN 신호는 PCP 2 우선 순위에 매핑되고, CAN ID가 제 2 범위 내지 제 4 범위에 속하는 CAN 신호는 PCP 1 우선 순위에 매핑되는 것이 예시되어 있다.
제 2 상황에서는, PCP3 우선 순위에 매핑되는 CAN 신호는 없는 것으로 예시되어 있다. CAN ID가 제 1 범위 및 제 2 범위에 속하는 CAN 신호는 PCP 2 우선 순위에 매핑되고, CAN ID가 제 3 범위 내지 제 4 범위에 속하는 CAN 신호는 PCP 1 우선 순위에 매핑되는 것이 예시되어 있다.
제 3 상황에서는, CAN ID가 제 1 범위에 속하는 CAN 신호는 PCP 3 우선 순위에 매핑되고, CAN ID가 제 2 범위에 속하는 CAN 신호는 PCP 2 우선 순위에 매핑되고, CAN ID가 제 3 범위 내지 제 4 범위에 속하는 CAN 신호는 PCP 1 우선 순위에 매핑되는 것이 예시되어 있다.
제 4 상황에서는, CAN ID가 제 1 범위에 속하는 CAN 신호는 PCP 3 우선 순위에 매핑되고, CAN ID가 제 2 범위 및 제 3 범위에 속하는 CAN 신호는 PCP 2 우선 순위에 매핑되고, CAN ID가 제 4 범위에 속하는 CAN 신호는 PCP 1 우선 순위에 매핑되는 것이 예시되어 있다.
제 1 상황 및 제 2 상황에서는 PCP 3 우선 순위에 매핑되는 CAN 신호가 없으므로 제 1 긴급 이더넷 신호만이 제 1 등급 큐를 독점하여 가장 신속하게 전송될 수 있다.
제 3 상황 및 제 4 상황에서는 제 1 범위의 CAN 신호가 PCP 3 우선 순위에 매핑되므로, 제 1 범위의 CAN 신호에서 변환되는 이더넷 신호, 즉 제 1 범위의 이더넷 신호와 제 1 긴급 이더넷 신호는 제 1 등급 큐를 공유할 수 있다.
제 1 상황에서는 제 1 범위의 CAN 신호만이 PCP 2 우선 순위에 매핑됨에 반하여, 제 2 상황에서는 제 1 범위 및 제 2 범위의 CAN 신호가 PCP 2 우선 순위에 매핑되는 것이 예시되어 있다. 따라서, 제 2 긴급 이더넷 신호는 제 1 상황에서는 제 1 범위의 이더넷 신호와 제 2 등급 큐를 공유하지만, 제 2 상황에서는 제 1 범위의 이더넷 신호 및 제 2 범위의 CAN 신호에서 변환되는 이더넷 신호, 즉 제 2 범위의 이더넷 신호와 제 2 등급 큐를 공유할 수 있다.
제 3 상황에서는 제 2 범위의 CAN 신호만이 PCP 2 우선 순위에 매핑됨에 반하여, 제 4 상황에서는 제 2 범위 및 제 3 범위의 CAN 신호가 PCP 2 우선 순위에 매핑되는 것이 예시되어 있다. 따라서, 제 2 긴급 이더넷 신호는 제 3 상황에서는 제 2 범위의 이더넷 신호와 제 2 등급 큐를 공유하지만, 제 4 상황에서는 제 2 범위의 이더넷 신호 및 제 3 범위의 이더넷 신호와 제 2 등급 큐를 공유할 수 있다.
이하, 도 12 내지 도 14를 참조하여 도 11의 PCP 테이블에 따라 CAN 신호가 이더넷 신호로 변환되어 노드 간에 전송되는 것에 대해 설명하겠다. 도 12 및 도 13은 본 개시에 따른 차량의 복수 개의 노드들 간의 통신을 위한 하이브리드 네트워크 시스템의 블록도이다. 도 14은 도 11의 PCP 테이블에 따라 CAN 신호가 이더넷 신호로 변환되어 노드 간에 전송되는 순서도를 도시한다.
도 12 내지 도 14에서도 도 9처럼 상기 ECU1(1010)이 제어하는 상기 센서1-1(1111)에 의해 생성된 CAN 신호가 상기 ECU1(1010)에서 이더넷 신호로 변환되어 타겟 ECU인 상기 ECU4(1040)으로 전송되는 경우를 예시로 하여 설명하겠다.
상기 차량(100)의 상황을 판단하는데 필요한 요소에 관한 데이터(예를 들면, 현재 속도, 현재 날씨, 현재 주행 시각, 주행 도로 조건) (이하, 차량 상황 판단용 데이터)가 상기 중앙 ECU5(1050)의 상기 네트워크 매니저(1055)로 전송될 수 있다.
도 12에서는 상기 차량 상황 판단용 데이터가 상기 ECU1(1010)가 상기 센서1-2(1112)에 의해 CAN 신호로서 센싱되어 상기 ECU1(100)의 상기 CAN 트랜시버(1011), 상기 CAN2ETH 변환기(1012) 및 상기 이더넷 트랜시버(1013)를 통해 상기 중앙 ECU5(1050)의 상기 네트워크 매니저(1055)로 전송되는 것이 예시되어 있다. 다른 ECU로부터의 상기 차량 상황 판단용 데이터가 상기 중앙 ECU5(1050)의 상기 네트워크 매니저(1055)로 전송될 수 있음은 물론이다. 상기 CAN 신호가 이더넷 신호로 변환되어 노드들 간에 전송되는 것은 앞서 설명되었으므로, 자세한 설명은 생략하도록 하겠다. 상기 차량 상황 판단용 데이터를 센싱하는 센서가 반드시 CAN 기반 디바이스이고, 따라서 상기 차량 상황 판단용 데이터가 반드시 CAN 신호로 센싱되어야 하는 것은 아니다. 상기 차량 상황 판단용 데이터를 센싱하는 센서는 이더넷 기반 디바이스일 수 있고, 따라서 상기 차량 상황 판단용 데이터가 이더넷 신호로 센싱될 수도 있음은 물론이다.
상기 네트워크 매니저(1055)는 상기 차량 상황 판단용 데이터를 적어도 하나의 ECU로부터 수신하여 상기 차량 상황 결정 모듈(1056)을 통해 상기 차량(100)의 현재 상황을 실시간으로 판단할 수 있다.
그리고, 상기 네트워크 매니저(1055)는 상기 차량 상황 통지 모듈(1057)을 통해 상기 차량(100)의 적어도 하나의 ECU에 상기 차량(100)의 현재 상황을 통지할 수 있다. 바람직하게는 도 13에 도시된 바와 같이 상기 네트워크 매니저(1055)는 상기 차량(100)의 모든 ECU에 상기 차량(100)의 현재 상황(예를 들면, 앞서 설명한 제 1 상황 내지 제 4 상황 중의 한 상황)를 통지할 수 있다. 상기 차량(100)의 현재 상황은 이더넷 신호로서 각 ECU의 해당 이더넷 트랜시버를 통해 해당 CAN2ETH 변환기로 전송될 수 있다[S141].
한편, 상기 ECU1(1010)의 상기 CAN 트랜시버(1011)는 상기 센서1-1(1111)에 의해 생성된 CAN 신호를 수신하여 상기 ECU1(1010)의 상기 CAN2ETH 변환기(1012)로 전달할 수 있다[S101].
상기 CAN2ETH 변환기(1012)는 상기 CAN 신호의 ID 필드로부터 CAN ID를 추출하고 상기 수신된 상기 차량(100)의 현재 상황에 기반하여 상기 PCP DB(1014)의 상기 PCP 테이블을 참조하여 상기 추출된 CAN ID에 매핑되는 PCP 우선 순위를 검색할 수 있다[S102].
상기 CAN2ETH 변환기(1012)는 상기 검색된 PCP 우선 순위에 해당하는 값(이하, “PCP 값”이라고도 함)이 상기 PCP 필드에 채워지도록 상기 CAN 신호를 이더넷 신호로 변환하고 상기 변환된 이더넷 신호를 상기 이더넷 트랜시버(1013)로 전달할 수 있다[S103].
상기 이더넷 트랜시버(1013)는 PCP 3 우선 순위를 갖는 이더넷 신호는 제 1 등급 큐에 배정하고, PCP 2 우선 순위를 갖는 이더넷 신호는 제 2 등급 큐에 배정하고, PCP 3 우선 순위를 갖는 이더넷 신호는 제 3 등급 큐에 배정할 수 있다. 상기 이더넷 신호는 상기 배정된 큐를 통해 상기 ECU4(1040)으로 전송될 수 있다[S104].
제 1 긴급 이더넷 신호와 제 2 긴급 이더넷 신호는 이와 같은 상기 차량의 상황에 따른 PCP 테이블의 동적인 운용에 따라 확보되는 대역폭을 통해 각 노드 간에 전송될 수 있다.
도 12 내지 도 14에 따라 CAN 신호가 이더넷 신호로 변환되어 노드 간에 전송되는 것에 대해 도 15를 더욱 참조하여 설명하겠다. 도 15는 도 11의 PCP 테이블에 따라 CAN 신호가 이더넷 신호로 변환되어 노드 간에 전송되는 또다른 순서도를 도시한다.
상기 ECU1(1010)는 상기 차량 상황 판단용 데이터가 상기 센서1-2(1112)로부터 CAN 신호로서 수신할 수 있다[S151].
상기 ECU1(1010)는 상기 CAN 신호를 이더넷 신호로 변환하여 상기 중앙 ECU(1050)으로 전송할 수 있다[S152, S153].
상기 중앙 ECU(1050)는 상기 차량 상황 판단용 데이터를 상기 ECU1(1010)로부터 수신하여 상기 차량(100)의 현재 상황이 제 1 상황 내지 제 4 상황 중 어느 것에 해당하는 것인지 실시간으로 판단할 수 있다[S154]. 예를 들면, 상기 중앙 ECU(1050)는 상기 차량 상황 판단용 데이터에 기반하여 상기 긴급 이더넷 신호의 전송에 필요한 대역폭을 계산함으로써 상기 현재 상황을 판단할 수 있다[S154].
그리고, 상기 중앙 ECU(1050)는 상기 ECU1(1010)을 포함한 모든 ECU에 상기 차량(100)의 현재 상황을 통지할 수 있다[S155].
한편, 상기 ECU1(1010)는 상기 센서1-1(1111)에 의해 생성된 CAN 신호를 수신하고, 상기 CAN 신호의 ID 필드로부터 CAN ID를 추출할 수 있다[S156].
상기 ECU1(1010)는 상기 수신된 상기 차량(100)의 현재 상황에 기반하여 상기 PCP DB(1014)의 상기 PCP 테이블을 참조하여 상기 추출된 CAN ID에 매핑되는 PCP 우선 순위를 검색할 수 있다[S157].
상기 ECU1(1010)는 상기 검색된 PCP 우선 순위에 해당하는 값이 상기 PCP 필드에 채워지도록 상기 CAN 신호를 이더넷 신호로 변환할 수 있다[S158].
상기 ECU1(1010)는 상기 변환된 이더넷 신호를 상기 PCP 우선 순위에 해당하는 큐에 배정하여 상기 ECU4(1040)으로 전송되도록 할 수 있다[S159].
제 1 긴급 이더넷 신호와 제 2 긴급 이더넷 신호는 이와 같은 상기 차량의 상황에 따른 PCP 테이블의 동적인 운용에 따라 확보되는 대역폭을 통해 각 노드 간에 전송될 수 있다.
이하, 도 16 및 도 17을 참조하여, 상기 중앙 ECU5(1050)의 상기 네트워크 매니저(1055)가 상기 차량(100)의 현재 상황을 판단하는 예시에 대해 설명하겠다. 도 16 및 도 17은 본 개시의 일실시예에 따라 차량의 현재 상황을 판단하는 순서도를 도시한다.
상기 네트워크 매니저(1055)는 적어도 하나의 ECU로부터 차량 상황 판단용 데이터를 수신할 수 있다[S161]. 이에 대해서는 앞서 설명되었으므로, 자세한 설명은 생략하도록 하겠다.
상기 네트워크 매니저(1055)는 상기 수신된 차량 상황 판단용 데이터를 테이블로서 저장할 수 있다[S162]. 상기 수신된 차량 상황 판단용 데이터는 휘발성 메모리에 임시 저장될 수도 있고, 비휘발성 메모리에 영구 저장될 수도 있다. 이는 상기 네트워크 매니저(1055)가 각종 노드로부터 수신되는 차량 상황 판단용 데이터를 취합하여 상기 차량의 현재 상태를 파악하기 위한 것이다.
상기 네트워크 매니저(1055)는 상기 수신된 차량 상황 판단용 데이터에 기반하여 상기 차량의 현재 상황을 파악할 수 있다[S163]. 이에 대해서는 도 17을 더욱 참조하여 다시 설명하겠다.
상기 네트워크 매니저(1055)는 상기 파악된 차량의 현재 상황 또는 상기 PCP 테이블 참조 기준을 각 ECU로 전송할 수 있다[S164].
이하, 도 17을 더욱 참조하여, 상기 차량 상황 판단용 데이터는 상기 차량의 주행 여부 및 현재 날씨를 포함하는 것으로 가정하고, 상기 차량 상황 판단용 데이터 및 도 11의 PCP 테이블에 기반하여 상기 차량의 현재 상황을 파악하는 것에 대해 설명하겠다.
상기 네트워크 매니저(1055)는 상기 차량(100)이 현재 주행 중인지 여부를 판단할 수 있다[S171].
상기 차량(100)이 현재 주행 중이면, 상기 네트워크 매니저(1055)는 현재 날씨가 우천 중인지 여부를 판단할 수 있다[S172].
현재 우천 중이면, 상기 네트워크 매니저(1055)는 상기 차량의 현재 상황은 상기 긴급 이더넷 신호의 전송을 위해 제 1 대역폭(예를 들면, 75% 이상) 확보가 필요한 제 1 상황인 것으로 판단할 수 있다[S173].
현재 우천 중이 아니라면, 상기 네트워크 매니저(1055)는 상기 차량의 현재 상황은 상기 긴급 이더넷 신호의 전송을 위해 제 2 대역폭(예를 들면, 75% 미만 50% 이상) 확보가 필요한 제 2 상황인 것으로 판단할 수 있다[S174].
한편, 상기 차량(100)이 현재 주행이 아니더라도, 상기 네트워크 매니저(1055)는 현재 날씨가 우천 중인지 여부를 판단할 수 있다[S175].
현재 우천 중이면, 상기 네트워크 매니저(1055)는 상기 차량의 현재 상황은 상기 긴급 이더넷 신호의 전송을 위해 제 3 대역폭(예를 들면, 50% 미만 25% 이상) 확보가 필요한 제 3 상황인 것으로 판단할 수 있다[S176].
현재 우천 중이 아니라면, 상기 네트워크 매니저(1055)는 상기 차량의 현재 상황은 상기 긴급 이더넷 신호의 전송을 위해 제 4 대역폭(예를 들면, 25% 미만) 확보가 필요한 상황인 것으로 판단할 수 있다[S177].
이상에서는 상기 차량의 상황이 4가지 상황으로 구분되도록 상기 PCP 테이블이 정의되는 것에 대해 설명하였다. 그러나, 이는 단지 예시일 뿐이고 더 적거나 많은 수의 상황으로 구분될 수도 있다. 더 적은 수의 상황으로 정의되는 것에 대해 도 18 및 도 19를 더욱 참조하여 설명하겠다. 도 18은 본 개시의 일실시예에 따른 PCP 테이블의 예시이고, 도 19는 본 개시의 일실시예에 따라 차량의 현재 상황을 판단하는 순서도를 도시한다.
도 18에 도시된 바와 같이, 상기 차량(100)의 현재 상황을 두 가지 상황, 즉, 제 1 상황, 제 2 상황으로 구분할 수 있다.
제 1 상황은 상기 긴급 이더넷 신호용 대역폭을 50% 이상 확보하면 좋을 것으로 판단되는 상황이고, 제 2 상황은 상기 긴급 이더넷 신호용 대역폭을 50% 미만 확보하면 판단되는 상황일 수 있다.
제 1 상황에서는, PCP3 우선 순위에 매핑되는 CAN 신호는 없는 것으로 예시되어 있다. CAN ID가 제 1 범위 및 제 2 범위에 속하는 CAN 신호는 PCP 2 우선 순위에 매핑되고, CAN ID가 제 3 범위 내지 제 4 범위에 속하는 CAN 신호는 PCP 1 우선 순위에 매핑되는 것이 예시되어 있다.
제 2 상황에서는, CAN ID가 제 1 범위에 속하는 CAN 신호는 PCP 3 우선 순위에 매핑되고, CAN ID가 제 2 범위 및 제 3 범위에 속하는 CAN 신호는 PCP 2 우선 순위에 매핑되고, CAN ID가 제 4 범위에 속하는 CAN 신호는 PCP 1 우선 순위에 매핑되는 것이 예시되어 있다.
제 1 상황에서는 PCP 3 우선 순위에 매핑되는 CAN 신호가 없으므로 제 1 긴급 이더넷 신호만이 제 1 등급 큐를 독점하여 가장 신속하게 전송될 수 있다. 제 1 상황에서는 제 1 범위 및 제 2 범위의 CAN 신호가 PCP 2 우선 순위에 매핑되는 것이 예시되어 있다. 따라서, 제 2 긴급 이더넷 신호는 제 1 상황에서 제 1 범위의 이더넷 신호 및 제 2 범위의 이더넷 신호와 제 2 등급 큐를 공유할 수 있다.
제 2 상황에서는 제 1 범위의 CAN 신호가 PCP 3 우선 순위에 매핑되므로, 제 1 범위의 이더넷 신호와 제 1 긴급 이더넷 신호는 제 1 등급 큐를 공유할 수 있다. 제 2 상황에서는 제 2 범위 및 제 3 범위의 CAN 신호가 PCP 2 우선 순위에 매핑되는 것이 예시되어 있다. 따라서, 제 2 상황에서는 제 2 긴급 이더넷 신호는 제 2 범위의 이더넷 신호 및 제 3 범위의 이더넷 신호와 제 2 등급 큐를 공유할 수 있다.
이하, 도 19를 더욱 참조하여, 상기 차량 상황 판단용 데이터는 상기 차량의 주행 여부를 포함하는 것으로 가정하고, 상기 차량 상황 판단용 데이터 및 도 18의 PCP 테이블에 기반하여 상기 차량의 현재 상황을 파악하는 것에 대해 설명하겠다.
상기 네트워크 매니저(1055)는 상기 차량(100)이 현재 주행 중인지 여부를 판단할 수 있다[S191].
상기 차량(100)이 현재 주행 중이면, 상기 네트워크 매니저(1055)는 상기 차량의 현재 상황은 상기 긴급 이더넷 신호의 전송을 위해 제 1 대역폭(예를 들면, 50% 이상) 확보가 필요한 제 1 상황인 것으로 판단할 수 있다[S192].
상기 차량(100)이 현재 주행이 아니면, 상기 네트워크 매니저(1055)는 상기 차량의 현재 상황은 상기 긴급 이더넷 신호의 전송을 위해 제 2 대역폭(예를 들면, 50% 미만) 확보가 필요한 제 2 상황인 것으로 판단할 수 있다[S193].
이상에서는 상기 PCP 테이블에 있어서 상기 CAN ID가 4개의 범위 즉, 제 1 범위, 제 2 범위, 제 3 범위, 및 제 4 범위로 구분될 수 있고, 제 1 범위의 CAN ID는 0~500, 제 2 범위의 CAN ID는 501~1000, 제 3 범위의 CAN ID는 1001~1500, 및 제 4 범위의 CAN ID는 1501~2047인 것으로 예시되었다. 그러나, 상기 PCP는 이에 한정되지 않고 다양한 기준으로 정의될 수 있다. 이에 대해 도 20 및 도 21을 더욱 참조하여 설명하겠다. 도 20 및 도 21은 본 개시의 일실시예에 따른 PCP 테이블의 예시이다.
도 20에 도시된 바와 같이, 상기 CAN ID가 4개의 범위, 즉, 제 1 범위, 제 2 범위, 제 3 범위, 및 제 4 범위로 구분됨에 있어 비교적 지수 함수 스케일로 구분될 수도 있다. 즉, 제 1 범위의 CAN ID는 0~50, 제 2 범위의 CAN ID는 51~250, 제 3 범위의 CAN ID는 251~1000, 및 제 4 범위의 CAN ID는 1001~2047인 것으로 구분될 수도 있다.
한편, 상기 CAN 신호들은 상기 CAN ID에 의해서만 구분되어야 하는 것은 아니다. 상기 CAN 신호들은 이들의 전송 주기에 기반하여 구분될 수도 있다. CAN 신호의 전송 주기가 짧을수록 그 CAN 신호의 중요도가 높을 수 있다는 것에 기반한 것이다.
즉, 도 21에 도시된 바와 같이, 상기 CAN 신호들은 3개의 범위, 제 1 범위, 제 2 범위, 제 3 범위로 구분될 수 있다. 즉, 제 1 범위의 CAN 신호는 신호 전송 주기가 0.1초 이하인 CAN 신호이고, 제 2 범위의 CAN 신호는 신호 전송 주기가 0.1초 초과 0.25초 미만인 CAN 신호이고, 제 3 범위의 CAN 신호는 신호 전송 주기가 0.25초 이하인 CAN 신호일 수 있다. 상기 전송 주기의 범위 수치는 예시적인 것으로서 이에 한정되지 않음은 물론이다.
이와 같은 PCP 테이블에 기반하여 CAN 신호를 이더넷 신호로 변환하는 것에 대해서는 앞서 설명되었으므로, 자세한 설명은 생략하도록 하겠다.
이하, 도 22을 참조하여, 복수 개의 ECU들 간의 통신을 위해 레거시 네트워크 시스템과 차세대 네트워크 시스템이 상기 차량(100)에 적용될 수 있는 하이브리드 네트워크 시스템에 대해 설명하겠다. 도 22은 본 개시에 따른 차량의 복수 개의 노드들 간의 통신을 위한 하이브리드 네트워크 시스템의 블록도이다.
이하에서는, 상기 레거시 네트워크 시스템은 CAN 시스템이고, 상기 차세대 네트워크 시스템은 이더넷 네트워크 시스템인 것으로 가정하겠다. 그러나, 이는 단순히 예시일 뿐이고, 상기 레거시 네트워크 시스템 및 상기 차세대 네트워크 시스템에 다른 네트워크 시스템이 고려될 수 있음은 물론이다.
상기 차량(100)이 복수 개의 ECU들을 포함할 수 있다. 도 22에서는 상기 차량(100)이 4개의 ECU, 즉 ECU1(1010), ECU2(1020), ECU3(1030), ECU4(1040)를 포함하는 것으로 예시되어 있다. 그러나, 이는 단지 예시일 뿐으로서, 상기 차량(100)은 더 많은 ECU들을 포함할 수 있음은 물론이다.
각 ECU(1010, 1020, 1030, 1040)는 CAN 신호를 이더넷 신호로 변환하기 위한 CAN2ETH 변환기(1012, 1022, 1032, 1042)와, SDN(Software Defined Networking) 방식의 통신을 위한 SDN 스위치(1018, 1028, 1038, 1048)를 포함할 수 있다. 각 ECU에서 CAN 트랜시버 및 이더넷 트랜시버의 표시는 생략되어 있다.
즉, 상기 ECU1(1010)는 CAN2ETH 변환기1(1012)과 SDN 스위치1(1018)을 포함하고, 상기 ECU2(1020)는 CAN2ETH 변환기2(1022)과 SDN 스위치2(1028)을 포함하고, 상기 ECU3(1030)는 CAN2ETH 변환기3(1032)과 SDN 스위치3(1038)을 포함하고, 상기 ECU4(1040)는 CAN2ETH 변환기4(1042)과 SDN 스위치4(1048)을 포함할 수 있다.
각 ECU(1010, 1020, 1030, 1040)는 적어도 하나의 센서(1111, 1121, 1131, 1141) 및/또는 적어도 하나의 액추에이터(예들 들면, 전술한 구동부)(1113, 1122, 1132, 1142)를 제어할 수 있다.
도 22에서는 상기 ECU1(1010)가 센서1(1111) 및 액추에이터1(1113)를 제어하고, 상기 ECU2(1020)가 센서2(1121) 및 액추에이터2(1122)를 제어하고, 상기 ECU3(1030)가 센서3(1131) 및 액추에이터3(1132)를 제어하고, 상기 ECU4(1040)가 센서4(1141) 및 액추에이터4(1142)를 제어하는 것으로 예시되어 있다. 이는 단지 예시일 뿐으로 각 ECU가 더 많거나 적은 센서 및/또는 액추에이터를 제어하도록 구성되어도 무방함은 물론이다.
또한, 상기 차량은 상기 복수의 ECU들을 제어하는 것과 같이 상기 차량(100)의 전기/전자 제어를 관장하기 위한 호스트 컴퓨터(1050)을 포함할 수 있다. 상기 호스트 컴퓨터(1050)는 HPC(High-performance computer) 또는 범용 컴퓨터(general purpose computer)일 수 있다. 상기 호스트 컴퓨터(1050)는 SDN 스위치5(1058), SDN 컨트롤러(1053), 우선순위 매니저(1054), 및 어플리케이션(1059)을 포함할 수 있다. 상기 호스트 컴퓨터(1050)는 상기 ECU(1050)과 같은 엔티티일 수도 있고, 다른 엔티티일 수 있다.
각 ECU(1010, 1020, 1030, 1040) 및 상기 호스트 컴퓨터(1050) 각각은 본 네트워크 시스템의 노드로 이해될 수 있다. 도 22에서는 본 네트워크 시스템이 5개의 노드들로 구성된 것으로 예시되어 있으나, 이보다 적거나 많은 노드들로 구성될 수 있음은 물론이다.
상기 ECU1(1010)는 L1-2 링크를 통해 상기 ECU2(1020)와 연결되고, L1-3 링크를 통해 상기 ECU3(1030)과 연결되고, L1-5 링크를 통해 상기 호스트 컴퓨터(1050)과 연결될 수 있다.
상기 ECU2(1020)는 L2-4 링크를 통해 상기 ECU4(1040)와 연결되고, L2-5 링크를 통해 상기 호스트 컴퓨터(1050)과 연결될 수 있다.
상기 ECU3(1030)는 L3-4 링크를 통해 상기 ECU4(1040)와 연결되고, L3-5 링크를 통해 상기 호스트 컴퓨터(1050)과 연결될 수 있다.
상기 ECU4(1040)는 L4-5 링크를 통해 상기 호스트 컴퓨터(1050)과 연결될 수 있다.
본 네트워크 시스템에서의 상기 링크들은 예시적인 것이다. 따라서, 이들 링크들 중 어느 하나가 없도록 본 네트워크 시스템이 구성되거나 상기 다른 링크(예를 들면, 상기 ECU1(1010)과 상기 ECU4(1040) 간을 연결하는 링크 및/또는 상기 ECU2(1020)과 상기 ECU3(1030) 간을 연결하는 링크)가 더 정의될 수도 있음은 물론이다.
각 ECU의 구성에 대해 좀더 자세히 살펴보겠다.
각 ECU(1010, 1020, 1030, 1040) 내의 상기 CAN2ETH 변환기(1012, 1022, 1032, 1042)와 상기 SDN 스위치(1018, 1028, 1038, 1048)의 동작에 대해 ECU1(1010)를 예시로 하여 설명하겠다. ECU1(1010)에 대한 설명은 다른 ECU에도 적용될 수 있음은 물론이다.
상기 CAN2ETH 변환기1(1012)은 상기 ECU1(1010)이 제어하는 상기 센서1(1111)로부터 상기 센서1(1111)이 센싱한 신호를 수신할 수 있다. 상기 센서1(1111)이 센싱한 신호는 CAN 시스템에 기반한 CAN 센싱 신호로서 상기 ECU1(1010)에 전송될 수 있다.
상기 CAN2ETH 변환기1(1012)는 상기 CAN 센싱 신호(또는 메시지)를 이더넷 센싱 신호(또는 메시지)로 변환할 수 있다.
상기 SDN 스위치1(1018)는 상기 ECU1(1010)이 다른 ECU 또는 호스트 컴퓨터(즉, 다른 노드)과 이더넷 신호를 통신하기 위한 것으로서, 예를 들면 상기 이더넷 센싱 신호를 다른 노드의 SDN 스위치로 전송할 수 있고 다른 노드로부터 이더넷 신호를 수신할 수 있다. 상기 이더넷 신호의 목적지 IP(Internet Protocol)/MAC(Media Access Control) 주소는 상기 이더넷 신호의 타입(및/또는 식별자)에 따라 상기 SDN 스위치1(1018)에 사전 정의되어 있을 수 있다. 상기 SDN 스위치1(1018)은 각 이더넷 신호의 타입에 대응되는 전송 경로에 관한 정보(즉, 소스 IP/MAC 주소 및 목적지 IP/MAC 주소 간 또는 IP/MAC 주소와 출력 포트 간의 매칭)가 정리된 테이블을 저장할 수 있다. 본 개시에서 상기 테이블을 “전달 테이블(forward table)”로 호칭될 수도 있다.
이와 같이 한 ECU와 다른 ECU 간에 또는 한 ECU와 호스트 컴퓨터 간에 이더넷 신호는 SDN 스위치를 통해 통신될 수 있다. 상기 SDN(Software Defined Networking)는 이더넷 네트워크를 제어 평면(control plane)과 데이터 평면(data plane)으로 분리하여, 상기 제어 평면을 소프트웨어적으로 일괄 관리함으로써 상기 데이터 평면에서의 이더넷 신호의 전송 경로의 경로 패턴 및 대역폭 중 적어도 하나를 상기 차량(100) 내의 통신 환경 등에 따라 손쉽게 변경할 수 있도록 하기 위한 것이다. 여기서 대역폭이 변경된다고 하는 것은 통신에 필요한 대역폭을 확보하는 것으로 이해될 수도 있다.
이하, 상기 호스트 컴퓨터(1050)의 각 구성요소에 대해 설명하겠다.
상기 SDN 스위치5(1058)는 상기 호스트 컴퓨터(1050)가 다른 ECU들과 이더넷 신호를 통신하기 위한 것이다. 상기 이더넷 신호의 전송 경로가 상기 이더넷 신호의 타입에 따라 상기 SDN 스위치5(1058)에 사전 정의되어 있음은 마찬가지이다. 상기 SDN 스위치5(1058)도 상기 SDN 스위치1(1018)처럼 각 이더넷 신호의 타입에 대응되는 전송 경로가 정리된 전달 테이블을 저장할 수 있다.
상기 SDN 컨트롤러(1053)는 상기 차량(100) 내의 제어 평면(control plane)을 담당하기 위한 것으로서, 상기 데이터 평면에서의 이더넷 신호의 전송 경로(즉, 상기 전송 경로의 경로 패턴 및 대역폭 중 적어도 하나)를 상기 차량(100) 내의 통신 환경 등에 따라 변경할 수 있다.
상기 우선순위 매니저(1054)는 상기 차량(100) 내에서 멀티캐스팅되는 서비스 통신을 위한 신호(또는 메시지)를 모니터링하고 상기 모니터링된 신호 중에서 일정 우선순위 이상인 신호를 상기 SDN 컨트롤러(1053)에 전달함으로써, 상기 SDN 컨트롤러(1053)가 일정 우선순위 이상인 신호에 대응되는 서비스 통신과 관련된 이더넷 신호의 전송 경로를 확보하거나 변경할 수 있도록 하기 위한 것이다.
상기 어플리케이션(1059)는 상기 SDN 컨트롤러(1053) 및 상기 우선순위 매니저(1054)의 동작 및/또는 연산 등을 지원하기 위한 어플리케이션일 수 있다. 상기 SDN 컨트롤러(1053) 및 상기 우선순위 매니저(1054)는 자신의 동작 및/또는 연산을 위해 상기 어플리케이션(1059)를 활용할 수 있다.
이하, 도 23 내지 도 25를 참조하여, 도 22의 네트워크 시스템에서 이더넷 신호의 전송 경로의 변경에 대해 설명하겠다. 도 23은 본 개시의 일실시예에 따라 이더넷 신호의 전송 경로를 확보하기 위한 제어 요청 메시지(control request message)의 패킷 구조(packet structure)를 도시하고, 도 24 및 도 25는 도 23의 제어 요청 메시지에 따라 이더넷 신호의 전송 경로가 변경되는 예시를 도시한다.
상기 ECU2(1020)가 예컨대 상기 센서2(1121)로부터 CAN 센싱 신호를 수신하는 경우, 상기 ECU2(1020)의 CAN2EHT 변환기2(1022)는 상기 CAN 센싱 신호를 이더넷 센싱 신호로 변환하여 상기 ECU2(1020)의 상기 SDN 스위치2(1028)로 전달하고, 상기 SDN 스위치2(1028)는 자신에 가지고 있는 전달 테이블(이하, “전달 테이블2”라고 함)을 참조하여, 상기 변환된 이더넷 센싱 신호를 본 네트워크 시스템 내의 다른 노드로 전송될 수 있다. 상기 이더넷 센싱 신호를 수신하는 다른 노드는 상기 ECU4(1040)라고 가정하자. 그리고, 상기 전달 테이블2에서 사전 정의된 상기 이더넷 센싱 신호의 전송 경로는 L2-4 링크라고 (즉, 상기 전송 경로가 상기 L2-4 링크로 구성되는 것으로) 가정하자.
그런데, 상기 ECU2(1020)가 상기 이더넷 센싱 신호를 상기 L2-4 링크로 상기 ECU4(1040)으로 전송하는 경우, 상기 L2-4 링크의 현재 데이터 트래픽 상황에 따라서 상기 이더넷 센싱 신호의 레이턴시(latency)가 발생할 수도 있다. 심지어 상기 L2-4 링크에 어떤 물리적 문제가 발생되었다면 상기 ECU4(1040)는 아예 상기 이더넷 센싱 신호를 수신하지 못할 수도 있다.
이와 같은 상황을 방지하기 위해, 상기 ECU2(1020)가 상기 이더넷 센싱 신호를 상기 ECU4(1040)으로 전송하기 전에, 상기 이더넷 센싱 신호의 전송 경로를 확보하기 위한 제어 요청 메시지를 상기 호스트 컴퓨터(1050)로 전송할 수 있다.
상기 제어 요청 메시지는, 도 23에 도시된 바와 같이, 이더넷 패킷 파트(A)와 페이로드 패킷 파트(B)로 구성될 수 있다.
상기 이더넷 패킷 파트(A)는 노드들간에 TCP/IP 기반의 통신을 하기 위한 규격에 부합하기 위한 것으로서, 이더넷 패킷 헤더(ETH), 네트워크 가상화를 위한 추가 정보에 관한 VLAN 태그 헤더(VLAN Tag), IP 헤더(IP), 및 TCP 헤더 (TCP)를 포함할 수 있다.
상기 페이로드 패킷 파트(B)는 상기 CAN 센싱 신호(또는 상기 이더넷 센싱 신호)의 타입을 표시하는 메시지 타입(Msg. Type), 상기 CAN 센싱 신호(또는 상기 이더넷 신호)의 식별자(CAN ID), 상기 CAN 센싱 신호(또는 상기 이더넷 센싱 신호)의 우선 순위(Priority), 상기 CAN 센싱 신호(또는 상기 이더넷 센싱 신호)의 데이터 사이즈(Size), 상기 이더넷 센싱 신호의 소스 IP 정보(Src. IP)(즉, 소스 식별자), 및 상기 이더넷 센싱 신호의 목적지 IP 정보(Des. IP)(즉, 목적지 식별자)를 포함할 수 있다. 도 23에서는 메시지 타입이 네트워크 제어 리퀘스트(NET_CTRL_REQ)인 것으로 예시되어 있다.
상기 제어 요청 메시지는, 도 24에 도시된 바와 같이, L2-5 링크를 따라서 상기 호스트 컴퓨터(1050)의 상기 SDN 컨트롤러(1053)로 전송할 수 있다.
상기 제어 요청 메시지는 상기 이더넷 센싱 신호의 우선 순위가 일정 레벨 이상인 경우에만 생성되어 전송될 수도 있고, 우선 순위에 상관 없이 생성되어 전송될 수도 있다.
상기 SDN 컨트롤러(1053)는 상기 제어 요청 메시지로부터 상기 ECU2(1020)가 전송하려고 하는 상기 이더넷 센싱 신호의 우선순위를 파악할 수 있다.
상기 파악된 우선 순위가 일정 레벨 이상으로 높으면, 상기 SDN 컨트롤러(1053)는, 도 25에 도시된 바와 같이, 상기 제어 요청 메시지 내의 정보를 이용하여 상기 이더넷 센싱 신호의 예정된 전송 경로가 L2-4 링크(전송 경로1)임을 파악할 수 있다. 즉, 상기 SDN 컨트롤러(1053)는 상기 예정된 전송 경로의 경로 패턴은 상기 L2-4 링크로 구성됨을 파악할 수 있다. 상기 SDN 컨트롤러(1053)는 상기 제어 요청 메시지로부터 상기 이더넷 센싱 신호의 데이터 사이즈도 파악할 수 있다.
그러면, 상기 SDN 컨트롤러(1053)는 상기 L2-4 링크에서 상기 이더넷 센싱 신호를 전송함에 필요한 대역폭이 이용 가능한 상태인지 확인할 수 있다. 상기 필요한 대역폭은 상기 이더넷 센싱 신호의 데이터 사이즈에 따라 다를 수 있다. 예를 들면, 상기 필요한 대역폭은 상기 이더넷 센싱 신호의 데이터 사이즈에 비례할 수 있다.
동일한 데이터 사이즈의 이더넷 센싱 신호에 대해 상기 필요한 대역폭은 상기 우선 순위에 상관 없이 같을 수도 있고 상기 우선 순위에 따라 다를 수도 있다. 상기 우선 순위에 따라 필요한 대역폭이 다르다면, 상기 필요한 대역폭은 우선 순위가 높으면 넓고, 우선 순위가 낮으면 좁을 수 있다. 또는 우선 순위에 따라 필요한 대역폭이 다르다면, 상기 필요한 대역폭은 우선 순위가 높으면 좁고, 우선 순위가 낮으면 넓을 수도 있다.
확인 결과 필요한 대역폭이 이용 가능하다면, 상기 SDN 컨트롤러(1053)는 상기 이더넷 센싱 신호의 예정된 전송 경로(전송 경로1), 즉, 상기 L2-4 링크를 그대로 유지할 수 있다. 즉, 상기 전송 경로의 패턴이 상기 L2-4 링크로 구성됨이 유지될 수 있다. 그리고, 상기 SDN 컨트롤러(1053)는 상기 L2-4 경로에서 상기 이더넷 센싱 신호의 전송에 필요한 대역폭을 확보해둘 수 있다.
따라서, 상기 이터넷 센싱 신호는 상기 예정된 전송 경로에 따라 전송될 수 있다.
확인 결과 필요한 대역폭이 이용 가능하지 않다면, 상기 SDN 컨트롤러(1053)는 상기 예정된 전송 경로(전송 경로1)를 유지하되, 상기 이더넷 센싱 신호보다 우선순위가 낮은 다른 통신 트래픽을 차단하여 상기 이더넷 센싱 신호의 전송을 위한 대역폭을 확보해둘 수 있다.
따라서, 상기 이터넷 센싱 신호는 상기 예정된 전송 경로에 따라 전송될 수 있다.
상기 필요한 대역폭이 처음부터 이용 가능하여 확보하는 경우와 상기 필요한 대역폭이 처음에는 이용 가능하지 않지만 다른 통신 트래픽을 차단함으로써 확보 가능한 경우 모두 상기 대역폭이 확보 가능한 경우로 이해될 수 있다.
그러나, 상기 이더넷 센싱 신호보다 우선순위가 낮은 다른 통신 트래픽이 없어서 상기 예정된 전송 경로(전송 경로1)에서의 상기 이더넷 센싱 신호의 전송에 필요한 대역폭이 확보될 수 없을 수도 있다.
또는, 상기 예정된 전송 경로에 물리적인 문제가 발생하여 상기 예정된 전송 경로가 차단되어 이를 통한 이더넷 통신이 아예 불가능할 수도 있다. 이 경우도 에서의 상기 이더넷 센싱 신호의 전송에 필요한 대역폭을 확보할 수 없는 경우의 일종으로 이해될 수 있다.
이 경우에는 상기 SDN 컨트롤러(1053)는, 도 25에 도시된 바와 같이, 상기 예정된 전송 경로(즉, 전송 경로의 경로 패턴)(전송 경로1)를 상기 이더넷 센싱 신호의 전송을 위한 대역폭이 확보할 수 있는 다른 전송 경로(전송 경로2)로 변경할 수 있다. 도 25에서는 상기 다른 전송 경로(전송 경로2)(즉, 경로 패턴)가 상기 L2-5 링크 및 상기 S4-5 링크로 구성되는 것이 예시되어 있다. 이는 상기 다른 전송 경로를 위한 예시일 뿐으로서 다르게 구성될 수도 있음은 물론이다. 예를 들여, 상기 다른 전송 경로는 상기 L1-2 링크, 상기 L1-3 링크, 및 상기 L3-4 링크로 구성될 수 있다.
상기 전송 경로의 경로 패턴이 상기 전송 경로1에서 상기 전송 경로2로 변경되는 경우에는 상기 SDN 컨트롤러(1053)는 상기 이더넷 센싱 신호의 전송을 위한 상기 전송 경로 2에 관여된 상기 SDN 스위치2(1028)의 전달 테이블2 및 상기 SDN 스위치5(1058)의 전달 테이블5을 변경하도록 상기 SDN 스위치2(1028) 및 상기 SDN 스위치5(1058)를 제어할 수 있다.
즉, 상기 전달 테이블2는 상기 SDN 스위치2(1028)가 상기 CAN2ETH 변환기2(1022)로부터 상기 이더넷 센싱 신호를 수신하면 이를 상기 SDN 스위치5(1058)로 전송하도록 변경될 수 있다.
상기 전달 테이블5는 상기 SDN 스위치5(1058)가 상기 SDN 스위치2(1028)로부터 상기 이더넷 센싱 신호를 수신하면 이를 상기 SDN 스위치4(1048)로 전송하도록 변경될 수 있다.
따라서, 상기 이더넷 센싱 신호는 상기 다른 전송 경로를 통해 전송될 수 있다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 자율주행 시스템의 제어부를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.

Claims (20)

  1. 차량 내 제 1 노드가 CAN(Controller Area Network) 통신을 통해 제 1 노드의 제 1 센서로부터 제 1 CAN 신호를 수신하는 단계;
    제 1 노드가 제 1 CAN 신호를 차량 상황에 따라서 다른 우선순위 정보를 갖는 제 1 이더넷 신호로 변환하는 단계; 및
    제 1 노드가 이더넷 통신을 통해 상기 변환된 제 1 이더넷 신호를 상기 차량 내 제 2 노드로 전송하는 단계;를 포함하는 차량 내 네트워크의 제어 방법.
  2. 제 1 항에 있어서,
    상기 우선순위 정보는 PCP(Priority Code Point) 값을 포함하는 것을 특징으로 하는 차량 내 네트워크의 제어 방법.
  3. 제 2 항에 있어서,
    제 1 노드는, 제 1 차량 상황 및 제 1 CAN ID 범위, 제 1 차량 상황 및 제 2 CAN ID 범위, 제 2 차량 상황 및 제 1 CAN ID 범위, 제 2 차량 상황 및 제 2 CAN ID 범위에 각각 대응되는 PCP 값을 갖는 PCP 테이블을 저장하는 것을 특징으로 하는 차량 내 네트워크의 제어 방법.
  4. 제 3 항에 있어서,
    제 1 노드가 상기 차량 내 제 3 노드의 네트워크 매니저로부터 상기 차량 상황을 수신하는 단계;를 더욱 포함하는 것을 특징으로 하는 차량 내 네트워크의 제어 방법.
  5. 제 3 항에 있어서,
    상기 네트워크 매니저가 상기 차량 내 적어도 하나의 노드로부터 차량 상황 판단용 데이터를 수신하는 단계; 및
    상기 네트워크 매니저가 상기 차량 상황 판단용 데이터에 기반하여 상기 차량 상황을 판단하는 단계;를 더욱 포함하는 것을 특징으로 하는 차량 내 네트워크의 제어 방법.
  6. 제 5 항에 있어서,
    상기 차량 상황 판단용 데이터는 주행 속도, 날씨, 시간, 주행 도로 여건 중 적어도 하나에 관한 정보를 포함하는 것을 특징으로 하는 차량 내 네트워크의 제어 방법.
  7. 제 5 항에 있어서,
    상기 네트워크 매니저가 상기 판단된 차량 상황을 상기 차량 내 모든 노드에 전송하는 단계;를 더욱 포함하는 것을 특징으로 하는 차량 내 네트워크의 제어 방법.
  8. 제 4 항에 있어서,
    제 1 노드가, 상기 수신한 차량 상황이 제 1 차량 상황 및 제 2 차량 상황 중 어느 것에 대응되는지와, 제 1 CAN 신호의 CAN ID가 제 1 CAN ID 범위 및 제 2 CAN ID 범위 중 어느 것에 속하는지에 기반하여, 상기 PCP 테이블에서 제 1 CAN 신호를 위한 PCP 값을 검색하는 단계; 및
    제 1 노드가 제 1 CAN 신호를 상기 검색된 PCP 값을 갖는 제 1 이더넷 신호로 변환하는 단계;를 포함하는 것을 특징으로 하는 차량 내 네트워크의 제어 방법.
  9. 제 2 항에 있어서,
    제 1 노드는, 제 1 차량 상황 및 제 1 CAN 신호 전송 주기 범위, 제 1 차량 상황 및 제 2 CAN 신호 전송 주기 범위, 제 2 차량 상황 및 제 1 CAN 신호 전송 주기 범위, 제 2 차량 상황 및 제 2 CAN 신호 전송 주기 범위에 각각 대응되는 PCP 값을 갖는 PCP 테이블을 저장하는 것을 특징으로 하는 차량 내 네트워크의 제어 방법.
  10. 제 9 항에 있어서,
    제 1 노드가, 상기 전송 받은 차량 상황이 제 1 차량 상황 및 제 2 차량 상황 중 어느 것에 대응되는지와, 제 1 CAN 신호의 전송 주기가 제 1 CAN 신호 전송 주기 범위 및 제 2 CAN 신호 전송 주기 범위 중 어느 것에 속하는지에 기반하여, 상기 PCP 테이블에서 제 1 CAN 신호를 위한 PCP 값을 검색하는 단계; 및
    제 1 노드가 제 1 CAN 신호를 상기 검색된 PCP 값을 갖는 제 1 이더넷 신호로 변환하는 단계;를 포함하는 것을 특징으로 하는 차량 내 네트워크의 제어 방법.
  11. 제 3 항에 있어서,
    제 1 노드는 제 1 PCP 값을 갖는 제 1 이더넷 신호를 제 1 등급 큐를 통해 제 2 노드로 전송하고, 제 2 PCP 값을 갖는 제 1 이더넷 신호를 제 2 등급 큐를 통해 제 2 노드로 전송하는 것을 특징으로 하는 차량 내 네트워크의 제어 방법.
  12. 제 11 항에 있어서,
    제 1 등급 큐의 전송 대역폭은 제 2 등급 큐의 전송 대역폭보다 넓은 것을 특징으로 하는 차량 내 네트워크의 제어 방법.
  13. 제 11 항에 있어서,
    제 4 노드가 긴급 이더넷 신호를 제 1 등급 큐를 통해 다른 노드로 전송하는 단계;를 포함하는 것을 특징으로 하는 차량 내 네트워크의 제어 방법.
  14. 제 13 항에 있어서,
    제 4 노드는 상기 차량의 안전 운행에 필요한 데이터를 센싱하는 이더넷 기반의 제 2 센서를 포함하고,
    제 2 센서는 상기 차량의 안전 운행에 필요한 데이터를 상기 긴급 이더넷 신호로서 생성하는 것을 특징으로 하는 차량 내 네트워크의 제어 방법.
  15. 제 13 항에 있어서,
    상기 긴급 이더넷 신호는 제 1 긴급 이더넷 신호 및 제 2 긴급 이더넷 신호를 포함하고,
    제 4 노드는 제 1 긴급 이더넷 신호를 제 1 등급 큐를 통해 다른 노드로 전송하고, 제 2 긴급 이더넷 신호를 제 2 등급 큐를 통해 다른 노드로 전송하는 것을 특징으로 하는 차량 내 네트워크의 제어 방법.
  16. 제 15 항에 있어서,
    제 1 노드 내지 제 4 노드는 상기 차량 내의 ECU(Electronic Control Unit)인 것을 특징으로 하는 차량 내 네트워크의 제어 방법.
  17. 제 3 항에 있어서, 제 1 노드는
    제 1 센서로부터 제 1 CAN 신호를 송수신하기 위한 CAN 트랜시버;
    제 1 CAN 신호를 제 1 이더넷 신호로 변환하기 위한 CAN2ETH 변환기;
    제 1 이더넷 신호를 제 2 노드로 전송하기 위한 이더넷 트랜시버; 및
    상기 PCP 테이블을 저장하는 PCP DB;를 포함하는 것을 특징으로 하는 차량 내 네트워크의 제어 방법.
  18. 제 17 항에 있어서,
    상기 이더넷 트랜시버는 상기 판단된 차량 상황을 이더넷 신호로서 상기 네트워크 매니저로부터 수신하는 것을 특징으로 하는 차량 내 네트워크의 제어 방법.
  19. 제 1 항에 있어서,
    제 1 이더넷 신호의 우선 순위 정보에 기반하여, 제 1 노드 및 제 2 노드 간의 전송 경로에서 제 1 이더넷 신호의 전송에 필요한 대역폭이 확보 가능한지 판단하는 단계;
    상기 대역폭이 확보 가능한 경우, 제 1 이더넷 신호가 상기 전송 경로에 따라 제 2 노드에 전송되도록 제어하는 단계; 및
    상기 대역폭이 확보 가능하지 않은 경우, 상기 전송 경로가 제 3 노드를 경유하도록 변경하고, 제 1 이더넷 신호가 상기 변경된 전송 경로에 따라 제 2 노드에 전송되도록 제어하는 단계;를 더욱 포함하는 것을 특징으로 하는 차량 내 네트워크의 제어 방법.
  20. 제 1 노드 및 제 2 노드를 포함하고,
    제 1 노드가 CAN 통신을 통해 제 1 노드의 제 1 센서로부터 제 1 CAN 신호를 수신하고,
    제 1 노드가 제 1 CAN 신호를 차량 상황에 따라서 다른 우선순위 정보를 갖는 제 1 이더넷 신호로 변환하고,
    제 1 노드가 이더넷 통신을 통해 상기 변환된 제 1 이더넷 신호를 제 2 노드로 전송하는 것을 특징으로 하는 차량 내 네트워크.
PCT/KR2022/016954 2022-04-28 2022-11-02 차량 내 네트워크 및 이의 제어 방법 WO2023210890A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020247027989A KR20240137063A (ko) 2022-04-28 2022-11-02 차량 내 네트워크 및 이의 제어 방법

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2022-0052481 2022-04-28
KR20220052481 2022-04-28

Publications (1)

Publication Number Publication Date
WO2023210890A1 true WO2023210890A1 (ko) 2023-11-02

Family

ID=88519020

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/KR2022/013749 WO2023210881A1 (ko) 2022-04-28 2022-09-15 Sdn 기반의 차량 내 네트워크 및 이의 제어 방법
PCT/KR2022/016954 WO2023210890A1 (ko) 2022-04-28 2022-11-02 차량 내 네트워크 및 이의 제어 방법

Family Applications Before (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/013749 WO2023210881A1 (ko) 2022-04-28 2022-09-15 Sdn 기반의 차량 내 네트워크 및 이의 제어 방법

Country Status (2)

Country Link
KR (2) KR20240141275A (ko)
WO (2) WO2023210881A1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170087633A (ko) * 2016-01-21 2017-07-31 현대자동차주식회사 네트워크에서 우선순위에 기초한 데이터의 전송 방법
KR20200119337A (ko) * 2018-03-05 2020-10-19 폭스바겐 악티엔게젤샤프트 통신 채널을 통해 데이터를 전송하기 위한 방법, 상응하게 설계된 장치 및 통신 인터페이스, 및 상응하게 설계된 컴퓨터 프로그램

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210015705A (ko) * 2019-07-31 2021-02-10 고려대학교 산학협력단 차량 내부 네트워크에 대한 sdn 기반의 침입 대응 방법 및 이를 이용한 시스템

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170087633A (ko) * 2016-01-21 2017-07-31 현대자동차주식회사 네트워크에서 우선순위에 기초한 데이터의 전송 방법
KR20200119337A (ko) * 2018-03-05 2020-10-19 폭스바겐 악티엔게젤샤프트 통신 채널을 통해 데이터를 전송하기 위한 방법, 상응하게 설계된 장치 및 통신 인터페이스, 및 상응하게 설계된 컴퓨터 프로그램

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
HACKEL TIMO; SCHMIDT ANJA; MEYER PHILIPP; KORF FRANZ; SCHMIDT THOMAS C.: "Strategies for Integrating Control Flows in Software-Defined In-Vehicle Networks and Their Impact on Network Security", 2020 IEEE VEHICULAR NETWORKING CONFERENCE (VNC), IEEE, 16 December 2020 (2020-12-16), pages 1 - 8, XP033879325, DOI: 10.1109/VNC51378.2020.9318372 *
LASTINEC JAN, HUDEC LADISLAV: "A study of securing in-vehicle communication using IPSEC protocol", JOURNAL OF ELECTRICAL ENGINEERING, vol. 72, no. 2, 1 April 2021 (2021-04-01), pages 89 - 98, XP093102761, DOI: 10.2478/jee-2021-0012 *
THIELE DANIEL; SCHLATOW JOHANNES; AXER PHILIP; ERNST ROLF: "Formal timing analysis of CAN-to-Ethernet gateway strategies in automotive networks", REAL TIME SYSTEMS., KLUWER ACADEMIC PUBLISHERS, DORDRECHT., NL, vol. 52, no. 1, 7 October 2015 (2015-10-07), NL , pages 88 - 112, XP035592294, ISSN: 0922-6443, DOI: 10.1007/s11241-015-9243-y *

Also Published As

Publication number Publication date
KR20240141275A (ko) 2024-09-26
KR20240137063A (ko) 2024-09-19
WO2023210881A1 (ko) 2023-11-02

Similar Documents

Publication Publication Date Title
WO2017138702A1 (ko) 차량용 사용자 인터페이스 장치 및 차량
WO2019098434A1 (ko) 차량에 구비된 차량 제어 장치 및 차량의 제어방법
WO2018088615A1 (ko) 차량 주행 제어 장치 및 방법
WO2021045257A1 (ko) 경로 제공 장치 및 그것의 경로 제공 방법
WO2017222299A1 (en) Vehicle control device mounted on vehicle and method for controlling the vehicle
WO2020080566A1 (ko) 전자 제어 장치 및 통신 장치
WO2018079919A1 (ko) 자율 주행 차량 및 자율 주행 차량의 동작 방법
WO2019031851A1 (ko) 지도 제공 장치
WO2017200162A1 (ko) 차량 운전 보조 장치 및 차량
WO2018131949A1 (ko) 어라운드뷰 제공장치
EP3475134A1 (en) Vehicle control device mounted on vehicle and method for controlling the vehicle
WO2021141142A1 (ko) 경로 제공 장치 및 그것의 경로 제공 방법
WO2018139708A1 (ko) 차량용 전자 디바이스 해킹 테스트 장치
WO2021090971A1 (ko) 경로 제공 장치 및 그것의 경로 제공 방법
WO2018110789A1 (en) Vehicle controlling technology
WO2018056515A1 (ko) 차량용 카메라 장치 및 방법
WO2021045256A1 (ko) 경로 제공 장치 및 그것의 경로 제공 방법
WO2021025212A1 (ko) 경로 제공 장치 및 그것의 경로 제공 방법
WO2021029444A1 (ko) 경로 제공 장치 및 그것의 경로 제공 방법
WO2018124403A1 (ko) 차량용 카메라 장치 및 차량
WO2020149427A1 (ko) 경로 제공 장치 및 그것의 경로 제공 방법
WO2019054719A1 (ko) 차량 운전 보조 장치 및 차량
WO2018093192A1 (ko) 차량용 레이더 장치 및 차량
WO2021025216A1 (ko) 경로 제공 장치 및 그것의 경로 제공 방법
WO2020145442A1 (ko) 자율 주행 차량의 제어 권한 이양 장치 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22940384

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20247027989

Country of ref document: KR

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2022940384

Country of ref document: EP

Effective date: 20240829