KR20230162865A - Tele-operated vehicle, controlling method of tele-operated vehicle, tele-operated center and controlling method of tele-operated center - Google Patents

Tele-operated vehicle, controlling method of tele-operated vehicle, tele-operated center and controlling method of tele-operated center Download PDF

Info

Publication number
KR20230162865A
KR20230162865A KR1020220061951A KR20220061951A KR20230162865A KR 20230162865 A KR20230162865 A KR 20230162865A KR 1020220061951 A KR1020220061951 A KR 1020220061951A KR 20220061951 A KR20220061951 A KR 20220061951A KR 20230162865 A KR20230162865 A KR 20230162865A
Authority
KR
South Korea
Prior art keywords
control signal
additional information
autonomous vehicle
autonomous
autonomous driving
Prior art date
Application number
KR1020220061951A
Other languages
Korean (ko)
Inventor
김성민
Original Assignee
주식회사 엘지유플러스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엘지유플러스 filed Critical 주식회사 엘지유플러스
Priority to KR1020220061951A priority Critical patent/KR20230162865A/en
Priority to PCT/KR2023/006864 priority patent/WO2023224432A1/en
Publication of KR20230162865A publication Critical patent/KR20230162865A/en

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/10Path keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18027Drive off, accelerating from standstill
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18036Reversing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0088Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/42Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/18Steering angle

Landscapes

  • Engineering & Computer Science (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Business, Economics & Management (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Electromagnetism (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 자율주행 차량의 영상 및 데이터를 네트워크를 통하여 전송하는 영상 및 데이터 전송부; 상기 네트워크를 통하여 통합 제어 신호를 수신하는 제어 신호 수신부; 상기 통합 제어 신호를 분석하는 제어 신호 분석부; 및 상기 자율주행 차량을 제어하기 위한 자율주행 제어 신호를 생성하는 자율주행 제어 신호 생성부를 포함하고, 상기 제어 신호 분석부는 상기 통합 제어 신호에 포함된 부가 정보 및 제어 신호를 각각 분석하고, 상기 부가 정보 및 상기 제어 신호가 동일한 자율주행 차량을 나타내는 경우, 상기 자율주행 제어 신호를 생성하는 것을 특징으로 하는, 자율주행 차량을 제공한다. The present invention includes an image and data transmission unit that transmits images and data of an autonomous vehicle through a network; a control signal receiving unit that receives an integrated control signal through the network; a control signal analysis unit that analyzes the integrated control signal; and an autonomous driving control signal generator that generates an autonomous driving control signal for controlling the autonomous vehicle, wherein the control signal analysis unit analyzes additional information and a control signal included in the integrated control signal, and the additional information and generating the autonomous driving control signal when the control signal indicates the same autonomous vehicle.

Description

자율주행 차량, 자율주행 차량의 제어 방법, 자율주행 센터 및 자율주행 센터의 제어 방법 {TELE-OPERATED VEHICLE, CONTROLLING METHOD OF TELE-OPERATED VEHICLE, TELE-OPERATED CENTER AND CONTROLLING METHOD OF TELE-OPERATED CENTER}Self-driving vehicle, control method of self-driving vehicle, self-driving center, and control method of self-driving center {TELE-OPERATED VEHICLE, CONTROLLING METHOD OF TELE-OPERATED VEHICLE, TELE-OPERATED CENTER AND CONTROLLING METHOD OF TELE-OPERATED CENTER}

본 발명은 자율주행 차량, 자율주행 차량의 제어 방법, 자율주행 센터 및 자율주행 센터의 제어 방법 에 관한 것이다. The present invention relates to an autonomous vehicle, a control method of an autonomous vehicle, an autonomous center, and a control method of the autonomous center.

자율주행 차량이란 운전자 또는 승객의 조작 없이 차량 스스로 운행이 가능한 차량을 말한다. 또한, 통신 기술이 발전함에 따라 고속으로 대용량의 데이터 전송이 가능해지면서, 무선 통신 시스템에 의해 더 다양한 서비스를 제공할 수 있게 된다. An autonomous vehicle is a vehicle that can operate on its own without driver or passenger intervention. Additionally, as communication technology develops, high-speed and large-capacity data transmission becomes possible, making it possible to provide more diverse services through wireless communication systems.

특히, 자율주행 차량은 자율주행 센터로부터 네트워크를 통하여 제어 신호를 수신하고, 수신된 제어 신호에 기초하여 자율주행 제어 신호를 생성하여 자율주행 차량을 동작할 수 있다. In particular, the autonomous vehicle can receive a control signal from the autonomous driving center through a network and generate an autonomous driving control signal based on the received control signal to operate the autonomous vehicle.

이 경우, 자율주행 차량은 네트워크를 통하여 제어 신호를 수신하기 때문에 네트워크 상의 에러나 악의적인 공격에 노출되었을 때 자율주행 차량은 비정상적인 동작을 생성할 수 있고, 이는 인명피해로 이어질 수 있다는 문제점이 있다. In this case, because the autonomous vehicle receives control signals through the network, there is a problem that the autonomous vehicle may generate abnormal behavior when exposed to errors or malicious attacks on the network, which may lead to casualties.

본 발명은 자율주행 차량, 자율주행 차량의 제어 방법, 자율주행 센터 및 자율주행 센터의 제어 방법에 관한 것으로, 자율주행 차량에 전달되는 제어 신호들의 정상 또는 비정상 상태를 분석하고 적용하여 안정적인 자율주행을 제공하는 것을 목적으로 한다. The present invention relates to an autonomous vehicle, a control method of an autonomous vehicle, an autonomous driving center, and a control method of an autonomous driving center, and provides stable autonomous driving by analyzing and applying the normal or abnormal state of control signals transmitted to the autonomous vehicle. The purpose is to provide

본 발명의 일 실시 예에 따르면, 자율주행 차량의 영상 및 데이터를 네트워크를 통하여 전송하는 영상 및 데이터 전송부; 상기 네트워크를 통하여 통합 제어 신호를 수신하는 제어 신호 수신부; 상기 통합 제어 신호를 분석하는 제어 신호 분석부; 및 상기 자율주행 차량을 제어하기 위한 자율주행 제어 신호를 생성하는 자율주행 제어 신호 생성부를 포함하고, 상기 제어 신호 분석부는 상기 통합 제어 신호에 포함된 부가 정보 및 제어 신호를 각각 분석하고, 상기 부가 정보 및 상기 제어 신호가 동일한 자율주행 차량을 나타내는 경우, 상기 자율주행 제어 신호를 생성하는 것을 특징으로 하는, 자율주행 차량을 제공한다.According to an embodiment of the present invention, an image and data transmission unit that transmits images and data of an autonomous vehicle through a network; a control signal receiving unit that receives an integrated control signal through the network; a control signal analysis unit that analyzes the integrated control signal; and an autonomous driving control signal generator that generates an autonomous driving control signal for controlling the autonomous vehicle, wherein the control signal analysis unit analyzes additional information and a control signal included in the integrated control signal, and the additional information and generating the autonomous driving control signal when the control signal indicates the same autonomous vehicle.

상기 상기 자율주행 제어 신호 생성부는 상기 부가 정보 및 상기 제어 신호가 동일한 자율주행 차량을 나타내지 않는 경우, 긴급 프로세스를 동작하도록 제어하는 제어 신호를 생성하는 것을 특징으로 한다. The autonomous driving control signal generator is characterized in that it generates a control signal for controlling an emergency process to operate when the additional information and the control signal do not represent the same autonomous vehicle.

상기 부가 정보는 자율주행 센터의 운전 장치로부터 수신한 신호를 제외한 정보인 것을 특징으로 한다. The additional information is characterized as information excluding signals received from the driving device of the autonomous driving center.

상기 상기 자율주행 차량의 영상 및 데이터는 상기 자율주행 차량에 설치된 전방 카메라 영상 정보 및 후방 카메라 영상 정보를 포함하는 것을 특징으로 한다. The images and data of the self-driving vehicle include image information from a front camera and a rear camera installed on the self-driving vehicle.

본 발명의 다른 일 실시 예에 따르면, 자율주행 차량의 영상 및 데이터를 네트워크를 통하여 전송하는 단계; 상기 네트워크를 통하여 통합 제어 신호를 수신하는 단계; 상기 통합 제어 신호를 분석하는 단계; 상기 자율주행 차량을 제어하기 위한 자율주행 제어 신호를 생성하는 단계; 상기 통합 제어 신호에 포함된 부가 정보 및 제어 신호를 각각 분석하는 단계; 및 상기 부가 정보 및 상기 제어 신호가 동일한 자율주행 차량을 나타내는 경우, 상기 자율주행 제어 신호를 생성하는 단계를 포함하는 것을 특징으로 하는, 자율주행 차량의 제어 방법을 제공한다. According to another embodiment of the present invention, transmitting images and data of an autonomous vehicle through a network; Receiving an integrated control signal through the network; analyzing the integrated control signal; Generating an autonomous driving control signal to control the autonomous vehicle; Analyzing additional information and control signals included in the integrated control signal, respectively; and generating the autonomous driving control signal when the additional information and the control signal indicate the same autonomous vehicle.

상기 부가 정보 및 상기 제어 신호가 동일한 자율주행 차량을 나타내지 않는 경우, 긴급 프로세스를 동작하도록 제어하는 제어 신호를 생성하는 단계를 더 포함하는 것을 특징으로 한다. If the additional information and the control signal do not represent the same autonomous vehicle, the method further includes generating a control signal to control an emergency process to operate.

상기 부가 정보는 자율주행 센터의 운전 장치로부터 수신한 신호를 제외한 정보인 것을 특징으로 한다. The additional information is characterized as information excluding signals received from the driving device of the autonomous driving center.

상기 자율주행 차량의 영상 및 데이터는 상기 자율주행 차량에 설치된 전방 카메라 영상 정보 및 후방 카메라 영상 정보를 포함하는 것을 특징으로 한다. The images and data of the self-driving vehicle include image information from a front camera and a rear camera installed on the self-driving vehicle.

본 발명의 또 다른 일 실시 예에 따르면, 운전 장치; 자율주행 차량의 영상 및 데이터를 네트워크를 통하여 수신하는 영상 및 데이터 수신부; 제어 신호 생성부; 및 제어 신호 전송부를 포함하고, 상기 제어 신호 생성부는 부가 정보를 생성하는 부가 정보 생성부; 및 상기 운전 장치로부터 수신한 신호에 기초하여 제어 신호를 생성하는 제어 명령 발생부를 포함하고, 상기 부가 정보 및 제어 신호를 포함하는 통합 제어 신호를 생성하고, 상기 제어 신호 전송부를 통하여 상기 통합 제어 신호를 자율주행 차량에게 전송하는 것을 특징으로 하는, 자율주행 센터를 제공한다. According to another embodiment of the present invention, a driving device; An image and data receiving unit that receives images and data of an autonomous vehicle through a network; Control signal generator; and a control signal transmitting unit, wherein the control signal generating unit includes an additional information generating unit generating additional information. and a control command generator that generates a control signal based on the signal received from the driving device, generates an integrated control signal including the additional information and the control signal, and transmits the integrated control signal through the control signal transmitter. An autonomous driving center is provided, characterized in that it transmits information to an autonomous vehicle.

상기 상기 부가 정보 생성부는 상기 수신한 영상 및 데이터에 기초하여 부가 정보를 생성하되, 상기 영상 및 데이터는 상기 자율주행 차량에 설치된 전방 카메라 영상 정보 및 후방 카메라 영상 정보를 포함하는 것을 특징으로 한다. The additional information generator generates additional information based on the received images and data, and the images and data include image information from a front camera and a rear camera installed in the autonomous vehicle.

상기 상기 부가 정보 생성부는 상기 수신한 영상 및 데이터를 전처리하여 부가 정보를 생성하고, 상기 생성된 부가 정보에 기초하여 차선을 검출하는 것을 특징으로 한다. The additional information generator generates additional information by preprocessing the received image and data, and detects a lane based on the generated additional information.

상기 부가 정보 생성부는 상기 검출된 차선에 기초하여 궤도를 생성하되, 상기 생성된 궤도에 대한 정보는 상기 부가 정보에 포함되는 것을 특징으로 한다. The additional information generator generates a trajectory based on the detected lane, and information about the generated trajectory is included in the additional information.

상기 제어 신호 생성부는 위치 추정부를 더 포함하고, 상기 위치 추정부는 상기 생성된 궤도에 기초하여 상기 자율주행 차량의 현재 위치를 추정하되, 상기 추정된 위치에 대한 정보는 상기 부가 정보에 포함되는 것을 특징으로 한다. The control signal generator further includes a position estimation unit, wherein the position estimation unit estimates the current location of the autonomous vehicle based on the generated trajectory, and information about the estimated location is included in the additional information. Do it as

상기 위치 추정부는 상기 추정된 현재 위치로부터 위도 및 경도에 기초하여 제 1 웨이 포인트(way point)를 복수 개 출력하되, 상기 출력된 제 1 웨이 포인트에 대한 정보는 상기 부가 정보에 포함되는 것을 특징으로 한다. The location estimation unit outputs a plurality of first way points based on latitude and longitude from the estimated current location, and information about the output first way point is included in the additional information. do.

상기 위치 추정부는 상기 추정된 현재 위치를 원점으로 놓고, 원점 좌표계 및 방위각과의 거리를 기준으로 제 2 웨이 포인트를 복수 개 출력하되, 상기 출력된 제 2 웨이 포인트에 대한 정보는 상기 부가 정보에 포함되는 것을 특징으로 한다. The position estimation unit sets the estimated current position as the origin and outputs a plurality of second waypoints based on the distance from the origin coordinate system and the azimuth, and information about the output second waypoints is included in the additional information. It is characterized by being

상기 제어 신호 생성부는 상기 부가 정보 및 상기 제어 신호를 개별적으로 메시지화 및 패킷타이징(packetizing)하는 것을 특징으로 한다. The control signal generator is characterized in that it individually messages and packetizes the additional information and the control signal.

상기 제어 신호는 상기 운전 장치의 핸들 조향 각도, 브레이크 압력, 전진 신호 및 후진 신호 중 적어도 하나를 포함하는 것을 특징으로 한다. The control signal may include at least one of a steering angle of the driving device, brake pressure, a forward signal, and a reverse signal.

본 발명의 또 다른 일 실시 예에 따르면, 자율주행 차량의 영상 및 데이터를 네트워크를 통하여 수신하는 단계; 부가 정보를 생성하는 단계; 운전 장치로부터 수신한 신호에 기초하여 제어 신호를 생성하는 단계; 상기 부가 정보 및 상기 제어 신호를 포함하는 통합 제어 신호를 생성하는 단계; 및 상기 통합 제어 신호를 자율주행 차량에게 전송하는 단계를 포함하는 것을 특징으로 하는, 자율주행 센터의 제어 방법을 제공한다. According to another embodiment of the present invention, receiving images and data of an autonomous vehicle through a network; Generating additional information; generating a control signal based on a signal received from the driving device; generating an integrated control signal including the additional information and the control signal; and transmitting the integrated control signal to an autonomous vehicle.

상기 수신한 영상 및 데이터에 기초하여 부가 정보를 생성하는 단계를 더 포함하되, 상기 영상 및 데이터는 상기 자율주행 차량에 설치된 전방 카메라 영상 정보 및 후방 카메라 영상 정보를 포함하는 것을 특징으로 한다. The method further includes generating additional information based on the received images and data, wherein the images and data include image information from a front camera and a rear camera installed in the autonomous vehicle.

상기 수신한 영상 및 데이터를 전처리하여 부가 정보를 생성하는 단계; 및 Preprocessing the received images and data to generate additional information; and

상기 생성된 부가 정보에 기초하여 차선을 검출하는 단계를 더 포함하는 것을 특징으로 한다. It may further include detecting a lane based on the generated additional information.

상기 검출된 차선에 기초하여 궤도를 생성하는 단계를 더 포함하되, 상기 생성된 궤도에 대한 정보는 상기 부가 정보에 포함되는 것을 특징으로 한다. The method further includes generating a trajectory based on the detected lane, wherein information about the generated trajectory is included in the additional information.

상기 생성된 궤도에 기초하여 상기 자율주행 차량의 현재 위치를 추정하는 단계를 더 포함하되, 상기 추정된 위치에 대한 정보는 상기 부가 정보에 포함되는 것을 특징으로 한다. The method further includes estimating the current location of the autonomous vehicle based on the generated trajectory, wherein information about the estimated location is included in the additional information.

상기 추정된 현재 위치로부터 위도 및 경도에 기초하여 제 1 웨이 포인트(way point)를 복수 개 출력하는 단계를 더 포함하되, 상기 출력된 제 1 웨이 포인트에 대한 정보는 상기 부가 정보에 포함되는 것을 특징으로 한다. Further comprising outputting a plurality of first way points based on latitude and longitude from the estimated current location, wherein information about the output first way points is included in the additional information. Do it as

상기 추정된 현재 위치를 원점으로 놓고, 원점 좌표계 및 방위각과의 거리를 기준으로 제 2 웨이 포인트를 복수 개 출력하는 단계를 포함하되, 상기 출력된 제 2 웨이 포인트에 대한 정보는 상기 부가 정보에 포함되는 것을 특징으로 한다. Setting the estimated current position as the origin and outputting a plurality of second waypoints based on the distance from the origin coordinate system and the azimuth, wherein information about the output second waypoints is included in the additional information. It is characterized by being

상기 부가 정보 및 상기 제어 신호를 개별적으로 메시지화 및 패킷타이징(packetizing)하는 단계를 더 포함하는 것을 특징으로 한다. It may further include the step of individually messaging and packetizing the additional information and the control signal.

상기 제어 신호는 상기 운전 장치의 핸들 조향 각도, 브레이크 압력, 전진 신호 및 후진 신호 중 적어도 하나를 포함하는 것을 특징으로 한다. The control signal may include at least one of a steering angle of the driving device, brake pressure, a forward signal, and a reverse signal.

본 발명의 일 실시 예에 따르면, 자율주행 센터에서 생성하고 전송한 정보와 자율주행 차량에서 수신하고, 다른 관점에서 비교 및 분석함으로써 자율주행 차량의 급작스러운 동작을 예방하여 인명피해를 방지할 수 있다는 장점이 있다. According to an embodiment of the present invention, it is possible to prevent sudden operation of an autonomous vehicle and prevent casualties by receiving information generated and transmitted from the autonomous driving center and received from the autonomous vehicle, and comparing and analyzing it from different perspectives. There is an advantage.

또한, 본 발명의 일 실시 예에 따르면, 자율주행 센터에서 사고를 예방하기 위해 급격한 방향 전환을 하는 경우 이를 자율주행 차량에서도 감지할 수 있어 해당 제어 신호가 네트워크에서 생성된 이상 신호인지 자율주행 센터에서 의도된 신호인지를 높은 확률로 분별할 수 있다는 장점이 있다. In addition, according to an embodiment of the present invention, when an autonomous driving center makes a sharp change of direction to prevent an accident, the autonomous vehicle can also detect this, and the autonomous driving center can determine whether the control signal is an abnormal signal generated in the network. It has the advantage of being able to discern with a high probability whether the signal is intended.

다만, 당업자는 여기에서 명시적으로 언급하지 않은 기술적 효과에 대해서도, 명세서 전체의 취지를 통해 이해할 수가 있다.However, those skilled in the art can understand technical effects that are not explicitly mentioned here through the meaning of the entire specification.

도 1은 본 발명의 일 실시 예의 자율주행 시스템을 설명하는 도면이다.
도 2는 본 발명의 일 실시 예의 자율주행 시스템의 구성을 설명하는 도면이다.
도 3은 본 발명의 일 실시 예에 다른 자율주행 시스템의 구성을 설명하는 도면이다.
도 4는 본 발명의 일 실시 예에 따른 제어 신호 생성부의 구성을 설명하는 도면이다.
도 5는 본 발명의 일 실시 예에 따른 부가 정보 생성부의 구성을 설명하는 도면이다.
도 6은 본 발명의 일 실시 예에 따라 자율주행 차량에서 출력되는 화면을 나타내는 도면이다.
도 7은 본 발명의 일 실시 예에 따른 제어 신호 분석부의 구성을 설명하는 도면이다.
도 8은 본 발명의 일 실시 예에 따른 자율주행 시스템의 제어 방법을 설명하는 순서도이다.
도 9는 본 발명의 일 실시 예에 따른 자율주행 차량의 제어 방법을 설명하는 순서도이다.
도 10은 본 발명의 일 실시 예에 따른 자율주행 센터의 제어 방법을 설명하는 순서도이다.
1 is a diagram illustrating an autonomous driving system according to an embodiment of the present invention.
Figure 2 is a diagram explaining the configuration of an autonomous driving system according to an embodiment of the present invention.
Figure 3 is a diagram explaining the configuration of another autonomous driving system according to an embodiment of the present invention.
Figure 4 is a diagram explaining the configuration of a control signal generator according to an embodiment of the present invention.
Figure 5 is a diagram explaining the configuration of an additional information generator according to an embodiment of the present invention.
Figure 6 is a diagram showing a screen output from an autonomous vehicle according to an embodiment of the present invention.
Figure 7 is a diagram explaining the configuration of a control signal analysis unit according to an embodiment of the present invention.
Figure 8 is a flowchart explaining a control method of an autonomous driving system according to an embodiment of the present invention.
Figure 9 is a flowchart explaining a control method of an autonomous vehicle according to an embodiment of the present invention.
Figure 10 is a flowchart explaining a control method of an autonomous driving center according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "부" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.Hereinafter, embodiments disclosed in the present specification will be described in detail with reference to the attached drawings. However, identical or similar components will be assigned the same reference numbers regardless of reference numerals, and duplicate descriptions thereof will be omitted. The suffixes “part” and “part” for components used in the following description are given or used interchangeably only for the ease of preparing the specification, and do not have distinct meanings or roles in themselves.

또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. Additionally, in describing the embodiments disclosed in this specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in this specification, the detailed descriptions will be omitted. In addition, the attached drawings are only for easy understanding of the embodiments disclosed in this specification, and the technical idea disclosed in this specification is not limited by the attached drawings, and all changes included in the spirit and technical scope of the present invention are not limited. , should be understood to include equivalents or substitutes.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. Terms containing ordinal numbers, such as first, second, etc., may be used to describe various components, but the components are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. When a component is said to be "connected" or "connected" to another component, it is understood that it may be directly connected to or connected to the other component, but that other components may exist in between. It should be.

반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. On the other hand, when it is mentioned that a component is “directly connected” or “directly connected” to another component, it should be understood that there are no other components in between.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. Singular expressions include plural expressions unless the context clearly dictates otherwise.

본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this application, terms such as “comprise” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof.

도 1은 본 발명의 일 실시 예의 자율주행 시스템을 설명하는 도면이다. 1 is a diagram illustrating an autonomous driving system according to an embodiment of the present invention.

자율주행(Tele-operated driving, ToD) 시스템(100)은 자율주행 시스템(100)을 갖춘 차량(110)의 운행문제 발생 시, 원격지(120) 제어(tele-operated)를 통해 자율주행 차량(110)을 직-간접적으로 조작(driving)하는 기술로 최근 다방면으로 연구 개발되고 있다. When a problem occurs in the vehicle 110 equipped with the autonomous driving system 100, the autonomous driving (Tele-operated driving, ToD) system 100 controls the autonomous driving vehicle 110 through remote control (tele-operated) 120. ) is a technology that directly or indirectly manipulates (driving) and has recently been researched and developed in various fields.

자율주행 시스템(100)은 원격지(120)에서 자율주행 차량(110)을 조작하는 기술로 기본적으로 세가지 구성요소로 이루어진다. The autonomous driving system 100 is a technology for operating the autonomous vehicle 110 from a remote location 120 and basically consists of three components.

보다 상세하게는, 자율주행 시스템(100)은 자율주행 차량(Tele-operated vehicle, ToV, 110), 네트워크(network, 130), 자율주행 센터(Tele-operation center, ToC, 120)로 구성될 수 있다. More specifically, the self-driving system 100 may be composed of a self-driving vehicle (Tele-operated vehicle, ToV, 110), a network (network, 130), and an autonomous driving center (Tele-operation center, ToC, 120). there is.

여기에서, 자율주행 차량(110)은 자율주행 센터(120)의 주행 제어를 받는 이동 가능한 기기를 의미한다. 자율주행 센터(120)는 자율주행 차량(110)의 제어 신호를 생성하는 원격지의 주행 센터를 의미한다. 네트워크(130)는 자율주행 차량(110) 및 자율주행 센터(120)를 연결하는 이동 통신망을 포함하는 네트워크를 의미한다. 또한, 네트워크(130)는 5G 통신을 이용할 수 있다.Here, the autonomous vehicle 110 refers to a movable device that receives driving control from the autonomous driving center 120. The autonomous driving center 120 refers to a remote driving center that generates control signals for the autonomous vehicle 110. The network 130 refers to a network including a mobile communication network connecting the autonomous vehicle 110 and the autonomous driving center 120. Additionally, the network 130 may use 5G communications.

또한, 자율주행 차량(110) 내에는 인코더(encoder)와 같은 자율주행 시스템(100) 장치를 포함할 수 있으며, 자율주행 센터(120) 내에는 디코더(decoder) 및 디스플레이와 같은 자율주행 시스템(100) 장치를 포함할 수 있다. In addition, the autonomous vehicle 110 may include autonomous driving system 100 devices such as an encoder, and the autonomous driving center 120 may include autonomous driving system 100 devices such as a decoder and a display. ) may include a device.

또한, 자율주행 차량(110)은 자율주행이 가능하며, 환경모델(E/M) 부호화가 가능하다. 또한, 자율주행 센터(120)는 환경모델(E/M) 복호화가 가능하며, 디스플레이 및 원격 조작이 가능하다. 여기에서, 환경모델은 차량 센서(속도, 위치, 방향, 차량 상태) 및 자율주행 센서(V2X, 카메라 등)를 이용하여 주변 환경 데이터를 모델링한 것에 대응한다. Additionally, the self-driving vehicle 110 is capable of autonomous driving and is capable of environmental model (E/M) encoding. In addition, the autonomous driving center 120 is capable of decoding the environmental model (E/M), and is capable of display and remote operation. Here, the environmental model corresponds to modeling surrounding environmental data using vehicle sensors (speed, location, direction, vehicle status) and autonomous driving sensors (V2X, cameras, etc.).

특히, 자율주행 시스템(100)을 구현하기 위하여 통신환경 극복을 위한 네트워크 적응(network adaptation) 기술이 반드시 필요하며, 업링크(uplink) 및 다운링크(downlink) 기술, 자율주행 기술을 포함하며, 이 중 업링크 기술은 영상 및 센서의 데이터 전송을 담당하고, 다운링크 기술은 원격지로부터 차량(110)의 제어 데이터 생성 및 전송을 담당한다. In particular, in order to implement the autonomous driving system 100, network adaptation technology is necessary to overcome the communication environment, and includes uplink and downlink technology and autonomous driving technology. Among them, uplink technology is responsible for transmitting image and sensor data, and downlink technology is responsible for generating and transmitting control data of the vehicle 110 from a remote location.

보다 상세하게, 업링크 기술에 대하여 설명한다. In more detail, uplink technology will be described.

자율주행 차량(ToV, 110)은 적어도 두 가지 환경모델을 부호화하여 자율주행 센터(ToC, 120)로 전송할 수 있다. 이때, 자율주행 차량(110)은 센싱 데이터를 포함하는 환경모델을 인코더(encoder)를 통해 부호화하여 네트워크(130, 예를 들어, 5G)를 통해 자율주행 센터로 전송할 수 있다. 마찬가지로, 자율주행 센터(120)는 수신한 환경모델을 디코더(decoder)를 통해 복호화하여 디스플레이(display) 을 통해 출력할 수 있다. The autonomous vehicle (ToV, 110) can encode at least two environment models and transmit them to the autonomous driving center (ToC, 120). At this time, the autonomous vehicle 110 may encode an environmental model including sensing data using an encoder and transmit it to the autonomous driving center through the network 130 (eg, 5G). Likewise, the autonomous driving center 120 can decode the received environment model through a decoder and output it through a display.

이때, 두가지 환경모델은 운전자 시야 데이터 및 차량센서 데이터를 포함할 수 있다. 이때, 운전자 시야 데이터는 차량 외부 영상(4채널 또는 2채널)로 전송할 수 있고, 차량센서 데이터는 차량 위치 및 상태를 전송할 수 있다. At this time, the two environment models may include driver vision data and vehicle sensor data. At this time, the driver's field of view data can be transmitted as an image outside the vehicle (4 channels or 2 channels), and the vehicle sensor data can transmit the vehicle location and status.

이를 위하여, 저지연 영상통신 기술, 빠르고 안정적인 네트워크 기술, 저지연 디스플레이 기술 등이 요구된다. 이를 통하여 영상 및 네트워크의 delay 및 latency를 최대한 줄여 데이터의 정확하고 빠른 통신 달성이 가능하다. To this end, low-latency video communication technology, fast and stable network technology, and low-latency display technology are required. Through this, it is possible to achieve accurate and fast data communication by reducing video and network delay and latency as much as possible.

또한, 다운링크 기술에 대하여 설명한다. Additionally, downlink technology is explained.

자율주행 센터(ToC, 120)는 자율주행 차량(110)의 상태를 파악하여 직간접적인 제어신호를 자율주행 차량(110)으로 전송할 수 있다. 여기에서, 직접적인 제어신호는 차량구동장치 제어데이터를 포함할 수 있다. 이에 따라, 자율주행 센터(ToC, 120)는 차량구동장치 제어데이터를 생성하여 전송할 수 있다. 또한, 간접적인 제어신호는 운전자 가이드 데이터를 포함할 수 있다. 이에 따라, 자율주행 센터(120)는 운전자 가이드 데이터를 생성하여 자율주행 차량(110)에게 전송할 수 있다. The autonomous driving center (ToC, 120) can determine the status of the autonomous vehicle 110 and transmit direct or indirect control signals to the autonomous vehicle 110. Here, the direct control signal may include vehicle driving device control data. Accordingly, the autonomous driving center (ToC, 120) can generate and transmit vehicle driving device control data. Additionally, indirect control signals may include driver guide data. Accordingly, the autonomous driving center 120 may generate driver guide data and transmit it to the autonomous vehicle 110.

자율주행 시스템(100)은 자율주행 센터(120)의 제어를 통하여 자율주행 차량(110)을 원격 운전할 수 있으며, 자율주행 센터(120)의 장치들은 스티어링 핸들, 변속기, 제어기 및 복수개의 디스플레이를 포함할 수 있다. 즉, 자율주행 센터(120)에서는 자율주행 차량(110)의 제어 신호를 생성하여 자율주행 차량(110)으로 전송하고, 자율주행 차량(110)에서는 제어 신호를 수신하여 그대로 자율주행 차량(110)의 동작부(actuator)를 조작할 수 있다. The autonomous driving system 100 can remotely drive the autonomous vehicle 110 through control of the autonomous driving center 120, and the devices of the autonomous driving center 120 include a steering wheel, transmission, controller, and a plurality of displays. can do. That is, the autonomous driving center 120 generates a control signal for the autonomous vehicle 110 and transmits it to the autonomous vehicle 110, and the autonomous vehicle 110 receives the control signal and transmits it to the autonomous vehicle 110 as is. The actuator can be manipulated.

도 2는 본 발명의 일 실시 예의 자율주행 시스템의 구성을 설명하는 도면이다. 이하, 상술한 내용과 중복되는 설명은 생략하도록 한다. Figure 2 is a diagram explaining the configuration of an autonomous driving system according to an embodiment of the present invention. Hereinafter, descriptions that overlap with the above-described content will be omitted.

도 2를 참조하면, 자율주행 시스템(200)은 자율주행 차량(210), 자율주행 센터(220) 및 네트워크(230)를 포함할 수 있다. 다만, 여기에서, 자율주행 시스템(200)이 상술한 구성을 모두 포함한다는 의미는 물리적으로 포함한다는 의미가 아닌 자율주행 시스템(200) 내에서 서로 연결되어 동작 가능함을 의미한다. Referring to FIG. 2 , the autonomous driving system 200 may include an autonomous vehicle 210, an autonomous driving center 220, and a network 230. However, here, the fact that the autonomous driving system 200 includes all of the above-described components does not mean that they are physically included, but rather means that they can be connected and operated within the autonomous driving system 200.

자율주행 차량(210)은 자율주행 센서 처리부(211), 자율주행 알고리즘부(212), 자율주행 제어 신호 생성부(213), 영상 및 데이터 전송부(214) 및 제어 신호 수신부(215)를 포함할 수 있다. 여기에서, 영상 및 데이터 전송부(214) 및 제어 신호 수신부(215)는 자율주행 차량(210)에 설치된 자율주행 시스템(200) 장치에 대응할 수 있다. The self-driving vehicle 210 includes an autonomous driving sensor processing unit 211, an autonomous driving algorithm unit 212, an autonomous driving control signal generating unit 213, an image and data transmitting unit 214, and a control signal receiving unit 215. can do. Here, the image and data transmitting unit 214 and the control signal receiving unit 215 may correspond to the autonomous driving system 200 device installed in the autonomous vehicle 210.

자율주행 센서 처리부(211)는 자율주행 차량(210)에 포함된 다양한 센서들로부터 센싱된 데이터들을 처리할 수 있다. The autonomous driving sensor processing unit 211 can process data sensed from various sensors included in the autonomous vehicle 210.

자율주행 알고리즘부(212)는 자율주행 센서 처리부(211)로부터 처리된 데이터를 이용하여 알고리즘을 생성 및 처리할 수 있다. The autonomous driving algorithm unit 212 may generate and process an algorithm using data processed by the autonomous driving sensor processing unit 211.

자율주행 제어 신호 생성부(213)는 자율주행 알고리즘부(212)로부터 수신한 알고리즘 또는 제어 신호 수신부(215)로부터 전달받은 제어 신호에 기초하여 자율주행 차량(210)을 제어하기 위한 자율주행 제어 신호를 생성할 수 있다. 여기에서, 제어 신호 수신부(215)로부터 전달받은 제어 신호는 스티어링 제어 신호, 브레이크 제어 신호, 트랜스미션 제어 신호 및 가속 제어 신호를 포함할 수 있다. 즉, 제어 신호는 자율주행 차량(210)을 제어하기 위한 복수의 제어 신호를 포함할 수 있다. 이에 따라, 자율주행 제어 신호 생성부(2130)는 자율주행 차량(210)을 제어하기 위한 스티어링 제어 신호, 브레이크 제어 신호, 트랜스미션 제어 신호 및 가속 제어 신호 등을 생성할 수 있다. The autonomous driving control signal generator 213 generates an autonomous driving control signal for controlling the autonomous vehicle 210 based on the algorithm received from the autonomous driving algorithm unit 212 or the control signal received from the control signal receiving unit 215. can be created. Here, the control signal received from the control signal receiver 215 may include a steering control signal, a brake control signal, a transmission control signal, and an acceleration control signal. That is, the control signal may include a plurality of control signals for controlling the autonomous vehicle 210. Accordingly, the autonomous driving control signal generator 2130 may generate a steering control signal, a brake control signal, a transmission control signal, and an acceleration control signal for controlling the autonomous vehicle 210.

영상 및 데이터 전송부(214)는 자율주행 차량(210)에서 수집한 영상 및 데이터를 네트워크(230)를 통하여 자율주행 센터(220)에게 전송할 수 있다. The image and data transmission unit 214 may transmit images and data collected from the self-driving vehicle 210 to the self-driving center 220 through the network 230.

제어 신호 수신부(215)는 네트워크(230)를 통하여 자율주행 센터(220)로부터 제어 신호를 수신할 수 있다. The control signal receiver 215 may receive a control signal from the autonomous driving center 220 through the network 230.

자율주행 센터(220)는 디스플레이(221), 영상 및 데이터 수신부(222) 및 제어 신호 전송부(223)를 포함할 수 있다. 여기에서, 영상 및 데이터 수신부(222) 및 제어 신호 전송부(223)은 자율주행 센터(220)에 설치된 자율주행 시스템(200) 장치에 대응할 수 있다. The autonomous driving center 220 may include a display 221, an image and data receiving unit 222, and a control signal transmitting unit 223. Here, the image and data receiving unit 222 and the control signal transmitting unit 223 may correspond to the autonomous driving system 200 device installed in the autonomous driving center 220.

디스플레이(221)는 영상 및 데이터 수신부(222)로부터 전달받은 영상 및 데이터를 출력할 수 있다. The display 221 can output images and data received from the image and data receiver 222.

영상 및 데이터 수신부(222)는 자율주행 차량(210)으로부터 네트워크(230)를 통하여 자율주행 차량(210)에서 수집한 영상 및 데이터를 수신할 수 있다. The image and data receiver 222 may receive images and data collected from the autonomous vehicle 210 through the network 230.

제어 신호 전송부(223)는 자율주행 센터(220) 내에 존재하는 다양한 운전 장치(이는 원격주행 모드를 위하여 자율주행 센터(220)내에 설치될 수 있다.)에 의하여 생성된 제어 신호를 네트워크(230)를 통하여 자율주행 차량(210)에게 전송할 수 있다. The control signal transmission unit 223 transmits control signals generated by various driving devices present in the autonomous driving center 220 (which can be installed in the autonomous driving center 220 for remote driving mode) to the network 230. ) can be transmitted to the autonomous vehicle 210.

특히, 자율주행 차량(210)은 자율주행 시스템(200) 내에서 자율주행 모드 또는 원격주행 모드에서 동작할 수 있다. 이때, 자율주행 차량(210)이 자율주행 모드에서 동작하는 경우, 자율주행 차량(210)은 상술한 자율주행 차량(210) 내에 설치된 자율주행 센서 처리부(211), 자율주행 알고리즘부(212) 및 자율주행 제어 신호 생성부(213)에 기초하여 스티어링(스티어링 핸들), 브레이크, 변속기 및 엔진 출력 등을 조절할 수 있다. In particular, the autonomous vehicle 210 may operate in an autonomous driving mode or a remote driving mode within the autonomous driving system 200. At this time, when the autonomous vehicle 210 operates in the autonomous driving mode, the autonomous vehicle 210 includes the autonomous driving sensor processing unit 211, the autonomous driving algorithm unit 212, and Based on the autonomous driving control signal generator 213, steering (steering handle), brakes, transmission, and engine output can be adjusted.

반면, 자율주행 차량(210)이 원격주행 모드에서 동작하는 경우에 대하여 설명하면 다음과 같다. On the other hand, the case where the autonomous vehicle 210 operates in remote driving mode is explained as follows.

자율주행 차량(210)이 원격주행 모드에서 동작하는 경우, 자율주행 차량(210)은 자율주행 차량(210)에 탑재된 자율주행 센서 처리부(211), 자율주행 알고리즘부(212) 및 자율주행 제어 신호 생성부(213)로부터 출력되는 신호 대신 자율주행 센터(220)가 전송하는 제어 신호(여기에서, 제어 신호는 자율주행 모드에서와 마찬가지로 스티어링 제어 신호, 브레이크 제어 신호, 트랜스미션 제어 신호 및 가속 제어 신호를 포함할 수 있다.)를 이용하여 자율주행 차량(210)을 움직일 수 있다. When the autonomous vehicle 210 operates in a remote driving mode, the autonomous vehicle 210 includes an autonomous driving sensor processing unit 211, an autonomous driving algorithm unit 212, and an autonomous driving control unit mounted on the autonomous vehicle 210. A control signal transmitted by the autonomous driving center 220 instead of the signal output from the signal generator 213 (here, the control signal is a steering control signal, a brake control signal, a transmission control signal, and an acceleration control signal as in the autonomous driving mode) (may include) can be used to move the autonomous vehicle 210.

이때, 자율주행 센터(220)에서 제어 신호 전송부(223)를 통하여 전송한 제어 신호를 제 1 제어 신호라고 하고, 자율주행 차량(210)에서 제어 신호 수신부(215)를 통하여 수신한 제어 신호를 제 2 제어 신호라고 하고, 최종적으로 자율주행 차량(210)을 움직이는데 사용되는 제어 신호를 제 3 제어 신호라고 할 수 있다. At this time, the control signal transmitted from the autonomous driving center 220 through the control signal transmitter 223 is called the first control signal, and the control signal received from the autonomous vehicle 210 through the control signal receiver 215 is called the first control signal. It may be referred to as a second control signal, and the control signal ultimately used to move the autonomous vehicle 210 may be referred to as a third control signal.

이 경우, 제 3 제어 신호와 제 2 제어 신호는 같을 수도 있고 자율주행 시스템(200)에 따라 최종 명령어로 변경될 수 있다. 예를 들어, 제 1 제어 신호에서 운전대의 회전 각도를 전송하면, 제 3 제어 신호에서는 이를 차량 ECU(electronic control unit, 자동차의 엔진, 자동 변속기, abs의 상태를 제어하는 전자 제어 장치)가 이해할 수 있는 명령어로 변경될 수 있다. In this case, the third control signal and the second control signal may be the same or may be changed to the final command depending on the autonomous driving system 200. For example, if the rotation angle of the steering wheel is transmitted in the first control signal, the vehicle ECU (electronic control unit, which controls the status of the car's engine, automatic transmission, and ABS) can understand this in the third control signal. It can be changed with the command.

다만, 제 2 제어 신호의 경우, 네트워크(230)를 통하여 전달된 제어 신호이기 때문에 환경에 따라 에러가 포함되어 있기도 하거나 jamming attack과 같은 악의적인 임펄스(impulse) 공격에 의해 명령어가 변경될 수 있다. 네트워크(230)를 사용하기 때문에 발생하는 문제로, 이를 보완하기 위하여 에러 보정(error correction) 등의 알고리즘이 포함될 수 있으나 현실적으로 모든 네트워크 환경을 완벽하게 보상할 수 있는 방법은 존재하지 않는다. However, in the case of the second control signal, since it is a control signal transmitted through the network 230, an error may be included depending on the environment, or the command may be changed due to a malicious impulse attack such as a jamming attack. This is a problem that occurs due to the use of the network 230, and algorithms such as error correction may be included to compensate for this, but realistically, there is no method that can perfectly compensate for all network environments.

즉, 일반적인 데이터 통신에서는 이러한 에러를 최소화시키는 것으로(예를 들어, 얼마만큼의 에러는 패킷 재전송 또는 에러를 무시하고 받아들임) 대체할 수 있지만 자율주행 차량(210)의 제어 신호는 시간상 패킷을 재전송할 수 없고 에러를 무시하여 받아들이는 경우 발생하는 사고는 인명 피해의 결과로 나타나기 때문에 해결이 필요하다. That is, in general data communication, such errors can be minimized (for example, a certain amount of error can be replaced by retransmitting the packet or ignoring the error and accepting it), but the control signal of the autonomous vehicle 210 does not allow the packet to be retransmitted in time. Accidents that occur when errors cannot be accepted and are ignored can result in casualties, so a solution is needed.

따라서, 본 발명의 일 실시 예에서는 자율주행 시스템 운영 시 자율주행 차량에 전달되는 여러 가지 자율주행 제어 신호들의 정상 또는 비정상 상태를 분석하고 적용하여 안정적인 자율주행을 하도록 하는 자율주행 차량 및 원격지(자율주행 센터)에 설치된 원격 주행 제어 신호 처리부를 제안하고자 한다. Therefore, in one embodiment of the present invention, when operating an autonomous driving system, the normal or abnormal state of various autonomous driving control signals transmitted to the autonomous vehicle is analyzed and applied to enable stable autonomous driving of the autonomous vehicle and remote location (autonomous driving system). We would like to propose a remote driving control signal processing unit installed in the center.

보다 상세하게는, 자율주행 센터에서는 자율주행 차량의 신호를 배제한 다른 신호들에 의해 차량의 진행 정보를 생성할 수 있다. 또한, 자율주행 센터에서는 자율주행 차량의 신호를 이용하여 자율주행 차량의 진행 정보를 병렬적으로 생성할 수 있다. 이때, 자율주행 차량의 신호를 배제한 다른 신호 및 자율주행 차량의 신호는 각각 부호화되어 자율주행 차량으로 전송될 수 있다. More specifically, the autonomous driving center can generate vehicle progress information using other signals excluding the autonomous vehicle signal. Additionally, the autonomous driving center can generate progress information of the autonomous vehicle in parallel using signals from the autonomous vehicle. At this time, other signals excluding the autonomous vehicle signal and the autonomous vehicle signal may be encoded and transmitted to the autonomous vehicle.

이후, 자율주행 차량에서는 수신한 신호를 각각 분석하고, 서로 비교할 수 있다. 이에 따라, 자율주행 차량은 현재 신호의 정상 또는 비정상 상태를 분석하고 이를 자율주행 제어에 이용할 수 있다. 이때, 수신한 신호의 네트워크가 문제인지 자율주행 센터 내의 장치가 문제인지, 악의적인 jamming attack이 있었는지 여부는 중요하지 않으며 단지 수신된 제어 신호의 신뢰성을 알 수 있다. Afterwards, self-driving vehicles can analyze each received signal and compare them. Accordingly, the autonomous vehicle can analyze the normal or abnormal state of the current signal and use it for autonomous driving control. At this time, it is not important whether the problem is the network of the received signal, the device in the autonomous driving center, or whether there was a malicious jamming attack, but only the reliability of the received control signal can be known.

이하 도 3 내지 도 10을 통하여 자세히 설명하도록 한다. Hereinafter, it will be described in detail through FIGS. 3 to 10.

도 3은 본 발명의 일 실시 예에 다른 자율주행 시스템의 구성을 설명하는 도면이다. 이하, 상술한 내용과 중복되는 설명은 생략하도록 한다.Figure 3 is a diagram explaining the configuration of another autonomous driving system according to an embodiment of the present invention. Hereinafter, descriptions that overlap with the above-described content will be omitted.

도 3을 참조하면, 자율주행 시스템(300)은 자율주행 차량(310), 자율주행 센터(320) 및 네트워크(330)를 포함할 수 있다. 이때, 도 2에서 상술한 구성에 대하여는 중복되는 설명을 생략하도록 한다. 또한, 도 3의 실시 예는 자율주행 차량(310)이 네트워크(330)를 이용하여 원격주행 모드에서 동작하는 경우를 가정하도록 한다. Referring to FIG. 3 , the autonomous driving system 300 may include an autonomous vehicle 310, an autonomous driving center 320, and a network 330. At this time, redundant description of the configuration described above in FIG. 2 will be omitted. Additionally, the embodiment of FIG. 3 assumes that the autonomous vehicle 310 operates in a remote driving mode using the network 330.

자율주행 차량(310)은 영상 및 데이터 전송부(311), 제어 신호 수신부(312), 제어 신호 분석부(313) 및 자율주행 제어 신호 생성부(314)를 포함할 수 있다. The autonomous vehicle 310 may include an image and data transmission unit 311, a control signal reception unit 312, a control signal analysis unit 313, and an autonomous driving control signal generation unit 314.

영상 및 데이터 전송부(311)는 자율주행 차량(310) 내의 영상 및 데이터를 네트워크(330)를 통하여 자율주행 센터(320)에게 전송할 수 있다. The image and data transmission unit 311 may transmit images and data within the self-driving vehicle 310 to the self-driving center 320 through the network 330.

제어 신호 수신부(312)는 네트워크(330)를 통하여 자율주행 센터(320)가 전송한 통합 제어 신호를 수신할 수 있다. 이때, 통합 제어 신호는 부가 정보 및 제어 신호를 포함할 수 있다. 제어 신호 수신부(312)는 수신한 통합 제어 신호를 제어 신호 분석부(313)에게 전달할 수 있다. The control signal receiver 312 may receive an integrated control signal transmitted from the autonomous driving center 320 through the network 330. At this time, the integrated control signal may include additional information and control signals. The control signal receiver 312 may transmit the received integrated control signal to the control signal analysis unit 313.

제어 신호 분석부(313)는 수신한 통합 제어 신호를 분석할 수 있다. 제어 신호 분석부(313)는 수신한 통합 제어 신호를 분석하여 제 2 제어 신호로 처리한 뒤 제 2 제어 신호를 자율주행 제어 신호 생성부(314)에게 전달할 수 있다. 이때, 제어 신호 분석부(313)에 대하여는 이하 도 7을 통하여 자세히 설명하도록 한다. The control signal analysis unit 313 may analyze the received integrated control signal. The control signal analysis unit 313 may analyze the received integrated control signal, process it into a second control signal, and then transmit the second control signal to the autonomous driving control signal generation unit 314. At this time, the control signal analysis unit 313 will be described in detail with reference to FIG. 7 below.

자율주행 제어 신호 생성부(314)는 제어 신호 분석부(313)로부터 전달받은 제 2 신호에 기초하여 자율주행 차량(310)을 제어하기 위한 제 3 제어 신호를 생성할 수 있다. The autonomous driving control signal generator 314 may generate a third control signal for controlling the autonomous vehicle 310 based on the second signal received from the control signal analysis unit 313.

자율주행 센터(320)는 영상 및 데이터 수신부(321), 제어 신호 전송부(322), 제어 신호 생성부(323), 디스플레이(324) 및 운전 장치(325)를 포함할 수 있다. The autonomous driving center 320 may include an image and data receiving unit 321, a control signal transmitting unit 322, a control signal generating unit 323, a display 324, and a driving device 325.

영상 및 데이터 수신부(321)는 네트워크(330)를 통하여 자율주행 차량(310)의 영상 및 데이터를 수신할 수 있다. 영상 및 데이터 수신부(321)는 수신한 영상 및 데이터를 디스플레이(324)에 전달할 수 있다. 일 실시 예에서, 영상 및 데이터 수신부(321)는 수신한 부가 정보를 제어 신호 생성부(323)에게 전달할 수 있다. The video and data receiving unit 321 may receive video and data of the autonomous vehicle 310 through the network 330. The image and data receiver 321 may transmit the received image and data to the display 324. In one embodiment, the image and data receiver 321 may transmit the received additional information to the control signal generator 323.

제어 신호 전송부(322)는 제어 신호 생성부(323)를 통하여 생성된 통합 제어 신호를 네트워크(330)를 통해 자율주행 차량(310)에게 전송할 수 있다. 여기에서, 통합 제어 신호는 부가 정보 및 제어 신호를 포함하고, 각각 별개의 패킷으로 구성하여 전송할 수 있다. The control signal transmitter 322 may transmit the integrated control signal generated through the control signal generator 323 to the autonomous vehicle 310 through the network 330. Here, the integrated control signal includes additional information and a control signal, and can be transmitted in separate packets.

제어 신호 생성부(323)는 수신한 부가 정보 및 운전 장치(325)로부터 수신한 제어 신호에 기초하여 자율주행 차량(310)을 제어하기 위한 통합 제어 신호를 생성할 수 있다. 여기에서, 운전 장치(325)로부터 수신한 제어 신호는 스티어링 제어 신호, 브레이크 제어 신호, 트랜스미션 제어 신호 및 가속 제어 신호를 포함할 수 있다. 이때, 제어 신호 생성부(323)에 대하여는 이하 도 4를 통하여 자세히 설명하도록 한다. The control signal generator 323 may generate an integrated control signal for controlling the autonomous vehicle 310 based on the received additional information and the control signal received from the driving device 325. Here, the control signal received from the driving device 325 may include a steering control signal, a brake control signal, a transmission control signal, and an acceleration control signal. At this time, the control signal generator 323 will be described in detail with reference to FIG. 4 below.

디스플레이(324)는 영상 및 데이터 수신부(321)를 통하여 수신한 영상 및 데이터를 출력할 수 있다. The display 324 can output images and data received through the image and data receiver 321.

운전 장치(325)는 원격주행을 위하여 자율주행 센터(320)에 설치된 것으로 사용자는 운전 장치(325)를 통해 원격주행 하고자 하는 자율주행 차량(310)을 직접 제어할 수 있다. The driving device 325 is installed in the autonomous driving center 320 for remote driving, and the user can directly control the autonomous vehicle 310 for remote driving through the driving device 325.

이에 따라, 자율주행 센터(320)에서는 복수 개의 서로 다른 정보를 생성하여 이를 네트워크(330)를 통해 전송하고, 자율주행 차량(310)은 이를 수신하고, 서로 다른 관점에서 비교 및 분석하여 차량 제어 신호에 이용하기 때문에 자율주행 차량(310)의 급작스러운 동작을 예방하여 인명피해를 방지할 수 있다. Accordingly, the autonomous driving center 320 generates a plurality of different information and transmits it through the network 330, and the autonomous vehicle 310 receives it, compares and analyzes it from different perspectives, and signals the vehicle control signal. Because it is used, it is possible to prevent sudden movement of the autonomous vehicle 310 and prevent casualties.

또한, 자율주행 센터(320)에서 사고를 예방하기 위한 급격한 브레이크, 급격한 조향을 하는 경우 이를 자율주행 차량(310)에서도 감지할 수 있어 해당 제어 신호가 네트워크(330)에서 생성된 이상 신호인지 자율주행 센터(320)에서 의도된 신호인지를 높은 확률로 분별할 수 있다는 장점이 있다. In addition, when the autonomous driving center 320 engages in sudden braking or sharp steering to prevent an accident, this can also be detected by the autonomous vehicle 310, so that autonomous driving can determine whether the control signal is an abnormal signal generated by the network 330. There is an advantage that the center 320 can discern with a high probability whether the signal is intended.

도 4는 본 발명의 일 실시 예에 따른 제어 신호 생성부의 구성을 설명하는 도면이다. 이하, 상술한 내용과 중복되는 설명은 생략하도록 한다.Figure 4 is a diagram explaining the configuration of a control signal generator according to an embodiment of the present invention. Hereinafter, descriptions that overlap with the above-described content will be omitted.

도 4를 참조하면, 제어 신호 생성부(400)는 부가 정보 생성부(410), 제어 명령 발생부(420) 및 메시지 구조화부(430)를 포함할 수 있다. Referring to FIG. 4 , the control signal generation unit 400 may include an additional information generation unit 410, a control command generation unit 420, and a message structuring unit 430.

부가 정보 생성부(410)는 영상 및 데이터 수신부(미도시)를 통하여 수신한 부가 정보(예를 들어, Trajectory)에 기초하여 부가 정보를 생성할 수 있다. 여기에서, 부가 정보는 자율주행 차량에 설치된 카메라 영상 정보를 포함할 수 있다. 이때, 부가 정보 생성부(410)에 대하여는 이하 도 5를 통하여 자세히 설명하도록 한다. The additional information generator 410 may generate additional information based on additional information (eg, trajectory) received through an image and data receiver (not shown). Here, the additional information may include image information from a camera installed in the autonomous vehicle. At this time, the additional information generator 410 will be described in detail with reference to FIG. 5 below.

제어 명령 발생부(420)는 운전 장치(미도시)로부터 핸들 조향 각도, 브레이크 압력, 전진 또는 후진 신호 등을 수신할 수 있다. 이에 따라, 제어 명령 발생부(420)는 운전 장치로부터 생성되는 조향장치 센서 신호에 기초하여 제어 신호를 생성할 수 있다. 이후, 제어 명령 발생부(420)는 생성한 제어 신호를 메시지 구조화부(430)로 전송할 수 있다. 또한, 다른 일 실시 예에서, 운전 장치 내의 CPU에 의해 제어 신호가 바로 생성될 수 있다. 이 경우, 제어 명령 발생부(420)는 운전 장치로부터 수신한 제어 신호를 메시지 구조화부(430)로 바로 전달할 수 있다. The control command generator 420 may receive a steering angle, brake pressure, forward or reverse signal, etc. from a driving device (not shown). Accordingly, the control command generator 420 may generate a control signal based on the steering device sensor signal generated from the driving device. Thereafter, the control command generation unit 420 may transmit the generated control signal to the message structuring unit 430. Additionally, in another embodiment, the control signal may be directly generated by the CPU within the driving device. In this case, the control command generator 420 can directly transmit the control signal received from the driving device to the message structuring unit 430.

메시지 구조화부(430)는 부가 정보 생성부(410)로부터 생성된 부가 정보 및 제어 명령 발생부(420)로부터 생성된 제어 신호를 하나의 메시지로 구조화하여 제어 신호 전송부(미도시)에게 전송할 수 있다. The message structuring unit 430 may structure the additional information generated by the additional information generating unit 410 and the control signal generated by the control command generating unit 420 into one message and transmit it to the control signal transmitting unit (not shown). there is.

도 5는 본 발명의 일 실시 예에 따른 부가 정보 생성부의 구성을 설명하는 도면이다. 이하, 상술한 내용과 중복되는 설명은 생략하도록 한다.Figure 5 is a diagram explaining the configuration of an additional information generator according to an embodiment of the present invention. Hereinafter, descriptions that overlap with the above-described content will be omitted.

도 5를 참조하면, 부가 정보 생성부(500)는 전처리부(510), 검출부(520), 궤도 생성부(530, visual trajectory generating unit) 및 위치 추정부(540)를 포함할 수 있다. Referring to FIG. 5 , the additional information generation unit 500 may include a preprocessing unit 510, a detection unit 520, a visual trajectory generating unit (530), and a position estimation unit (540).

전처리부(510)는 영상 및 데이터 수신부로부터 수신한 부가 정보(예를 들어, 자율주행 차량에 설치된 카메라를 통하여 촬영된 전방, 전방 및 후방 카메라 영상, 현재 위치에 대한 영상 정보 등)를 전처리할 수 있다. The preprocessing unit 510 can preprocess additional information received from the image and data receiving unit (e.g., front, front, and rear camera images captured through cameras installed in the autonomous vehicle, image information about the current location, etc.) there is.

검출부(520)는 전처리부(510)를 통하여 전처리된 부가 정보에 기초하여 도로 또는 차선을 검출할 수 있다. The detection unit 520 may detect a road or lane based on additional information preprocessed through the preprocessor 510.

궤도 생성부(530)는 부가 정보 및 검출부(520)를 통하여 검출된 도로 또는 차선 정보에 기초하여 시각적으로(visual) 볼 수 있는 궤도(trajectory)를 생성할 수 있다. 즉, 궤도 생성부(530)는 수신한 전방 및 후방 카메라 영상과 검출된 도로 또는 차선 정보에 기초하여 시각적으로 볼 수 있는 궤도를 생성할 수 있다. 이를 통하여 도 6과 같이 자율주행 차량 내의 운전자는 자율주행 센터의 운전자의 운행 의도를 예측할 수 있다. The trajectory generator 530 may generate a visually visible trajectory based on road or lane information detected through the additional information and the detection unit 520. That is, the trajectory generator 530 may generate a visually visible trajectory based on the received front and rear camera images and detected road or lane information. Through this, as shown in Figure 6, the driver in the autonomous vehicle can predict the driving intention of the driver in the autonomous driving center.

일 실시 예에서, 궤도 생성부(530)는 자율주행 차량이 차선 내로 진행 중인지, 도로 내에서 진행 중인지에 대한 제 1 부가 정보를 생성할 수 있다. 이후, 궤도 생성부(530)는 생성한 제 1 부가 정보를 통합 제어 신호 안에 포함시켜 네트워크를 통하여 자율주행 차량으로 전송할 수 있다. In one embodiment, the trajectory generator 530 may generate first additional information about whether the autonomous vehicle is proceeding within a lane or on a road. Thereafter, the trajectory generator 530 may include the generated first additional information in the integrated control signal and transmit it to the autonomous vehicle through the network.

위치 추정부(540)는 영상 및 데이터 수신부로부터 수신한 부가 정보를 수신할 수 있다. 즉, 위치 추정부(540)는 전처리부(510)를 통과하기 전의 부가 정보에 기초하여 현재 위치를 추정할 수 있다. 일 실시 예에서, 위치 추정부(540)는 수신한 부가 정보 및 궤도 생성부(530)를 통하여 수신한 제 1 부가 정보에 기초하여 현재 위치 추정 메시지를 포함하는 제 2 부가 정보를 생성할 수 있다. 이후, 위치 추정부(540)는 생성한 제 2 부가 정보를 통합 제어 신호 안에 포함시켜 네트워크를 통하여 자율주행 차량으로 전송할 수 있다. The location estimation unit 540 may receive additional information received from the image and data reception unit. That is, the location estimation unit 540 can estimate the current location based on additional information before passing through the preprocessor 510. In one embodiment, the location estimation unit 540 may generate second additional information including a current location estimation message based on the received additional information and the first additional information received through the trajectory generator 530. . Thereafter, the location estimation unit 540 may include the generated second additional information in the integrated control signal and transmit it to the autonomous vehicle through the network.

도 6은 본 발명의 일 실시 예에 따라 자율주행 차량에서 출력되는 화면을 나타내는 도면이다. 이하, 상술한 내용과 중복되는 설명은 생략하도록 한다.Figure 6 is a diagram showing a screen output from an autonomous vehicle according to an embodiment of the present invention. Hereinafter, descriptions that overlap with the above-described content will be omitted.

도 5에서 상술한 방법에 기초하여, 자율주행 차량은 시각적으로 볼 수 있는 궤도를 포함하는 부가 정보를 수신할 수 있다. Based on the method described above in FIG. 5, the autonomous vehicle can receive additional information including a visually visible trajectory.

이에 따라, 도 6의 (a)와 같이 자율주행 차량은 차량이 차선 내에서 직진하고 있음을 알 수 있으며, 도 6의 (b)와 같이 차량이 우측 차선으로 차선을 바꾸려는 것을 알 수 있다. Accordingly, as shown in (a) of FIG. 6, the autonomous vehicle can see that the vehicle is moving straight within the lane, and as shown in (b) of FIG. 6, the autonomous vehicle can know that the vehicle is trying to change lanes to the right lane.

이때, 중요한 사항은 운전자의 운행 경로를 예측하기 위하여 운전 장치의 센서 출력을 이용하지 않는다는 점이다. 즉, 순수하게 화면을 보고 운전하는 자율주행 센터의 운전자의 의도를 정보로 부호화해야 한다. 이때, 출력은 도 5에서 생성된 궤도(visual trajectory)를 이용하여 현재 위치로부터 위경도 기반으로 웨이 포인트(way point)를 복수 개 출력하거나 현재 위치를 원점으로 놓고, 원점 좌표계를 이용하여 방위각과 거리를 기준으로 웨이 포인트를 복수 개 출력할 수 있다. At this time, an important point is that the sensor output of the driving device is not used to predict the driver's driving path. In other words, the intention of the driver of the autonomous driving center who drives purely by looking at the screen must be encoded into information. At this time, the output outputs a plurality of way points based on latitude and longitude from the current location using the visual trajectory generated in Figure 5, or sets the current location as the origin and calculates the azimuth and distance using the origin coordinate system. Multiple waypoints can be output based on .

뿐만 아니라, 도 6의 (a) 및 (b)와 같이 현재 위치를 기반으로 칼만 필터(Kalman Filter), 파티클 필터(Particle Filter)와 같은 위치 추정을 이용하여 동시에 두 개의 정보를 생성할 수 있다. 여기에서, 칼만 필터란 잡음이 포함되어 있는 측정치를 바탕으로 선형 역학계의 상태를 추정하는 재귀 필터에 대응한다. 마찬가지로, 파티클 필터는 시뮬레이션에 기반을 둔 예측 기술의 하나로 시스템에 적절하게 제안된 확률분포로 임의로 생성된 입력을 여러 개 가하여 그것들을 종합하여 시스템의 정보를 추측하는 필터에 대응한다. 다만, 칼만 필터 및 파티클 필터는 이미 공지된 기술이기 때문에 자세한 설명은 생략하도록 한다. 이에 따라, 도 5에서 상술한 위치 추정부는 칼만 필터, 파티클 필터와 같은 필터를 포함할 수 있다. In addition, as shown in Figures 6 (a) and (b), two pieces of information can be generated simultaneously using position estimation such as Kalman Filter or Particle Filter based on the current position. Here, the Kalman filter corresponds to a recursive filter that estimates the state of a linear dynamical system based on measurements containing noise. Likewise, the particle filter is a prediction technology based on simulation and corresponds to a filter that infers the information of the system by applying several randomly generated inputs with an appropriately proposed probability distribution to the system and combining them. However, since the Kalman filter and particle filter are already known technologies, detailed descriptions will be omitted. Accordingly, the position estimation unit described above in FIG. 5 may include filters such as a Kalman filter and a particle filter.

이후, 이러한 부가 정보들과 자율주행 센터에서 운전 장치의 제어 신호는 각각 개별적으로 메시지화 및 패킷타이징(packetizing)되어 자율주행 차량으로 전송될 수 있다. Afterwards, this additional information and the control signals of the driving device at the autonomous driving center can be individually messaged and packetized and transmitted to the autonomous vehicle.

일 실시 예에서, 부가 정보는 미래의 자율주행 차량의 진로 방향과 상황을 함께 전달하기 때문에 TCP(Transmission Control Protocol, 전송 제어 프로토콜) 등 안전 채널에 의해 전송될 수 있다. In one embodiment, the additional information may be transmitted through a safe channel such as TCP (Transmission Control Protocol) because it also conveys the direction and situation of the future autonomous vehicle.

이에 따라, 자율주행 차량의 운전자는 자율주행 센터의 운전자의 운행 의도를 예측할 수 있다. Accordingly, the driver of the autonomous vehicle can predict the driving intention of the driver of the autonomous driving center.

도 7은 본 발명의 일 실시 예에 따른 제어 신호 분석부의 구성을 설명하는 도면이다. 이하, 상술한 내용과 중복되는 설명은 생략하도록 한다. Figure 7 is a diagram explaining the configuration of a control signal analysis unit according to an embodiment of the present invention. Hereinafter, descriptions that overlap with the above-described content will be omitted.

자율주행 차량은 네트워크를 통하여 자율주행 센터로부터 통합 제어 신호를 수신할 수 있다. 이때, 통합 제어 신호는 부가 정보 및 제어 신호를 포함하고 있으며 자율주행 차량에서는 이들을 각각 분석해야 할 필요가 있다. 이때, 통합 제어 신호는 메시지 형태로 패킷타이징되어 전달될 수 있다. 이에 따라, 자율주행 차량은 제어 신호 분석부를 통하여 수신한 통합 제어 신호의 부가 정보 및 제어 신호를 각각 분석할 수 있다. Self-driving vehicles can receive integrated control signals from the self-driving center through the network. At this time, the integrated control signal includes additional information and control signals, and in an autonomous vehicle, these need to be analyzed separately. At this time, the integrated control signal may be packetized and transmitted in the form of a message. Accordingly, the autonomous vehicle can analyze the additional information and control signal of the integrated control signal received through the control signal analysis unit, respectively.

도 7을 참조하면, 제어 신호 분석부(700)는 부가 정보 분석부(710), 제어 명령 분석부(720), 비교부(730) 및 제어 신호 생성부(740)를 포함할 수 있다. Referring to FIG. 7 , the control signal analysis unit 700 may include an additional information analysis unit 710, a control command analysis unit 720, a comparison unit 730, and a control signal generation unit 740.

부가 정보 분석부(710)는 수신한 부가 정보를 분석할 수 있다. 일 실시 예에서, 부가 정보 분석부(710)는 자율주행 센터의 운전 장치를 배제한 데이터로부터 구성된 운전 상황을 분석할 수 있다. 예를 들어, 부가 정보 분석부(710)는 현재 자율주행 차량이 차선을 넘어가고 있는지, 진행 중인지 여부 등을 분석할 수 있다. The additional information analysis unit 710 may analyze the received additional information. In one embodiment, the additional information analysis unit 710 may analyze a driving situation constructed from data excluding the driving device of the autonomous driving center. For example, the additional information analysis unit 710 can analyze whether the autonomous vehicle is currently crossing the lane or is in progress.

제어 명령 분석부(720)는 수신한 제어 신호를 분석할 수 있다. 일 실시 예에서, 제어 명령 분석부(720)는 자율주행 센터의 운전 장치로부터 수신되는 제어 신호를 분석할 수 있다. The control command analysis unit 720 may analyze the received control signal. In one embodiment, the control command analysis unit 720 may analyze control signals received from the driving device of the autonomous driving center.

비교부(730)는 부가 정보 분석부(710)를 통하여 분석된 부가 정보 및 제어 명령 분석부(720)를 통하여 분석된 제어 신호를 비교할 수 있다. 보다 상세하게는, 비교부(730)는 분석된 부가 정보 및 제어 신호가 서로 같은 차량을 나타내는 경우에 한해서만 제어 신호 생성부(740)로 제어 신호를 전달할 수 있다. The comparison unit 730 may compare the additional information analyzed through the additional information analysis unit 710 and the control signal analyzed through the control command analysis unit 720. More specifically, the comparison unit 730 may transmit a control signal to the control signal generator 740 only when the analyzed additional information and the control signal represent the same vehicle.

자율주행 제어 신호 생성부(740)는 비교부(730)를 통하여 전달받은 두 가지 정보에 기초하여 자율주행 차량을 제어하기 위한 제어 신호를 생성할 수 있다. 일 실시 예에서, 비교부(730)를 통하여 부가 정보 및 제어 신호가 서로 같은 차량을 나타내는 경우에는 자율주행 차량을 정상적으로 제어하기 위한 제어 신호를 생성하지만, 그렇지 않은 경우에는 자율주행 차량을 정상적으로 제어하기 위한 제어 신호를 생성하지 않고 자율주행 차량이 정해진 긴급 프로세스(예를 들어, 긴급 길가 주차 등)를 동작하는 제어 신호를 생성할 수 있다.The autonomous driving control signal generator 740 may generate a control signal for controlling the autonomous vehicle based on the two pieces of information received through the comparison unit 730. In one embodiment, when the additional information and control signals represent the same vehicle through the comparison unit 730, a control signal for normally controlling the autonomous vehicle is generated, but otherwise, the autonomous vehicle is normally controlled. An autonomous vehicle can generate a control signal to operate a designated emergency process (for example, emergency roadside parking, etc.) without generating a control signal for the autonomous vehicle.

도 8은 본 발명의 일 실시 예에 따른 자율주행 시스템의 제어 방법을 설명하는 순서도이다. 이하, 상술한 내용과 중복되는 설명은 생략하도록 한다.Figure 8 is a flowchart explaining a control method of an autonomous driving system according to an embodiment of the present invention. Hereinafter, descriptions that overlap with the above-described content will be omitted.

도 8을 참조하면, 단계(S810)에서, 자율주행 차량은 네트워크를 통하여 자율주행 센터에게 영상 및 데이터를 전송할 수 있다. 여기에서, 영상 및 데이터는 자율주행 차량에 설치된 전방 카메라 영상 정보 및 후방 카메라 영상 정보를 포함할 수 있다. Referring to FIG. 8, in step S810, the autonomous vehicle may transmit images and data to the autonomous driving center through the network. Here, the images and data may include image information from the front camera and rear camera installed in the autonomous vehicle.

단계(S820)에서, 자율주행 센터는 수신한 영상 및 데이터를 전처리하여 부가 정보를 생성할 수 있다. 이때, 자율주행 센터는 생성된 부가 정보에 기초하여 차선을 검출할 수 있다. 또한, 자율주행 센터는 검출된 차선에 기초하여 궤도를 생성할 수 있다. 또한, 자율주행 센터는 생성된 궤도에 기초하여 자율주행 차량의 현재 위치를 추정할 수 있다. In step S820, the autonomous driving center may generate additional information by preprocessing the received images and data. At this time, the autonomous driving center can detect the lane based on the generated additional information. Additionally, the autonomous driving center can generate a trajectory based on the detected lane. Additionally, the autonomous driving center can estimate the current location of the autonomous vehicle based on the generated trajectory.

단계(S830)에서, 자율주행 센터는 운전 장치로부터 제어 신호를 수신할 수 있다. 여기에서, 제어 신호는 운전 장치의 핸들 조향 각도, 브레이크 압력, 전진 신호 및 후진 신호 중 적어도 하나를 포함할 수 있다. In step S830, the autonomous driving center may receive a control signal from the driving device. Here, the control signal may include at least one of the steering angle of the driving device, brake pressure, forward signal, and reverse signal.

단계(S840)에서, 자율주행 센터는 부가 정보 및 제어 신호에 기초하여 통합 제어 신호를 생성할 수 있다. 이때, 자율주행 센터는 부가 정보 및 제어 신호를 개별적으로 메시지화 및 패키타이징(packetizing)할 수 있다. In step S840, the autonomous driving center may generate an integrated control signal based on the additional information and the control signal. At this time, the autonomous driving center can individually message and package additional information and control signals.

단계(S850)에서, 자율주행 센터는 네트워크를 통하여 자율주행 차량에게 통합 제어 신호를 전송할 수 있다. In step S850, the autonomous driving center may transmit an integrated control signal to the autonomous vehicle through the network.

단계(S860)에서, 자율주행 차량은 통합 제어 신호에 포함된 부가 정보 및 제어 신호를 각각 분석할 수 있다. In step S860, the autonomous vehicle can analyze each of the additional information and control signals included in the integrated control signal.

단계(S870)에서, 자율주행 차량은 차량을 제어하기 위한 자율주행 제어 신호를 생성할 수 있다. 일 실시 예에서, 자율주행 차량은 통합 제어 신호에 포함된 부가 정보 및 제어 신호가 동일한 자율주행 차량을 나타내는 경우에만 자율주행 제어 신호를 생성할 수 있다. 다른 일 실시 예에서, 자율주행 차량은 통합 제어 신호에 포함된 부가 정보 및 제어 신호가 동일한 자율주행 차량을 나타내지 않는 경우, 긴급 프로세스를 동작하도록 제어하는 제어 신호를 생성할 수 있다. In step S870, the autonomous vehicle may generate an autonomous driving control signal to control the vehicle. In one embodiment, the autonomous vehicle may generate an autonomous driving control signal only when the additional information and control signals included in the integrated control signal represent the same autonomous vehicle. In another embodiment, the autonomous vehicle may generate a control signal to control an emergency process to operate when the additional information and control signal included in the integrated control signal do not represent the same autonomous vehicle.

도 9는 본 발명의 일 실시 예에 따른 자율주행 차량의 제어 방법을 설명하는 순서도이다. 이하, 상술한 내용과 중복되는 설명은 생략하도록 한다.Figure 9 is a flowchart explaining a control method of an autonomous vehicle according to an embodiment of the present invention. Hereinafter, descriptions that overlap with the above-described content will be omitted.

도 9를 참조하면, 단계(S910)에서, 자율주행 차량은 영상 및 데이터를 네트워크를 통하여 자율주행 센터에게 전송할 수 있다. Referring to FIG. 9, in step S910, the self-driving vehicle can transmit images and data to the self-driving center through a network.

단계(S920)에서, 자율주행 차량은 네트워크를 통하여 자율주행 센터로부터 통합 제어 신호를 수신할 수 있다. In step S920, the autonomous vehicle may receive an integrated control signal from the autonomous driving center through the network.

단계(S930)에서, 자율주행 차량은 통합 제어 신호를 분석할 수 있다. 여기에서, 통합 제어 신호는 부가 정보 및 제어 신호를 포함할 수 있다. In step S930, the autonomous vehicle may analyze the integrated control signal. Here, the integrated control signal may include additional information and control signals.

단계(S940)에서, 자율주행 차량은 부가 정보 및 제어 신호가 동일한 자율주행 차량을 나타내는지 여부를 판단할 수 있다. In step S940, the autonomous vehicle may determine whether the additional information and the control signal represent the same autonomous vehicle.

부가 정보 및 제어 신호가 동일한 자율주행 차량을 나타내는 경우, 단계(S950)에서, 자율주행 차량은 자율주행 차량을 제어하기 위한 자율주행 제어 신호를 생성할 수 있다. If the additional information and the control signal represent the same autonomous vehicle, in step S950, the autonomous vehicle may generate an autonomous driving control signal for controlling the autonomous vehicle.

부가 정보 및 제어 신호가 동일한 자율주행 차량을 나타내지 않는 경우, 단계(S960)에서, 자율주행 차량은 긴급 프로세스를 동작하도록 제어하는 제어 신호를 생성할 수 있다. If the additional information and the control signal do not represent the same autonomous vehicle, in step S960, the autonomous vehicle may generate a control signal that controls the emergency process to operate.

도 10은 본 발명의 일 실시 예에 따른 자율주행 센터의 제어 방법을 설명하는 순서도이다. 이하, 상술한 내용과 중복되는 설명은 생략하도록 한다.Figure 10 is a flowchart explaining a control method of an autonomous driving center according to an embodiment of the present invention. Hereinafter, descriptions that overlap with the above-described content will be omitted.

도 10을 참조하면, 단계(S1010)에서, 자율주행 센터는 네트워크를 통하여 자율주행 차량으로부터 영상 및 데이터를 수신할 수 있다. Referring to FIG. 10, in step S1010, the autonomous driving center can receive images and data from the autonomous vehicle through the network.

단계(S1020)에서, 자율주행 센터는 수신한 영상 및 데이터에 기초하여 부가 정보를 생성할 수 있다. 여기에서, 영상 및 데이터는 자율주행 차량에 설치된 전방 카메라 영상 정보 및 후방 카메라 영상 정보를 포함할 수 있다. 이때, 자율주행 센터는 수신한 영상 및 데이터를 전처리하여 부가 정보를 생성할 수 있고, 생성된 부가 정보에 기초하여 차선을 검출할 수 있다. 일 실시 예에서, 자율주행 센터는 검출된 차선에 기초하여 궤도를 생성할 수 있고, 생성된 궤도에 기초하여 자율주행 차량의 현재 위치를 추정할 수 있다. In step S1020, the autonomous driving center may generate additional information based on the received images and data. Here, the images and data may include image information from the front camera and rear camera installed in the autonomous vehicle. At this time, the autonomous driving center can generate additional information by preprocessing the received images and data, and detect the lane based on the generated additional information. In one embodiment, the autonomous driving center may generate a trajectory based on the detected lane and estimate the current location of the autonomous vehicle based on the generated trajectory.

단계(S1030)에서, 자율주행 센터는 자율주행 센터에 설치된 운전 장치로부터 수신한 신호에 기초하여 제어 신호를 생성할 수 있다. 여기에서, 제어 신호는 운전 장치의 핸들 조향 각도, 브레이크 압력, 전진 신호 및 후진 신호 중 적어도 하나를 포함할 수 있다. In step S1030, the autonomous driving center may generate a control signal based on a signal received from a driving device installed in the autonomous driving center. Here, the control signal may include at least one of the steering angle of the driving device, brake pressure, forward signal, and reverse signal.

단계(S1040)에서, 자율주행 센터는 부가 정보 및 제어 신호를 포함하는 통합 제어 신호를 생성할 수 있다. 이때, 자율주행 센터는 부가 정보 및 제어 신호를 개별적으로 메시지화 및 패킷타이징할 수 있다. In step S1040, the autonomous driving center may generate an integrated control signal including additional information and control signals. At this time, the autonomous driving center can individually message and packetize additional information and control signals.

단계(S1050)에서, 자율주행 센터는 통합 제어 신호를 자율주행 차량에게 전송할 수 있다. In step S1050, the autonomous driving center may transmit an integrated control signal to the autonomous vehicle.

또한, 도 1 내지 도 7의 실시 예는 도 8 내지 도 10과 같은 방법으로 수행될 수 있음은 물론이다. Additionally, of course, the embodiments of FIGS. 1 to 7 can be performed in the same manner as FIGS. 8 to 10.

전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. The above-described present invention can be implemented as computer-readable code on a program-recorded medium. Computer-readable media includes all types of recording devices that store data that can be read by a computer system. Examples of computer-readable media include HDD (Hard Disk Drive), SSD (Solid State Disk), SDD (Silicon Disk Drive), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. It also includes those implemented in the form of carrier waves (e.g., transmission via the Internet).

이상 본 발명의 실시 예에 따른 단말기, 클라우드 서버, 클라우드 AR 플랫폼의 영상 송수신 시스템 및 방법을 구체적인 실시 형태로서 설명하였으나, 이는 예시에 불과한 것으로서 본 발명은 이에 한정되지 않는 것이며, 본 명세서에 개시된 기초 사상에 따르는 최광의 범위를 갖는 것으로 해석되어야 한다. 당업자는 개시된 실시 형태들을 조합, 치환하여 적시되지 않은 실시 형태를 실시할 수 있으나, 이 역시 본 발명의 권리범위를 벗어나지 않는 것이다. 이외에도 당업자는 본 명세서에 기초하여 개시된 실시형태를 용이하게 변경 또는 변형할 수 있으며, 이러한 변경 또는 변형도 본 발명의 권리범위에 속함은 명백하다.The video transmission and reception system and method of the terminal, cloud server, and cloud AR platform according to the embodiment of the present invention have been described above as specific embodiments, but this is only an example and the present invention is not limited thereto, and the basic idea disclosed herein It should be interpreted as having the widest scope in accordance with . A person skilled in the art may combine and substitute the disclosed embodiments to implement embodiments not specified, but this also does not deviate from the scope of the present invention. In addition, a person skilled in the art can easily change or modify the embodiments disclosed based on the present specification, and it is clear that such changes or modifications also fall within the scope of the present invention.

300: 자율주행 시스템
310: 자율주행 차량
311: 영상 및 데이터 전송부
312: 제어 신호 수신부
313: 제어 신호 분석부
314: 자율주행 제어 신호 생성부
320: 자율주행 센터
321: 영상 및 데이터 수신부
322: 제어 신호 전송부
323: 제어 신호 생성부
324: 디스플레이
325: 운전 장치
330: 네트워크
300: Autonomous driving system
310: Self-driving vehicle
311: Video and data transmission unit
312: Control signal receiver
313: Control signal analysis unit
314: Self-driving control signal generation unit
320: Autonomous driving center
321: Video and data receiving unit
322: Control signal transmission unit
323: Control signal generator
324: display
325: Driving device
330: network

Claims (26)

자율주행 차량의 영상 및 데이터를 네트워크를 통하여 전송하는 영상 및 데이터 전송부;
상기 네트워크를 통하여 통합 제어 신호를 수신하는 제어 신호 수신부;
상기 통합 제어 신호를 분석하는 제어 신호 분석부; 및
상기 자율주행 차량을 제어하기 위한 자율주행 제어 신호를 생성하는 자율주행 제어 신호 생성부를 포함하고,
상기 제어 신호 분석부는
상기 통합 제어 신호에 포함된 부가 정보 및 제어 신호를 각각 분석하고,
상기 부가 정보 및 상기 제어 신호가 동일한 자율주행 차량을 나타내는 경우, 상기 자율주행 제어 신호를 생성하는 것을 특징으로 하는, 자율주행 차량.
A video and data transmission unit that transmits video and data of the autonomous vehicle through a network;
a control signal receiving unit that receives an integrated control signal through the network;
a control signal analysis unit that analyzes the integrated control signal; and
Comprising an autonomous driving control signal generator that generates an autonomous driving control signal for controlling the autonomous vehicle,
The control signal analysis unit
Analyzing each of the additional information and control signals included in the integrated control signal,
An autonomous vehicle, characterized in that generating the autonomous driving control signal when the additional information and the control signal indicate the same autonomous vehicle.
제 1 항에 있어서,
상기 자율주행 제어 신호 생성부는
상기 부가 정보 및 상기 제어 신호가 동일한 자율주행 차량을 나타내지 않는 경우, 긴급 프로세스를 동작하도록 제어하는 제어 신호를 생성하는 것을 특징으로 하는, 자율주행 차량.
According to claim 1,
The autonomous driving control signal generator
When the additional information and the control signal do not represent the same autonomous vehicle, generating a control signal to control an emergency process to operate.
제 1 항에 있어서,
상기 부가 정보는 자율주행 센터의 운전 장치로부터 수신한 신호를 제외한 정보인 것을 특징으로 하는, 자율주행 차량.
According to claim 1,
An autonomous vehicle, characterized in that the additional information is information excluding signals received from the driving device of the autonomous driving center.
제 1 항에 있어서,
상기 자율주행 차량의 영상 및 데이터는 상기 자율주행 차량에 설치된 전방 카메라 영상 정보 및 후방 카메라 영상 정보를 포함하는 것을 특징으로 하는, 자율주행 차량.
According to claim 1,
An autonomous vehicle, characterized in that the images and data of the autonomous vehicle include image information from a front camera and a rear camera installed on the autonomous vehicle.
자율주행 차량의 영상 및 데이터를 네트워크를 통하여 전송하는 단계;
상기 네트워크를 통하여 통합 제어 신호를 수신하는 단계;
상기 통합 제어 신호를 분석하는 단계;
상기 자율주행 차량을 제어하기 위한 자율주행 제어 신호를 생성하는 단계;
상기 통합 제어 신호에 포함된 부가 정보 및 제어 신호를 각각 분석하는 단계; 및
상기 부가 정보 및 상기 제어 신호가 동일한 자율주행 차량을 나타내는 경우, 상기 자율주행 제어 신호를 생성하는 단계를 포함하는 것을 특징으로 하는, 자율주행 차량의 제어 방법.
Transmitting images and data of the autonomous vehicle through a network;
Receiving an integrated control signal through the network;
analyzing the integrated control signal;
Generating an autonomous driving control signal to control the autonomous vehicle;
Analyzing additional information and control signals included in the integrated control signal, respectively; and
When the additional information and the control signal indicate the same autonomous vehicle, generating the autonomous driving control signal.
제 5 항에 있어서,
상기 부가 정보 및 상기 제어 신호가 동일한 자율주행 차량을 나타내지 않는 경우, 긴급 프로세스를 동작하도록 제어하는 제어 신호를 생성하는 단계를 더 포함하는 것을 특징으로 하는, 자율주행 차량의 제어 방법.
According to claim 5,
If the additional information and the control signal do not represent the same autonomous vehicle, generating a control signal to control an emergency process to operate.
제 5 항에 있어서,
상기 부가 정보는 자율주행 센터의 운전 장치로부터 수신한 신호를 제외한 정보인 것을 특징으로 하는, 자율주행 차량의 제어 방법.
According to claim 5,
A method of controlling an autonomous vehicle, characterized in that the additional information is information excluding signals received from the driving device of the autonomous driving center.
제 5 항에 있어서,
상기 자율주행 차량의 영상 및 데이터는 상기 자율주행 차량에 설치된 전방 카메라 영상 정보 및 후방 카메라 영상 정보를 포함하는 것을 특징으로 하는, 자율주행 차량의 제어 방법.
According to claim 5,
A method of controlling an autonomous vehicle, characterized in that the images and data of the autonomous vehicle include image information from a front camera and a rear camera installed on the autonomous vehicle.
운전 장치;
자율주행 차량의 영상 및 데이터를 네트워크를 통하여 수신하는 영상 및 데이터 수신부;
제어 신호 생성부; 및
제어 신호 전송부를 포함하고,
상기 제어 신호 생성부는
부가 정보를 생성하는 부가 정보 생성부; 및
상기 운전 장치로부터 수신한 신호에 기초하여 제어 신호를 생성하는 제어 명령 발생부를 포함하고,
상기 부가 정보 및 제어 신호를 포함하는 통합 제어 신호를 생성하고,
상기 제어 신호 전송부를 통하여 상기 통합 제어 신호를 자율주행 차량에게 전송하는 것을 특징으로 하는, 자율주행 센터.
driving device;
An image and data receiving unit that receives images and data of an autonomous vehicle through a network;
Control signal generator; and
Includes a control signal transmission unit,
The control signal generator
an additional information generation unit that generates additional information; and
It includes a control command generator that generates a control signal based on a signal received from the driving device,
Generate an integrated control signal including the additional information and control signal,
An autonomous driving center, characterized in that the integrated control signal is transmitted to the autonomous vehicle through the control signal transmission unit.
제 9 항에 있어서,
상기 부가 정보 생성부는
상기 수신한 영상 및 데이터에 기초하여 부가 정보를 생성하되, 상기 영상 및 데이터는 상기 자율주행 차량에 설치된 전방 카메라 영상 정보 및 후방 카메라 영상 정보를 포함하는 것을 특징으로 하는, 자율주행 센터.
According to clause 9,
The additional information generator
An autonomous driving center that generates additional information based on the received images and data, wherein the images and data include image information from a front camera and a rear camera installed in the autonomous vehicle.
제 10 항에 있어서,
상기 부가 정보 생성부는
상기 수신한 영상 및 데이터를 전처리하여 부가 정보를 생성하고,
상기 생성된 부가 정보에 기초하여 차선을 검출하는 것을 특징으로 하는, 자율주행 센터.
According to claim 10,
The additional information generator
Preprocessing the received images and data to generate additional information,
An autonomous driving center characterized in that it detects a lane based on the generated additional information.
제 11 항에 있어서,
상기 부가 정보 생성부는
상기 검출된 차선에 기초하여 궤도를 생성하되, 상기 생성된 궤도에 대한 정보는 상기 부가 정보에 포함되는 것을 특징으로 하는, 자율주행 센터.
According to claim 11,
The additional information generator
An autonomous driving center, wherein a trajectory is generated based on the detected lane, and information about the generated trajectory is included in the additional information.
제 12 항에 있어서,
상기 제어 신호 생성부는
위치 추정부를 더 포함하고,
상기 위치 추정부는
상기 생성된 궤도에 기초하여 상기 자율주행 차량의 현재 위치를 추정하되, 상기 추정된 위치에 대한 정보는 상기 부가 정보에 포함되는 것을 특징으로 하는, 자율주행 센터.
According to claim 12,
The control signal generator
Further comprising a location estimation unit,
The location estimation unit
An autonomous driving center, wherein the current location of the autonomous vehicle is estimated based on the generated trajectory, and information about the estimated location is included in the additional information.
제 13 항에 있어서,
상기 위치 추정부는
상기 추정된 현재 위치로부터 위도 및 경도에 기초하여 제 1 웨이 포인트(way point)를 복수 개 출력하되, 상기 출력된 제 1 웨이 포인트에 대한 정보는 상기 부가 정보에 포함되는 것을 특징으로 하는, 자율주행 센터.
According to claim 13,
The location estimation unit
Autonomous driving, wherein a plurality of first way points are output based on latitude and longitude from the estimated current location, and information about the output first way point is included in the additional information. center.
제 13 항에 있어서,
상기 위치 추정부는
상기 추정된 현재 위치를 원점으로 놓고, 원점 좌표계 및 방위각과의 거리를 기준으로 제 2 웨이 포인트를 복수 개 출력하되, 상기 출력된 제 2 웨이 포인트에 대한 정보는 상기 부가 정보에 포함되는 것을 특징으로 하는, 자율주행 센터.
According to claim 13,
The location estimation unit
The estimated current position is set as the origin, and a plurality of second waypoints are output based on the distance from the origin coordinate system and the azimuth, wherein information about the output second waypoints is included in the additional information. Autonomous driving center.
제 9 항에 있어서,
상기 제어 신호 생성부는
상기 부가 정보 및 상기 제어 신호를 개별적으로 메시지화 및 패킷타이징(packetizing)하는 것을 특징으로 하는, 자율주행 센터.
According to clause 9,
The control signal generator
An autonomous driving center, characterized in that the additional information and the control signal are individually messaged and packetized.
제 9 항에 있어서,
상기 제어 신호는 상기 운전 장치의 핸들 조향 각도, 브레이크 압력, 전진 신호 및 후진 신호 중 적어도 하나를 포함하는 것을 특징으로 하는, 자율주행 센터.
According to clause 9,
The control signal includes at least one of a steering angle of the driving device, brake pressure, a forward signal, and a reverse signal.
자율주행 차량의 영상 및 데이터를 네트워크를 통하여 수신하는 단계;
부가 정보를 생성하는 단계;
운전 장치로부터 수신한 신호에 기초하여 제어 신호를 생성하는 단계;
상기 부가 정보 및 상기 제어 신호를 포함하는 통합 제어 신호를 생성하는 단계; 및
상기 통합 제어 신호를 자율주행 차량에게 전송하는 단계를 포함하는 것을 특징으로 하는, 자율주행 센터의 제어 방법.
Receiving images and data of an autonomous vehicle through a network;
Generating additional information;
generating a control signal based on a signal received from the driving device;
generating an integrated control signal including the additional information and the control signal; and
A control method of an autonomous driving center, comprising transmitting the integrated control signal to an autonomous vehicle.
제 18 항에 있어서,
상기 수신한 영상 및 데이터에 기초하여 부가 정보를 생성하는 단계를 더 포함하되, 상기 영상 및 데이터는 상기 자율주행 차량에 설치된 전방 카메라 영상 정보 및 후방 카메라 영상 정보를 포함하는 것을 특징으로 하는, 자율주행 센터의 제어 방법.
According to claim 18,
Further comprising generating additional information based on the received images and data, wherein the images and data include image information from a front camera and a rear camera installed in the autonomous vehicle. Control method of the center.
제 19 항에 있어서,
상기 수신한 영상 및 데이터를 전처리하여 부가 정보를 생성하는 단계; 및
상기 생성된 부가 정보에 기초하여 차선을 검출하는 단계를 더 포함하는 것을 특징으로 하는, 자율주행 센터의 제어 방법.
According to claim 19,
Preprocessing the received images and data to generate additional information; and
A control method for an autonomous driving center, further comprising detecting a lane based on the generated additional information.
제 20 항에 있어서,
상기 검출된 차선에 기초하여 궤도를 생성하는 단계를 더 포함하되, 상기 생성된 궤도에 대한 정보는 상기 부가 정보에 포함되는 것을 특징으로 하는, 자율주행 센터의 제어 방법.
According to claim 20,
A control method for an autonomous driving center, further comprising generating a trajectory based on the detected lane, wherein information about the generated trajectory is included in the additional information.
제 21 항에 있어서,
상기 생성된 궤도에 기초하여 상기 자율주행 차량의 현재 위치를 추정하는 단계를 더 포함하되, 상기 추정된 위치에 대한 정보는 상기 부가 정보에 포함되는 것을 특징으로 하는, 자율주행 센터의 제어 방법.
According to claim 21,
A method of controlling an autonomous driving center further comprising estimating the current location of the autonomous vehicle based on the generated trajectory, wherein information about the estimated location is included in the additional information.
제 22 항에 있어서,
상기 추정된 현재 위치로부터 위도 및 경도에 기초하여 제 1 웨이 포인트(way point)를 복수 개 출력하는 단계를 더 포함하되, 상기 출력된 제 1 웨이 포인트에 대한 정보는 상기 부가 정보에 포함되는 것을 특징으로 하는, 자율주행 센터의 제어 방법.
According to claim 22,
Further comprising outputting a plurality of first way points based on latitude and longitude from the estimated current location, wherein information about the output first way points is included in the additional information. A control method for an autonomous driving center.
제 23 항에 있어서,
상기 추정된 현재 위치를 원점으로 놓고, 원점 좌표계 및 방위각과의 거리를 기준으로 제 2 웨이 포인트를 복수 개 출력하는 단계를 포함하되, 상기 출력된 제 2 웨이 포인트에 대한 정보는 상기 부가 정보에 포함되는 것을 특징으로 하는, 자율주행 센터의 제어 방법.
According to claim 23,
Setting the estimated current position as the origin and outputting a plurality of second waypoints based on the distance from the origin coordinate system and the azimuth, wherein information about the output second waypoints is included in the additional information. A control method for an autonomous driving center, characterized in that:
제 18 항에 있어서,
상기 부가 정보 및 상기 제어 신호를 개별적으로 메시지화 및 패킷타이징(packetizing)하는 단계를 더 포함하는 것을 특징으로 하는, 자율주행 센터의 제어 방법.
According to claim 18,
A control method for an autonomous driving center, further comprising the step of individually messaging and packetizing the additional information and the control signal.
제 18 항에 있어서,
상기 제어 신호는 상기 운전 장치의 핸들 조향 각도, 브레이크 압력, 전진 신호 및 후진 신호 중 적어도 하나를 포함하는 것을 특징으로 하는, 자율주행 센터의 제어 방법.
According to claim 18,
The control signal is characterized in that it includes at least one of a steering angle of the driving device, a brake pressure, a forward signal, and a reverse signal.
KR1020220061951A 2022-05-20 2022-05-20 Tele-operated vehicle, controlling method of tele-operated vehicle, tele-operated center and controlling method of tele-operated center KR20230162865A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020220061951A KR20230162865A (en) 2022-05-20 2022-05-20 Tele-operated vehicle, controlling method of tele-operated vehicle, tele-operated center and controlling method of tele-operated center
PCT/KR2023/006864 WO2023224432A1 (en) 2022-05-20 2023-05-19 Method for verifying control signal validity of autonomous vehicle in remote control driving state and device and system therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220061951A KR20230162865A (en) 2022-05-20 2022-05-20 Tele-operated vehicle, controlling method of tele-operated vehicle, tele-operated center and controlling method of tele-operated center

Publications (1)

Publication Number Publication Date
KR20230162865A true KR20230162865A (en) 2023-11-29

Family

ID=88969424

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220061951A KR20230162865A (en) 2022-05-20 2022-05-20 Tele-operated vehicle, controlling method of tele-operated vehicle, tele-operated center and controlling method of tele-operated center

Country Status (1)

Country Link
KR (1) KR20230162865A (en)

Similar Documents

Publication Publication Date Title
CN110268413B (en) Low level sensor fusion
US10755498B2 (en) Drive recorder
US11807227B2 (en) Methods and apparatus to generate vehicle warnings
US20180190046A1 (en) Calibration for autonomous vehicle operation
US9870003B2 (en) Driverless vehicle
US11592570B2 (en) Automated labeling system for autonomous driving vehicle lidar data
JP7209592B2 (en) Intelligent driving vehicle data transmission method, apparatus and device
US20190064813A1 (en) Systems and Methods of Controlling an Autonomous Vehicle Using an Enhanced Trajectory Following Configuration
CN107571866B (en) Method for analyzing sensor data
US10996680B2 (en) Environmental perception in autonomous driving using captured audio
KR102659059B1 (en) In-vehicle avatar processing apparatus and method of controlling the same
WO2021041196A1 (en) Audio data augmentation for machine learning object classification
JP2022515154A (en) Adaptive multi-network vehicle architecture
US20220068052A1 (en) Simulation of autonomous vehicle to improve safety and reliability of autonomous vehicle
US20220289198A1 (en) Automated emergency braking system
CN112540555A (en) Method for remotely controlling a motor vehicle
KR20230162865A (en) Tele-operated vehicle, controlling method of tele-operated vehicle, tele-operated center and controlling method of tele-operated center
US11563905B2 (en) Information processing device, information processing method, and program
JP5473628B2 (en) Convoy travel system, convoy travel method, trailing manned vehicle controller, steering control method, program, and recording medium
KR102570065B1 (en) Controller area network messages in an autonomous vehicle
US20230049721A1 (en) Method for predicting the behaviour of a target vehicle
WO2020158489A1 (en) Visible light communication device, visible light communication method, and visible light communication program
KR102658603B1 (en) Tele-operated vehicle, controlling method of tele-operated vehicle and tele-operated driving system
WO2020261714A1 (en) Method for obtaining and transmitting obstacle detection enhancement data
JP2024060467A (en) Remote operation control method, remote operation system, and mobile object

Legal Events

Date Code Title Description
E902 Notification of reason for refusal