KR102469413B1 - Control system and method for autonomous driving of refractory bus vehicle - Google Patents

Control system and method for autonomous driving of refractory bus vehicle Download PDF

Info

Publication number
KR102469413B1
KR102469413B1 KR1020210022345A KR20210022345A KR102469413B1 KR 102469413 B1 KR102469413 B1 KR 102469413B1 KR 1020210022345 A KR1020210022345 A KR 1020210022345A KR 20210022345 A KR20210022345 A KR 20210022345A KR 102469413 B1 KR102469413 B1 KR 102469413B1
Authority
KR
South Korea
Prior art keywords
vehicle
information
processing unit
sensors
cognitive sensors
Prior art date
Application number
KR1020210022345A
Other languages
Korean (ko)
Other versions
KR20220119538A (en
Inventor
윤혁진
박찬호
김대현
조봉관
Original Assignee
한국철도기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국철도기술연구원 filed Critical 한국철도기술연구원
Priority to KR1020210022345A priority Critical patent/KR102469413B1/en
Publication of KR20220119538A publication Critical patent/KR20220119538A/en
Application granted granted Critical
Publication of KR102469413B1 publication Critical patent/KR102469413B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • B60W2420/42
    • B60W2420/52
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2200/00Type of vehicle
    • B60Y2200/40Special vehicles
    • B60Y2200/41Construction vehicles, e.g. graders, excavators
    • B60Y2200/417Articulated frame vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/30Sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)

Abstract

2개의 차량을 굴절마디로 연결한 자율주행차량에 있어서, 상기 2개의 차량 중 제 1 차량은, 상기 제 1 차량의 위치정보를 획득하는 제 1 GPS; 상기 자율주행차량 주변의 정보를 수집하는 복수의 제 1 인지센서; 상기 복수의 제 1 인지센서가 획득한 정보를 수집 및 처리함으로써, 상기 자율주행차량 주변의 객체의 종류 및 위치 중 적어도 하나를 포함하는 제 1 정보를 생성하는 제 1 처리부; 및 상기 제 1 처리부로부터 상기 제 1 정보를 전달받고, 상기 제 1 GPS로부터 상기 제 1 차량의 위치정보를 전달받는 자율주행 제어부;를 포함하고, 상기 2개의 차량 중 제 2 차량은, 상기 제 2 차량의 위치정보를 획득하는 제 2 GPS; 상기 자율주행차량 주변의 정보를 수집하는 복수의 제 2 인지센서; 및 상기 복수의 제 2 인지센서가 획득한 정보를 수집 및 처리함으로써, 상기 자율주행차량 주변의 객체의 종류 및 위치 중 적어도 하나를 포함하는 제 2 정보를 생성하는 제 2 처리부;를 포함하며, 상기 자율주행 제어부는, 상기 제 2 처리부로부터 상기 제 2 정보를 전달받고, 상기 제 2 GPS로부터 상기 제 2 차량의 위치정보를 전달받으며, 상기 제 1 차량의 위치정보와 상기 제 2 차량의 위치정보를 기초로, 상기 제 1 정보와 상기 제 2 정보의 시간을 동기화하고, 상기 동기화된 제 1 정보와 제 2 정보를 함께 이용하여 상기 자율주행차량의 운행을 제어할 수 있다.In an autonomous vehicle in which two vehicles are connected by an articulation joint, a first vehicle among the two vehicles includes: a first GPS that obtains location information of the first vehicle; a plurality of first recognition sensors for collecting information around the self-driving vehicle; a first processing unit generating first information including at least one of types and locations of objects around the self-driving vehicle by collecting and processing information acquired by the plurality of first cognitive sensors; and an autonomous driving control unit that receives the first information from the first processing unit and the location information of the first vehicle from the first GPS, wherein a second vehicle of the two vehicles includes the second vehicle. a second GPS that acquires vehicle location information; a plurality of second cognitive sensors that collect information around the self-driving vehicle; and a second processing unit configured to generate second information including at least one of a type and a location of an object around the self-driving vehicle by collecting and processing information obtained by the plurality of second cognitive sensors. The autonomous driving control unit receives the second information from the second processing unit, receives the location information of the second vehicle from the second GPS, and transmits the location information of the first vehicle and the location information of the second vehicle. Based on this, the time of the first information and the second information may be synchronized, and operation of the autonomous vehicle may be controlled by using the synchronized first information and second information together.

Description

굴절버스 차량의 자율주행을 위한 제어 시스템 및 방법 {Control system and method for autonomous driving of refractory bus vehicle}Control system and method for autonomous driving of refractory bus vehicle {Control system and method for autonomous driving of refractory bus vehicle}

본 발명은 굴절버스 차량의 자율주행을 위한 제어 시스템 및 방법 에 관한 것으로, 전량과 후량에 인지센서 처리 시스템을 별도로 구성하고, 객체의 종류, 위치정보를 추출하며, 전량과 후량의 GPS 신호를 각각 이용하여 두 시스템의 시간 동기화함으로써, 자율주행차량을 제어하는 시스템 및 방법에 관한 것이다.The present invention relates to a control system and method for autonomous driving of an articulated bus vehicle, which separately configures a recognition sensor processing system for the first and second, extracts the type and location information of an object, and generates GPS signals for the first and second, respectively. It relates to a system and method for controlling an autonomous vehicle by synchronizing the time of two systems using the same.

대중교통 자율주행 차량은 미리 정해진 경로에 따라 안정적으로 운행되어야 하고, 정차장에서 승객이 안전하게 탈수 있도록 정해진 구간에 정차를 할 수 있는 기술을 제공하여야 한다. Public transportation self-driving vehicles must be stably operated according to a pre-determined route, and technology to stop at a designated section must be provided so that passengers can safely ride at the stop.

특히, 굴절차량은 2량 1편성으로 최대 100인승인데, 2량을 연결한 차량으로 길이가 길어서 자율주행을 위한 인지 센서의 개수도 그만큼 증가하는 문제가 있다.In particular, the articulated vehicle has a maximum capacity of 100 people in a two-car, one-car formation, and since it is a two-car connected vehicle and is long, there is a problem in that the number of cognitive sensors for autonomous driving increases accordingly.

또한, 굴절버스 차량의 경우, 인지센서에서 획득한 정보를 한꺼번에 처리하기에는 시스템 처리 용량에 무리가 따르는 문제가 있다.In addition, in the case of an articulated bus vehicle, there is a problem in that the processing capacity of the system is excessive to process the information obtained from the recognition sensor at once.

따라서 이러한 문제점을 해소할 수 있는 시스템 및 방법에 대한 니즈가 높아지고 있다.Therefore, the need for a system and method capable of solving these problems is increasing.

대한민국 특허청 등록번호 10-0873472 호Korean Intellectual Property Office Registration No. 10-0873472 대한민국 특허청 등록번호 10-1017604 호Korean Intellectual Property Office Registration No. 10-1017604

본 발명은 굴절버스 차량의 자율주행을 위한 제어 시스템 및 방법 에 관한 것으로, 전량과 후량에 인지센서 처리 시스템을 별도로 구성하고, 객체의 종류, 위치정보를 추출하며, 전량과 후량의 GPS 신호를 각각 이용하여 두 시스템의 시간 동기화함으로써, 자율주행차량을 제어하는 시스템 및 방법을 사용자에게 제공하고자 한다.The present invention relates to a control system and method for autonomous driving of an articulated bus vehicle, which separately configures a recognition sensor processing system for the first and second, extracts the type and location information of an object, and generates GPS signals for the first and second, respectively. It is intended to provide users with a system and method for controlling an autonomous vehicle by synchronizing the time of the two systems using the present invention.

구체적으로 본 발명은 자율주행 제어부가 제 1 차량의 위치정보와 제 2 차량의 위치정보를 기초로, 제 1 차량이 획득한 제 1 정보와 제 2 차량이 획득한 제 2 정보의 시간을 동기화하고, 동기화된 제 1 정보와 제 2 정보를 함께 이용하여 자율주행차량의 운행을 제어하는 것을 특징으로 하는 자율주행차량, 시스템 및 방법을 사용자에게 제공하고자 한다.Specifically, the present invention provides an autonomous driving control unit to synchronize the time of first information acquired by the first vehicle and second information obtained by the second vehicle based on location information of the first vehicle and location information of the second vehicle, and To provide a user with an autonomous vehicle, system and method characterized by controlling the operation of the autonomous vehicle by using the synchronized first and second information together.

한편, 본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.On the other hand, the technical problems to be achieved in the present invention are not limited to the above-mentioned technical problems, and other technical problems that are not mentioned will become clear to those skilled in the art from the description below. You will be able to understand.

상기의 기술적 과제를 달성하기 위한 본 발명의 일 양상인 2개의 차량을 굴절마디로 연결해 곡선도로에서도 휘어지면서 달릴 수 있도록 만든 자율주행차량에 있어서, 상기 2개의 차량 중 제 1 차량은, 상기 제 1 차량의 위치정보를 획득하는 제 1 GPS; 상기 자율주행차량 주변의 정보를 수집하는 복수의 제 1 인지센서; 상기 복수의 제 1 인지센서가 획득한 정보를 수집 및 처리함으로써, 상기 자율주행차량 주변의 객체의 종류 및 위치 중 적어도 하나를 포함하는 제 1 정보를 생성하는 제 1 처리부; 및 상기 제 1 처리부로부터 상기 제 1 정보를 전달받고, 상기 제 1 GPS로부터 상기 제 1 차량의 위치정보를 전달받는 자율주행 제어부;를 포함하고, 상기 2개의 차량 중 제 2 차량은, 상기 제 2 차량의 위치정보를 획득하는 제 2 GPS; 상기 자율주행차량 주변의 정보를 수집하는 복수의 제 2 인지센서; 및 상기 복수의 제 2 인지센서가 획득한 정보를 수집 및 처리함으로써, 상기 자율주행차량 주변의 객체의 종류 및 위치 중 적어도 하나를 포함하는 제 2 정보를 생성하는 제 2 처리부;를 포함하며, 상기 자율주행 제어부는, 상기 제 2 처리부로부터 상기 제 2 정보를 전달받고, 상기 제 2 GPS로부터 상기 제 2 차량의 위치정보를 전달받으며, 상기 제 1 차량의 위치정보와 상기 제 2 차량의 위치정보를 기초로, 상기 제 1 정보와 상기 제 2 정보의 시간을 동기화하고, 상기 동기화된 제 1 정보와 제 2 정보를 함께 이용하여 상기 자율주행차량의 운행을 제어할 수 있다.In an autonomous vehicle made to run while bending on a curved road by connecting two vehicles with an articulation joint, which is an aspect of the present invention for achieving the above technical problem, a first vehicle of the two vehicles is A first GPS that acquires vehicle location information; a plurality of first recognition sensors for collecting information around the self-driving vehicle; a first processing unit generating first information including at least one of types and locations of objects around the self-driving vehicle by collecting and processing information acquired by the plurality of first cognitive sensors; and an autonomous driving control unit that receives the first information from the first processing unit and the location information of the first vehicle from the first GPS, wherein a second vehicle of the two vehicles includes the second vehicle. a second GPS that acquires vehicle location information; a plurality of second cognitive sensors that collect information around the self-driving vehicle; and a second processing unit configured to generate second information including at least one of a type and a location of an object around the self-driving vehicle by collecting and processing information obtained by the plurality of second cognitive sensors. The autonomous driving control unit receives the second information from the second processing unit, receives the location information of the second vehicle from the second GPS, and transmits the location information of the first vehicle and the location information of the second vehicle. Based on this, the time of the first information and the second information may be synchronized, and operation of the autonomous vehicle may be controlled by using the synchronized first information and second information together.

또한, 상기 복수의 제 1 인지센서 및 상기 복수의 제 2 인지센서는, 적어도 하나의 카메라, 적어도 하나의 라이다 및 적어도 하나의 레이더를 포함할 수 있다.In addition, the plurality of first cognitive sensors and the plurality of second cognitive sensors may include at least one camera, at least one LIDAR, and at least one radar.

또한, 상기 제 1 처리부와 상기 제 2 처리부는, 트리거링 신호를 발생시켜 상기 복수의 제 1 인지센서 및 상기 복수의 제 2 인지센서로 전달하고, 상기 복수의 제 1 인지센서 및 상기 복수의 제 2 인지센서는, 상기 트리거링 신호에 따라 상기 정보를 수집할 수 있다.In addition, the first processing unit and the second processing unit generate a triggering signal, transfer it to the plurality of first cognitive sensors and the plurality of second cognitive sensors, and generate a triggering signal, and transmit the triggering signal to the plurality of first cognitive sensors and the plurality of second cognitive sensors. The cognitive sensor may collect the information according to the triggering signal.

또한, 상기 트리거링 신호의 주기는, 상기 복수의 제 1 인지센서 및 상기 복수의 제 2 인지센서 중 가장 측정주기가 느린 제 1 센서를 기준으로 설정될 수 있다.In addition, the period of the triggering signal may be set based on the first sensor having the slowest measurement period among the plurality of first cognitive sensors and the plurality of second cognitive sensors.

또한, 상기 제 1 처리부 및 상기 제 2 처리부는, 상기 트리거링 신호의 주기에 따라 상기 복수의 제 1 인지센서 및 상기 복수의 제 2 인지센서에서 획득된 모든 정보가 수집되는지 여부를 판단하고, 상기 모든 정보가 수집되지 않는 경우, 상기 트리거링 신호의 주기를 재설정할 수 있다.In addition, the first processing unit and the second processing unit determine whether all information acquired from the plurality of first cognitive sensors and the plurality of second cognitive sensors is collected according to the cycle of the triggering signal, and all of the When information is not collected, the period of the triggering signal may be reset.

한편, 상기의 기술적 과제를 달성하기 위한 본 발명의 다른 양상인 2개의 차량을 굴절마디로 연결해 곡선도로에서도 휘어지면서 달릴 수 있도록 만든 자율주행차량의 제어방법에 있어서, 상기 2개의 차량 중 제 1 차량의 제 1 GPS가 상기 제 1 차량의 위치정보를 획득하고, 제 2 차량의 제 2 GPS가 상기 제 2 차량의 위치정보를 획득하는 제 1 단계; 상기 제 1 차량의 복수의 제 1 인지센서가 상기 자율주행차량 주변의 정보를 수집하고, 상기 제 2차량의 복수의 인지센서가 상기 자율주행차량 주변의 정보를 수집하는 제 2 단계; 상기 제 1 차량의 제 1 처리부가 상기 복수의 제 1 인지센서가 획득한 정보를 수집 및 처리함으로써, 상기 자율주행차량 주변의 객체의 종류 및 위치 중 적어도 하나를 포함하는 제 1 정보를 생성하고, 상기 제 2 차량의 제 2 처리부가 상기 복수의 제 2 인지센서가 획득한 정보를 수집 및 처리함으로써, 상기 자율주행차량 주변의 객체의 종류 및 위치 중 적어도 하나를 포함하는 제 2 정보를 생성하는 제 3 단계; 상기 제 1 차량의 자율주행 제어부가, 상기 제 1 처리부로부터 상기 제 1 정보를 전달받고, 상기 제 1 GPS로부터 상기 제 1 차량의 위치정보를 전달받으며, 상기 제 2 처리부로부터 상기 제 2 정보를 전달받고, 상기 제 2 GPS로부터 상기 제 2 차량의 위치정보를 전달받는 제 4 단계; 및 상기 자율주행 제어부가, 상기 제 1 차량의 위치정보와 상기 제 2 차량의 위치정보를 기초로, 상기 제 1 정보와 상기 제 2 정보의 시간을 동기화하고, 상기 동기화된 제 1 정보와 제 2 정보를 함께 이용하여 상기 자율주행차량의 운행을 제어하는 제 5 단계;를 포함할 수 있다.On the other hand, in the control method of an autonomous vehicle, which is another aspect of the present invention for achieving the above technical problem, in which two vehicles are connected by an articulated joint so that they can run while bending on a curved road, the first vehicle of the two vehicles A first step of obtaining location information of the first vehicle by a first GPS of the second vehicle and obtaining location information of the second vehicle by a second GPS of a second vehicle; a second step of collecting information around the self-driving vehicle by a plurality of first cognitive sensors of the first vehicle and collecting information about the autonomous vehicle by a plurality of cognitive sensors of the second vehicle; A first processing unit of the first vehicle generates first information including at least one of a type and a location of an object around the autonomous vehicle by collecting and processing information acquired by the plurality of first cognitive sensors; A second processing unit of the second vehicle collects and processes information obtained by the plurality of second cognitive sensors to generate second information including at least one of a type and a location of an object around the self-driving vehicle. Step 3; The autonomous driving control unit of the first vehicle receives the first information from the first processing unit, receives location information of the first vehicle from the first GPS, and transmits the second information from the second processing unit. a fourth step of receiving and receiving location information of the second vehicle from the second GPS; and the autonomous driving control unit synchronizes the time of the first information and the second information based on the location information of the first vehicle and the location information of the second vehicle, and the synchronized first information and the second information. A fifth step of controlling the operation of the self-driving vehicle by using information together; may include.

또한, 상기 복수의 제 1 인지센서 및 상기 복수의 제 2 인지센서는, 적어도 하나의 카메라, 적어도 하나의 라이다 및 적어도 하나의 레이더를 포함하고, 상기 제 1 단계와 상기 제 2 단계 사이에, 상기 제 1 처리부와 상기 제 2 처리부가 트리거링 신호를 발생시켜 상기 복수의 제 1 인지센서 및 상기 복수의 제 2 인지센서로 전달하는 제 1.5 단계;를 더 포함하고, 상기 제 2 단계에서, 상기 복수의 제 1 인지센서 및 상기 복수의 제 2 인지센서는, 상기 트리거링 신호에 따라 상기 정보를 수집할 수 있다.In addition, the plurality of first cognitive sensors and the plurality of second cognitive sensors include at least one camera, at least one lidar, and at least one radar, and between the first step and the second step, A 1.5 step of generating a triggering signal by the first processing unit and the second processing unit and transmitting the triggering signal to the plurality of first cognitive sensors and the plurality of second cognitive sensors, and in the second step, the plurality of The first cognitive sensor and the plurality of second cognitive sensors of may collect the information according to the triggering signal.

또한, 상기 트리거링 신호의 주기는, 상기 복수의 제 1 인지센서 및 상기 복수의 제 2 인지센서 중 가장 측정주기가 느린 제 1 센서를 기준으로 설정될 수 있다.In addition, the period of the triggering signal may be set based on the first sensor having the slowest measurement period among the plurality of first cognitive sensors and the plurality of second cognitive sensors.

또한, 상기 제 5 단계 이후에는, 상기 제 1 처리부 및 상기 제 2 처리부가, 상기 트리거링 신호의 주기에 따라 상기 복수의 제 1 인지센서 및 상기 복수의 제 2 인지센서에서 획득된 모든 정보가 수집되는지 여부를 판단하는 제 6 단계; 및 상기 모든 정보가 수집되지 않는 경우, 상기 제 1 처리부 및 상기 제 2 처리부가, 상기 트리거링 신호의 주기를 재설정하는 제 7 단계;를 더 포함할 수 있다.In addition, after the fifth step, whether the first processing unit and the second processing unit collect all information obtained from the plurality of first cognitive sensors and the plurality of second cognitive sensors according to the cycle of the triggering signal. A sixth step of determining whether or not; and a seventh step of resetting the period of the triggering signal by the first processing unit and the second processing unit when all of the information is not collected.

본 발명은 굴절버스 차량의 자율주행을 위한 제어 시스템 및 방법 에 관한 것으로, 전량과 후량에 인지센서 처리 시스템을 별도로 구성하고, 객체의 종류, 위치정보를 추출하며, 전량과 후량의 GPS 신호를 각각 이용하여 두 시스템의 시간 동기화함으로써, 자율주행차량을 제어하는 시스템 및 방법을 사용자에게 제공할 수 있다.The present invention relates to a control system and method for autonomous driving of an articulated bus vehicle, which separately configures a recognition sensor processing system for the first and second, extracts the type and location information of an object, and generates GPS signals for the first and second, respectively. By using the time synchronization of the two systems, it is possible to provide a system and method for controlling an autonomous vehicle to the user.

구체적으로 본 발명은 자율주행 제어부가 제 1 차량의 위치정보와 제 2 차량의 위치정보를 기초로, 제 1 차량이 획득한 제 1 정보와 제 2 차량이 획득한 제 2 정보의 시간을 동기화하고, 동기화된 제 1 정보와 제 2 정보를 함께 이용하여 자율주행차량의 운행을 제어하는 것을 특징으로 하는 자율주행차량, 시스템 및 방법을 사용자에게 제공할 수 있다.Specifically, the present invention provides an autonomous driving control unit to synchronize the time of first information acquired by the first vehicle and second information obtained by the second vehicle based on location information of the first vehicle and location information of the second vehicle, and , It is possible to provide a self-driving vehicle, a system and a method characterized in that the operation of the autonomous vehicle is controlled by using the synchronized first and second information together to the user.

다만, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the effects obtainable in the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below. You will be able to.

도 1은 본 발명에 따른 자율주행차량에 대한 블록구성도의 일례를 도시한 것이다.
도 2는 본 발명과 관련하여, 굴절버스의 각 구성요소와 관련된 구체적 블록구성도의 일례를 도시한 것이다.
도 3은 본 발명과 관련하여, 트리거링 신호를 기초로 정보를 수집하는 일례를 도시한 것이다.
도 4는 본 발명과 관련하여, 굴절버스 차량의 자율주행을 위한 제어 방법을 설명하는 순서도이다.
1 shows an example of a block configuration diagram for an autonomous vehicle according to the present invention.
2 shows an example of a specific block diagram related to each component of the articulated bus in relation to the present invention.
3 illustrates an example of collecting information based on a triggering signal in relation to the present invention.
4 is a flowchart illustrating a control method for autonomous driving of an articulated bus vehicle in relation to the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 의도는 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해될 수 있다.Since the present invention can make various changes and have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. This is not intended to limit the present invention to specific embodiments, and it can be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention.

본 발명을 설명함에 있어서 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지 않을 수 있다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.In describing the present invention, terms such as first and second may be used to describe various components, but the components may not be limited by the terms. These terms are only for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention.

어떤 구성요소가 다른 구성요소에 연결되어 있다거나 접속되어 있다고 언급되는 경우는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해될 수 있다. 반면에, 어떤 구성요소가 다른 구성요소에 직접 연결되어 있다거나 직접 접속되어 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해될 수 있다.When a component is referred to as being connected or connected to another component, it may be directly connected or connected to the other component, but it may be understood that another component may exist in the middle. . On the other hand, when it is mentioned that a certain element is directly connected to another element or directly connected to another element, it can be understood that no other element exists in the middle.

본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다.Terms used in this specification are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions may include plural expressions unless the context clearly dictates otherwise.

본 명세서에서, 포함하다 또는 구비하다 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것으로서, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해될 수 있다.In this specification, the terms include or include are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features or numbers, It can be understood that the presence or addition of steps, operations, components, parts, or combinations thereof is not precluded.

또한, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 본 명세서에서 사용되는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석될 수 있으며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않을 수 있다.In addition, unless defined otherwise, all terms used in this specification, including technical or scientific terms, may have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. . Terms such as those defined in commonly used dictionaries may be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in this specification, interpreted in an ideal or excessively formal meaning. It may not be.

자율주행차량은 운전자가 핸들과 가속페달, 브레이크 등을 조작하지 않아도 정밀한 지도, 위성항법시스템(GPS) 등 차량의 각종 센서로 상황을 파악해 스스로 목적지까지 찾아가는 차량을 말한다. An autonomous vehicle refers to a vehicle that navigates to its destination by itself by identifying the situation with various sensors such as precise maps and global positioning systems (GPS), without the driver manipulating the steering wheel, accelerator pedal, or brake.

자율주행 시장은 2020년부터 본격적인 성장세에 진입할 것으로 전망되고 있다. The self-driving market is expected to enter a full-fledged growth phase from 2020.

시장조사업체 네비건트리서치에 따르면 세계 자율주행차 시장은 2020년 전체 자동차 시장의 2%인 2000억달러를 차지한 뒤 2035년까지 1조2000억달러에 달할 것으로 추정된다.According to market research firm Navigant Research, the global self-driving car market is estimated to reach $1.2 trillion by 2035 after accounting for $200 billion, or 2% of the total car market, in 2020.

자율주행 자동차가 실현되기 위해선 여러 가지의 기술이 필요할 수 있는데, 차간 거리를 자동으로 유지해 주는 HDA 기술, 차선이탈 경보 시스템(LDWS), 차선유지 지원 시스템(LKAS), 후측방 경보 시스템(BSD), 어드밴스트 스마트 크루즈 컨트롤(ASCC), 자동 긴급제동 시스템(AEB) 등이 필요하다.Several technologies may be required to realize self-driving cars, such as HDA technology that automatically maintains the distance between vehicles, Lane Departure Warning System (LDWS), Lane Keeping Assist System (LKAS), Blind Spot Warning System (BSD), Advanced Smart Cruise Control (ASCC) and Automatic Emergency Braking (AEB) are required.

여기서 자율주행 차량은 미리 정해진 경로에 따라 안정적으로 운행되어야 하고, 특정 이벤트 발생시에도 해당 이벤트에 대응하는 바이패스 운행을 통해 안정적 서비스 기술을 제공하여야 한다.Here, the self-driving vehicle must be stably operated according to a predetermined route, and even when a specific event occurs, stable service technology must be provided through bypass operation corresponding to the event.

특히, 굴절차량은 2량 1편성으로 최대 100인승인데, 2량을 연결한 차량으로 길이가 길어서 자율주행을 위한 인지 센서의 개수도 그만큼 증가하는 문제가 있다.In particular, the articulated vehicle has a maximum capacity of 100 people in a two-car, one-car formation, and since it is a two-car connected vehicle and is long, there is a problem in that the number of cognitive sensors for autonomous driving increases accordingly.

또한, 굴절버스 차량의 경우, 인지센서에서 획득한 정보를 한꺼번에 처리하기에는 시스템 처리 용량에 무리가 따르는 문제가 있다.In addition, in the case of an articulated bus vehicle, there is a problem in that the processing capacity of the system is excessive to process the information obtained from the recognition sensor at once.

따라서 본 발명은 굴절버스 차량의 자율주행을 위한 제어 시스템 및 방법 에 관한 것으로, 전량과 후량에 인지센서 처리 시스템을 별도로 구성하고, 객체의 종류, 위치정보를 추출하며, 전량과 후량의 GPS 신호를 각각 이용하여 두 시스템의 시간 동기화함으로써, 자율주행차량을 제어하는 시스템 및 방법을 사용자에게 제공하고자 한다.Therefore, the present invention relates to a control system and method for autonomous driving of an articulated bus vehicle, which separately configures a recognition sensor processing system for the first and second time, extracts the type and location information of an object, and generates GPS signals for the first and second time It is intended to provide a system and method for controlling an autonomous vehicle to a user by synchronizing the time of the two systems using each.

구체적으로 본 발명은 자율주행 제어부가 제 1 차량의 위치정보와 제 2 차량의 위치정보를 기초로, 제 1 차량이 획득한 제 1 정보와 제 2 차량이 획득한 제 2 정보의 시간을 동기화하고, 동기화된 제 1 정보와 제 2 정보를 함께 이용하여 자율주행차량의 운행을 제어하는 것을 특징으로 하는 자율주행차량, 시스템 및 방법을 사용자에게 제공하고자 한다.Specifically, the present invention provides an autonomous driving control unit to synchronize the time of first information acquired by the first vehicle and second information obtained by the second vehicle based on location information of the first vehicle and location information of the second vehicle, and To provide a user with an autonomous vehicle, system and method characterized by controlling the operation of the autonomous vehicle by using the synchronized first and second information together.

본 발명의 구체적인 설명에 앞서, 본 발명에 적용되는 자율주행차량에 대해 구체적으로 설명한다.Prior to a detailed description of the present invention, an autonomous vehicle applied to the present invention will be described in detail.

도 1은 본 발명에 따른 자율주행차량에 대한 블록구성도의 일례를 도시한 것이다.1 shows an example of a block configuration diagram for an autonomous vehicle according to the present invention.

도 1을 참조하면, 자율주행차량(100)는 무선 통신부(110), 구동부(120), 제동부(130), 센싱부(140), 출력부(150), 메모리(160), 제어부(180), 전원공급부(190) 등을 포함할 수 있다. Referring to FIG. 1 , an autonomous vehicle 100 includes a wireless communication unit 110, a driving unit 120, a braking unit 130, a sensing unit 140, an output unit 150, a memory 160, and a control unit 180. ), a power supply unit 190, and the like.

단, 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 자율주행차량(100)이 구현될 수도 있다.However, since the components shown in FIG. 1 are not essential, an autonomous vehicle 100 having more or fewer components may be implemented.

이하, 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the above components are examined in turn.

무선 통신부(110)는 자율주행차량(100)과 무선 통신 시스템 사이 또는 기기와 기기가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. The wireless communication unit 110 may include one or more modules enabling wireless communication between the autonomous vehicle 100 and a wireless communication system or between a device and a network in which the device is located.

무선 통신부(110)는 근거리 통신 또는 원거리 통신을 통해 외부의 기기와 통신을 수행할 수 있다.The wireless communication unit 110 may perform communication with an external device through short-range communication or long-distance communication.

여기서 근거리 통신은, ANT, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(UltraWideband), ZigBee 기술을 포함할 수 있다.Here, the short-range communication may include ANT, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), UltraWideband (UWB), and ZigBee technologies.

또한, 원거리 통신은 CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SC-FDMA(single carrier frequency division multiple access)을 포함할 수 있다.In addition, long-distance communication includes code division multiple access (CDMA), frequency division multiple access (FDMA), time division multiple access (TDMA), orthogonal frequency division multiple access (OFDMA), and single carrier frequency division multiple access (SC-FDMA). can include

또한, 도 1을 참조하면, 구동부(120)는 자율주행차량(100) 즉, 이동체를 구동시키는 기능을 제공한다.Also, referring to FIG. 1 , the driving unit 120 provides a function of driving the autonomous vehicle 100 , that is, the mobile body.

즉, 모터, 인버터 등의 구성들을 기초로 자율주행차량(100)을 이동시키는 원동력을 제공할 수 있다.That is, a driving force for moving the self-driving vehicle 100 may be provided based on configurations such as a motor and an inverter.

또한, 도 1을 참조하면, 제동부(130)는 자율주행차량(100)의 이동을 중지시키는 브레이킹 기능을 제공하는 구성이다.Also, referring to FIG. 1 , the braking unit 130 is a component that provides a braking function to stop the movement of the autonomous vehicle 100 .

제동부(130)는, 운전자의 조작력이나 보조동력 따위를 이용해 제동에 필요한 힘을 발생시키는 제동력 발생장치, 제동력 발생장치에서 발생한 힘을 이용해 차량의 속도를 줄이거나, 차량을 직접 정지시키는 제동장치, 제동력 발생장치에서 발생한 힘을 제동장치에 전달하는 부수장치 등으로 구성될 수 있다.The braking unit 130 includes a braking force generating device that generates a force necessary for braking using a driver's operating force or auxiliary power, a braking device that reduces the speed of a vehicle using the force generated by the braking force generating device, or directly stops the vehicle, It may be composed of an auxiliary device that transmits the force generated by the braking force generating device to the braking device.

제동력 발생장치에는 진공, 유압, 공기 브레이크 등 보조동력과 마스터 실린더, 부스터 등이 속하고, 제동장치에는 드럼, 디스크 브레이크 등이 속하며, 부수장치에는 진공펌프와 에어 컴프레셔 등이 속할 수 있다.Braking force generating devices include auxiliary power such as vacuum, hydraulic pressure, and air brakes, master cylinders, boosters, etc., brake devices include drum and disc brakes, and auxiliary devices include vacuum pumps and air compressors.

제동부(130)는 자동차의 주행 속도를 낮추거나 급정차하는 데 필요한 제동브레이크, 주차 또는 정차 상태를 유지하거나 비탈길에서 주정차한 자동차가 미끄러지지 않도록 하는 주차브레이크, 비탈길을 내려갈 때 속도를 제어하는 보조브레이크 따위로 분류된다. 또 마찰 방식에 따라 마찰식과 비마찰식으로 나뉠 수도 있다.The braking unit 130 includes a braking brake necessary for lowering the driving speed of a vehicle or making an emergency stop, a parking brake maintaining a parked or stopped state or preventing a vehicle parked on a slope from slipping, and an auxiliary brake controlling the speed when going down a slope. classified as In addition, according to the friction method, it may be divided into a friction type and a non-friction type.

전자에는 주차, 중앙, 휠, 상용, 유압, 공기 브레이크 등이, 후자에는 감속, 배기, 엔진, 전자식, 유체식 브레이크 등이 있다. The former includes parking, center, wheel, commercial, hydraulic, and air brakes, and the latter includes deceleration, exhaust, engine, electronic, and fluid brakes.

또한, 센싱부(140)는 자율주행차량(100)의 개폐 상태, 자율주행차량(100)의 위치, 자율주행차량(100)의 방위, 자율주행차량(100)의 가속/감속 등과 같이 자율주행차량(100)의 현 상태를 감지하여 자율주행차량(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. In addition, the sensing unit 140 performs autonomous driving such as the opening/closing state of the autonomous vehicle 100, the position of the autonomous vehicle 100, the orientation of the autonomous vehicle 100, and the acceleration/deceleration of the autonomous vehicle 100. A sensing signal for controlling the operation of the autonomous vehicle 100 is generated by detecting the current state of the vehicle 100 .

센싱부(140)는 전원 공급부(190)의 전원 공급 여부 을 센싱할 수도 있다. The sensing unit 140 may also sense whether or not the power supply unit 190 is supplying power.

본 발명에 따른 센싱부(140)는 근접 센서, 초음파 센서, 거리 센서 등을 더 포함할 수도 있다.The sensing unit 140 according to the present invention may further include a proximity sensor, an ultrasonic sensor, and a distance sensor.

출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(151), 음향 출력 모듈(152) 등이 포함될 수 있다.The output unit 150 is for generating an output related to sight, hearing, or touch, and may include a display unit 151, a sound output module 152, and the like.

디스플레이부(151)는 자율주행차량(100)에서 처리되는 정보를 표시(출력)한다. The display unit 151 displays (outputs) information processed by the autonomous vehicle 100 .

디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. The display unit 151 may include a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display. display) and a 3D display.

이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부(151)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 자율주행차량(100) 바디의 디스플레이부(151)가 차지하는 영역을 통해 자율주행차량(100) 바디의 후방에 위치한 사물을 볼 수 있다.Some of these displays may be of a transparent type or a light transmission type so that the outside can be seen through them. This may be referred to as a transparent display, and a representative example of the transparent display is TOLED (Transparent OLED) and the like. A rear structure of the display unit 151 may also be configured as a light transmissive structure. With this structure, a user can view an object located behind the body of the autonomous vehicle 100 through an area occupied by the display unit 151 of the body of the autonomous vehicle 100 .

자율주행차량(100)의 구현 형태에 따라 디스플레이부(151)이 2개 이상 존재할 수 있다. Depending on the implementation form of the autonomous vehicle 100, two or more display units 151 may exist.

디스플레이부(151)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.When the display unit 151 and a sensor for detecting a touch operation (hereinafter referred to as a 'touch sensor') form a mutual layer structure (hereinafter referred to as a 'touch screen'), the display unit 151 may be used in addition to an output device. It can also be used as an input device. The touch sensor may have a form of, for example, a touch film, a touch sheet, or a touch pad.

터치 센서는 디스플레이부(151)의 특정 부위에 가해진 압력 또는 디스플레이부(151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. The touch sensor may be configured to convert a pressure applied to a specific area of the display unit 151 or a change in capacitance generated in a specific area of the display unit 151 into an electrical input signal. The touch sensor may be configured to detect not only the touched position and area, but also the pressure upon touch.

터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.When there is a touch input to the touch sensor, the corresponding signal(s) are sent to the touch controller. The touch controller processes the signal(s) and then transmits corresponding data to the controller 180. Thus, the controller 180 can know which area of the display unit 151 has been touched.

상기 근접 센서(141)는 상기 터치스크린에 의해 감싸지는 자율주행차량(100)의 내부 영역 또는 상기 터치 스크린의 근처에 배치될 수 있다. 상기 근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다. The proximity sensor 141 may be disposed in an inner area of the autonomous vehicle 100 surrounded by the touch screen or near the touch screen. The proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object existing in the vicinity without mechanical contact by using the force of an electromagnetic field or infrared rays. Proximity sensors have a longer lifespan than contact sensors, and their utilization is also high.

상기 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.Examples of the proximity sensor include a transmissive photoelectric sensor, a direct reflection photoelectric sensor, a mirror reflection photoelectric sensor, a high frequency oscillation type proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, an infrared proximity sensor, and the like. When the touch screen is capacitive, the proximity of the pointer is detected by a change in electric field according to the proximity of the pointer. In this case, the touch screen (touch sensor) may be classified as a proximity sensor.

음향 출력 모듈(152)은 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력할 수 있다. The audio output module 152 may output audio data received from the wireless communication unit 110 or stored in the memory 160 in a recording mode, a voice recognition mode, a broadcast reception mode, or the like.

음향 출력 모듈(152)은 자율주행차량(100)에서 수행되는 기능과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력 모듈(152)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The sound output module 152 also outputs sound signals related to functions performed in the autonomous vehicle 100 . The sound output module 152 may include a receiver, a speaker, a buzzer, and the like.

메모리부(160)는 제어부(180)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입/출력되는 데이터들(예를 들어, 메시지, 오디오, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다. The memory unit 160 may store programs for processing and control by the control unit 180, and functions for temporarily storing input/output data (eg, messages, audio, still images, moving images, etc.) can also be performed.

메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 자율주행차량(100)은 인터넷(internet)상에서 상기 메모리(160)의 저장 기능을 The memory 160 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (eg SD or XD memory, etc.), RAM (Random Access Memory, RAM), SRAM (Static Random Access Memory), ROM (Read-Only Memory, ROM), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory), magnetic memory, magnetic It may include at least one type of storage medium among a disk and an optical disk. The self-driving vehicle 100 uses the storage function of the memory 160 on the Internet.

또한, 제어부(controller, 180)는 통상적으로 자율주행차량(100)의 전반적인 동작을 제어한다. In addition, the controller 180 controls the overall operation of the autonomous vehicle 100 in general.

전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가 받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit 190 receives external power and internal power under the control of the controller 180 and supplies power necessary for the operation of each component.

여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.Various embodiments described herein may be embodied in a recording medium readable by a computer or similar device using, for example, software, hardware, or a combination thereof.

하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시예들이 제어부(180) 자체로 구현될 수 있다.According to hardware implementation, the embodiments described herein include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), It may be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and electrical units for performing other functions. The described embodiments may be implemented by the controller 180 itself.

소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 메모리(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.According to software implementation, embodiments such as procedures and functions described in this specification may be implemented as separate software modules. Each of the software modules may perform one or more functions and operations described herein. The software code may be implemented as a software application written in any suitable programming language. The software code may be stored in the memory 160 and executed by the controller 180.

한편, 도 2는 본 발명과 관련하여, 굴절버스의 각 구성요소와 관련된 구체적 블록구성도의 일례를 도시한 것이다.Meanwhile, FIG. 2 shows an example of a specific block configuration diagram related to each component of the articulated bus in relation to the present invention.

도 2를 참조하면, 2개의 차량(100a, 100b)을 굴절마디로 연결해 곡선도로에서도 휘어지면서 달릴 수 있도록 만든 자율주행차량(1)이 도시된다.Referring to FIG. 2 , a self-driving vehicle 1 made by connecting two vehicles 100a and 100b with an articulated node so that they can run while bending on a curved road is shown.

2개의 차량(100a, 100b) 중 제 1 차량(100a)은, 제 1 차량(100a)의 위치정보를 획득하는 제 1 GPS(111a), 자율주행차량(100a) 주변의 정보를 수집하는 복수의 제 1 인지센서(141a, 142a, 143a), 복수의 제 1 인지센서가 획득한 정보를 수집 및 처리함으로써, 상기 자율주행차량 주변의 객체의 종류 및 위치 중 적어도 하나를 포함하는 제 1 정보를 생성하는 제 1 처리부(180a) 및 제 1 처리부(180a)로부터 상기 제 1 정보를 전달받고, 상기 제 1 GPS(111a)로부터 상기 제 1 차량의 위치정보를 전달받는 자율주행 제어부(200)를 포함할 수 있다.Among the two vehicles 100a and 100b, the first vehicle 100a includes a first GPS 111a for obtaining location information of the first vehicle 100a and a plurality of GPS devices for collecting information around the autonomous vehicle 100a. By collecting and processing the information acquired by the first cognitive sensors 141a, 142a, and 143a and a plurality of first cognitive sensors, first information including at least one of the types and locations of objects around the self-driving vehicle is generated. and an autonomous driving control unit 200 that receives the first information from the first processing unit 180a and receives the location information of the first vehicle from the first GPS unit 111a. can

또한, 2개의 차량(100a, 100b) 중 제 2 차량(100b)은, 제 2 차량(100b)의 위치정보를 획득하는 제 2 GPS(111b), 자율주행차량 주변의 정보를 수집하는 복수의 제 2 인지센서(141b, 142b, 143b), 복수의 제 2 인지센서가 획득한 정보를 수집 및 처리함으로써, 상기 자율주행차량 주변의 객체의 종류 및 위치 중 적어도 하나를 포함하는 제 2 정보를 생성하는 제 2 처리부(180b)를 포함할 수 있다.In addition, among the two vehicles 100a and 100b, the second vehicle 100b has a second GPS 111b for obtaining location information of the second vehicle 100b and a plurality of second vehicles for collecting information around the autonomous vehicle. 2 cognitive sensors 141b, 142b, and 143b, by collecting and processing information obtained by a plurality of second cognitive sensors, to generate second information including at least one of the type and location of objects around the self-driving vehicle A second processing unit 180b may be included.

또한, 제 1 차량(100a)의 자율주행 제어부(200)는, 제 2 처리부(180b)로부터 상기 제 2 정보를 전달받고, 제 2 GPS(111b)로부터 상기 제 2 차량의 위치정보를 전달받으며, 제 1 차량(100a)의 위치정보와 상기 제 2 차량(100b)의 위치정보를 기초로, 상기 제 1 정보와 상기 제 2 정보의 시간을 동기화하고, 동기화된 제 1 정보와 제 2 정보를 함께 이용하여 상기 자율주행차량(100)의 운행을 제어할 수 있다.In addition, the autonomous driving control unit 200 of the first vehicle 100a receives the second information from the second processing unit 180b and receives the location information of the second vehicle from the second GPS 111b, Based on the location information of the first vehicle 100a and the location information of the second vehicle 100b, the times of the first information and the second information are synchronized, and the synchronized first and second information are combined together. It is possible to control the operation of the self-driving vehicle 100 by using.

굴절차량은 2량 1편성으로 최대 100인승이고, 2량을 연결한 차량으로 길이가 길어서 자율주행을 위한 인지 센서의 개수도 그만큼 증가하며, 인지센서를 한꺼번에 처리하기에는 시스템 처리 용량에 무리가 있다는 문제점을 본 발명은 해결할 수 있다.The articulated vehicle has a maximum capacity of 100 people in a two-car, one-car formation, and is long as a two-car connected vehicle, so the number of cognitive sensors for autonomous driving increases accordingly, and the system processing capacity is unreasonable to process the cognitive sensors at once. The present invention can solve.

즉, 전량과 후량에 인치센서 처리 시스템을 별도로 구성하고, 이로부터 정보를 받아 판단 및 제어를 수행하고, 인지센서 처리 시스템에서는 센서정보를 가지고 객체의 종류, 위치정보를 추출하며, 전량과 후량의 GPS 신호를 각각 이용하여 두시스템의 시간 동기화를 통해 이를 해소할 수 있다.That is, the inch sensor processing system is separately configured for the former and the latter, receives information from it and performs judgment and control, and the cognitive sensor processing system extracts the type and location information of the object with sensor information, and This problem can be solved through time synchronization of the two systems using each GPS signal.

한편, 복수의 제 1 인지센서(141a, 142a, 143a) 및 복수의 제 2 인지센서(141b, 142b, 143b)는, 적어도 하나의 카메라, 적어도 하나의 라이다 및 적어도 하나의 레이더를 포함할 수 있다.Meanwhile, the plurality of first perception sensors 141a, 142a, and 143a and the plurality of second perception sensors 141b, 142b, and 143b may include at least one camera, at least one LIDAR, and at least one radar. have.

한편, 본 발명에 따르면, 트리거링 신호를 기초로 정보를 수집할 수 있다.Meanwhile, according to the present invention, information may be collected based on a triggering signal.

도 3의 (a)를 참조하면, 기존에는, 센서 별로 측정주기가 다르기 때문에, 신호처리 시점을 정하고 그 인근에서 가장 가까운 신호를 동일한 시점이라고 가정하고 처리한다는 문제점이 있었다.Referring to (a) of FIG. 3, conventionally, since the measurement period is different for each sensor, there is a problem in that a signal processing time point is determined and the signal closest to that point is assumed to be the same time point and processed.

따라서 도 3의 (b)에 도시된 것과 같이, 제 1 처리부(180a)와 상기 제 2 처리부(180b)는, 트리거링 신호를 발생시켜 상기 복수의 제 1 인지센서(141a, 142a, 143a) 및 복수의 제 2 인지센서(141b, 142b, 143b)로 전달하고, 복수의 제 1 인지센서(141a, 142a, 143a) 및 복수의 제 2 인지센서(141b, 142b, 143b)는, 상기 트리거링 신호에 따라 상기 정보를 수집함으로써, 이를 해결할 수 있다.Therefore, as shown in (b) of FIG. 3, the first processing unit 180a and the second processing unit 180b generate a triggering signal to detect the plurality of first cognitive sensors 141a, 142a, and 143a and the plurality of of the second recognition sensors (141b, 142b, 143b), the plurality of first recognition sensors (141a, 142a, 143a) and the plurality of second recognition sensors (141b, 142b, 143b) according to the triggering signal By collecting the above information, this can be solved.

제안된 방법을 통해, 인지센서 처리 시스템에서 트리거링 신호를 발생시켜 동일한 시간에 신호 취득되고, 버려지는 정보가 없고 인지 센서들간 정확한 동기화 시점 설정이 가능해진다.Through the proposed method, a triggering signal is generated in the cognitive sensor processing system, the signal is acquired at the same time, there is no discarded information, and accurate synchronization time points can be set between the cognitive sensors.

한편, 본 발명에 따르면, 트리거링 신호는 가장 측정주기가 느린 센서를 사용할 수 있다.Meanwhile, according to the present invention, the triggering signal may use a sensor having the slowest measurement period.

즉, 측정주기가 가장 느린 센서의 측정주기에 맞춰 트리거링 신호를 설정할 수 있다.That is, the triggering signal may be set according to the measurement period of the sensor having the slowest measurement period.

또한, 가장 느린 신호에 맞춰 설정하더라도, 인지센서 처리시스템에서 전체 신호를 처리하는지를 확인하고, 처리하지 못하는 경우에는 측정주기를 증가해가면서 최종 트리거일 신호 주기를 결정하도록 할 수 있다.In addition, even if it is set according to the slowest signal, it is possible to determine whether the cognitive sensor processing system processes the entire signal and, if not, to determine the signal period of the final trigger while increasing the measurement period.

한편, 도 4는 본 발명과 관련하여, 굴절버스 차량의 자율주행을 위한 제어 방법을 설명하는 순서도이다.Meanwhile, FIG. 4 is a flowchart illustrating a control method for autonomous driving of an articulated bus vehicle in relation to the present invention.

도 4를 참조하면, 2개의 차량을 굴절마디로 연결해 곡선도로에서도 휘어지면서 달릴 수 있도록 만든 자율주행차량의 제어방법은, 상기 2개의 차량 중 제 1 차량의 제 1 GPS가 상기 제 1 차량의 위치정보를 획득하고, 제 2 차량의 제 2 GPS가 상기 제 2 차량의 위치정보를 획득하는 단계와 제 1 차량의 복수의 제 1 인지센서가 상기 자율주행차량 주변의 정보를 수집하고, 상기 제 2차량의 복수의 인지센서가 상기 자율주행차량 주변의 정보를 수집하는 단계(S1, S2, S3)가 먼저 진행된다.Referring to FIG. 4, in a method for controlling an autonomous vehicle that connects two vehicles with an articulation joint so that they can run while bending on a curved road, a first GPS of a first vehicle among the two vehicles determines the location of the first vehicle. Obtaining information, a second GPS of a second vehicle acquiring location information of the second vehicle, and a plurality of first cognitive sensors of the first vehicle collecting information around the autonomous vehicle, and the second Steps (S1, S2, S3) of collecting information around the self-driving vehicle by a plurality of cognitive sensors of the vehicle are performed first.

이후, 트리거링 신호의 주기는, 복수의 제 1 인지센서 및 상기 복수의 제 2 인지센서 중 가장 측정주기가 느린 제 1 센서를 기준으로 설정되고(S4, S5), 제 1 처리부 및 상기 제 2 처리부가, 상기 트리거링 신호의 주기에 따라 상기 복수의 제 1 인지센서 및 상기 복수의 제 2 인지센서에서 획득된 모든 정보가 수집되는지 여부를 판단하여, 모든 정보가 수집되지 않는 경우, 상기 제 1 처리부 및 상기 제 2 처리부가, 상기 트리거링 신호의 주기를 재설정할 수 있다(S7, S9).Thereafter, the period of the triggering signal is set based on the first sensor having the slowest measurement period among the plurality of first cognitive sensors and the plurality of second cognitive sensors (S4, S5), and the first processing unit and the second processing unit In addition, it is determined whether all the information obtained from the plurality of first cognitive sensors and the plurality of second cognitive sensors is collected according to the period of the triggering signal, and when all information is not collected, the first processing unit and The second processing unit may reset the period of the triggering signal (S7, S9).

또한, 제 1 처리부와 상기 제 2 처리부가 트리거링 신호를 발생시켜 상기 복수의 제 1 인지센서 및 상기 복수의 제 2 인지센서로 전달하고(S6), 복수의 제 1 인지센서 및 상기 복수의 제 2 인지센서는, 상기 트리거링 신호에 따라 상기 정보를 수집하게 된다.In addition, the first processing unit and the second processing unit generate a triggering signal and transmit it to the plurality of first cognitive sensors and the plurality of second cognitive sensors (S6), and the plurality of first cognitive sensors and the plurality of second cognitive sensors. The cognitive sensor collects the information according to the triggering signal.

또한, 상기 제 1 차량의 제 1 처리부가 상기 복수의 제 1 인지센서가 획득한 정보를 수집 및 처리함으로써, 상기 자율주행차량 주변의 객체의 종류 및 위치 중 적어도 하나를 포함하는 제 1 정보를 생성하고, 상기 제 2 차량의 제 2 처리부가 상기 복수의 제 2 인지센서가 획득한 정보를 수집 및 처리함으로써, 상기 자율주행차량 주변의 객체의 종류 및 위치 중 적어도 하나를 포함하는 제 2 정보를 생성한다.In addition, the first processing unit of the first vehicle generates first information including at least one of types and locations of objects around the self-driving vehicle by collecting and processing information acquired by the plurality of first cognitive sensors. and generating second information including at least one of types and locations of objects around the self-driving vehicle by a second processing unit of the second vehicle collecting and processing information acquired by the plurality of second cognitive sensors. do.

이후, 제 1 차량의 자율주행 제어부가, 상기 제 1 처리부로부터 상기 제 1 정보를 전달받고, 상기 제 1 GPS로부터 상기 제 1 차량의 위치정보를 전달받으며, 상기 제 2 처리부로부터 상기 제 2 정보를 전달받고, 상기 제 2 GPS로부터 상기 제 2 차량의 위치정보를 전달받게 된다.Thereafter, the autonomous driving control unit of the first vehicle receives the first information from the first processing unit, receives the location information of the first vehicle from the first GPS, and receives the second information from the second processing unit. and the location information of the second vehicle is received from the second GPS.

또한, 자율주행 제어부가, 상기 제 1 차량의 위치정보와 상기 제 2 차량의 위치정보를 기초로, 상기 제 1 정보와 상기 제 2 정보의 시간을 동기화하고, 상기 동기화된 제 1 정보와 제 2 정보를 함께 이용하여 상기 자율주행차량의 운행을 제어할 수 있다.In addition, the autonomous driving control unit synchronizes the time of the first information and the second information based on the location information of the first vehicle and the location information of the second vehicle, and the synchronized first information and the second information. Operation of the self-driving vehicle may be controlled by using the information together.

따라서 본 발명은 굴절버스 차량의 자율주행을 위한 제어 시스템 및 방법 에 관한 것으로, 전량과 후량에 인지센서 처리 시스템을 별도로 구성하고, 객체의 종류, 위치정보를 추출하며, 전량과 후량의 GPS 신호를 각각 이용하여 두 시스템의 시간 동기화함으로써, 자율주행차량을 제어하는 시스템 및 방법을 사용자에게 제공할 수 있다.Therefore, the present invention relates to a control system and method for autonomous driving of an articulated bus vehicle, which separately configures a recognition sensor processing system for the first and second time, extracts the type and location information of an object, and generates GPS signals for the first and second time A system and method for controlling an autonomous vehicle can be provided to a user by synchronizing the time of the two systems using each.

구체적으로 본 발명은 자율주행 제어부가 제 1 차량의 위치정보와 제 2 차량의 위치정보를 기초로, 제 1 차량이 획득한 제 1 정보와 제 2 차량이 획득한 제 2 정보의 시간을 동기화하고, 동기화된 제 1 정보와 제 2 정보를 함께 이용하여 자율주행차량의 운행을 제어하는 것을 특징으로 하는 자율주행차량, 시스템 및 방법을 사용자에게 제공할 수 있다.Specifically, the present invention provides an autonomous driving control unit to synchronize the time of first information acquired by the first vehicle and second information obtained by the second vehicle based on location information of the first vehicle and location information of the second vehicle, and , It is possible to provide a self-driving vehicle, a system and a method characterized in that the operation of the autonomous vehicle is controlled by using the synchronized first and second information together to the user.

한편, 상술한 본 발명의 실시예들은 다양한 수단을 통해 구현될 수 있다. 예를 들어, 본 발명의 실시예들은 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다. Meanwhile, the above-described embodiments of the present invention may be implemented through various means. For example, embodiments of the present invention may be implemented by hardware, firmware, software, or a combination thereof.

하드웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 프로세서, 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.In the case of hardware implementation, the method according to the embodiments of the present invention includes one or more ASICs (Application Specific Integrated Circuits), DSPs (Digital Signal Processors), DSPDs (Digital Signal Processing Devices), PLDs (Programmable Logic Devices) , Field Programmable Gate Arrays (FPGAs), processors, controllers, microcontrollers, microprocessors, etc.

펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차 또는 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리 유닛에 저장되어 프로세서에 의해 구동될 수 있다. 상기 메모리 유닛은 상기 프로세서 내부 또는 외부에 위치하여, 이미 공지된 다양한 수단에 의해 상기 프로세서와 데이터를 주고 받을 수 있다.In the case of implementation by firmware or software, the method according to the embodiments of the present invention may be implemented in the form of a module, procedure, or function that performs the functions or operations described above. The software code may be stored in a memory unit and driven by a processor. The memory unit may be located inside or outside the processor and exchange data with the processor by various means known in the art.

상술한 바와 같이 개시된 본 발명의 바람직한 실시예들에 대한 상세한 설명은 당업자가 본 발명을 구현하고 실시할 수 있도록 제공되었다. 상기에서는 본 발명의 바람직한 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 본 발명의 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 예를 들어, 당업자는 상술한 실시예들에 기재된 각 구성을 서로 조합하는 방식으로 이용할 수 있다. 따라서, 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다.Detailed descriptions of the preferred embodiments of the present invention disclosed as described above are provided to enable those skilled in the art to implement and practice the present invention. Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art will understand that the present invention can be variously modified and changed without departing from the scope of the present invention. For example, those skilled in the art can use each configuration described in the above-described embodiments in a way of combining each other. Thus, the present invention is not intended to be limited to the embodiments shown herein but is to be accorded the widest scope consistent with the principles and novel features disclosed herein.

본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다. 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다. 또한, 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함할 수 있다.The present invention can be embodied in other specific forms without departing from the spirit and essential characteristics of the present invention. Accordingly, the above detailed description should not be construed as limiting in all respects and should be considered as illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention. The invention is not intended to be limited to the embodiments shown herein but is to be accorded the widest scope consistent with the principles and novel features disclosed herein. In addition, claims that do not have an explicit citation relationship in the claims may be combined to form an embodiment or may be included as new claims by amendment after filing.

Claims (9)

2개의 차량을 굴절마디로 연결해 곡선도로에서도 휘어지면서 달릴 수 있도록 만든 자율주행차량에 있어서,

상기 2개의 차량 중 제 1 차량은,
상기 제 1 차량의 위치정보를 획득하는 제 1 GPS;
상기 자율주행차량 주변의 정보를 수집하는 복수의 제 1 인지센서;
상기 복수의 제 1 인지센서가 획득한 정보를 수집 및 처리함으로써, 상기 자율주행차량 주변의 객체의 종류 및 위치 중 적어도 하나를 포함하는 제 1 정보를 생성하는 제 1 처리부; 및
상기 제 1 처리부로부터 상기 제 1 정보를 전달받고, 상기 제 1 GPS로부터 상기 제 1 차량의 위치정보를 전달받는 자율주행 제어부;를 포함하고,

상기 2개의 차량 중 제 2 차량은,
상기 제 2 차량의 위치정보를 획득하는 제 2 GPS;
상기 자율주행차량 주변의 정보를 수집하는 복수의 제 2 인지센서; 및
상기 복수의 제 2 인지센서가 획득한 정보를 수집 및 처리함으로써, 상기 자율주행차량 주변의 객체의 종류 및 위치 중 적어도 하나를 포함하는 제 2 정보를 생성하는 제 2 처리부;를 포함하며,

상기 자율주행 제어부는,
상기 제 2 처리부로부터 상기 제 2 정보를 전달받고,
상기 제 2 GPS로부터 상기 제 2 차량의 위치정보를 전달받으며,
상기 제 1 차량의 위치정보와 상기 제 2 차량의 위치정보를 기초로, 상기 제 1 정보와 상기 제 2 정보의 시간을 동기화하고,
상기 동기화된 제 1 정보와 제 2 정보를 함께 이용하여 상기 자율주행차량의 운행을 제어하며,

상기 복수의 제 1 인지센서 및 상기 복수의 제 2 인지센서는,
적어도 하나의 카메라, 적어도 하나의 라이다 및 적어도 하나의 레이더를 포함하고,

상기 제 1 처리부와 상기 제 2 처리부는,
트리거링 신호를 발생시켜 상기 복수의 제 1 인지센서 및 상기 복수의 제 2 인지센서로 전달하고,
상기 복수의 제 1 인지센서 및 상기 복수의 제 2 인지센서는, 상기 트리거링 신호에 따라 상기 정보를 수집하는 것을 특징으로 하는 자율주행차량.
In an autonomous vehicle that connects two vehicles with an articulated joint so that they can run while bending on a curved road,

The first vehicle of the two vehicles,
a first GPS acquiring location information of the first vehicle;
a plurality of first recognition sensors for collecting information around the self-driving vehicle;
a first processing unit generating first information including at least one of types and locations of objects around the self-driving vehicle by collecting and processing information acquired by the plurality of first cognitive sensors; and
An autonomous driving control unit that receives the first information from the first processing unit and receives location information of the first vehicle from the first GPS unit;

The second vehicle of the two vehicles,
a second GPS acquiring location information of the second vehicle;
a plurality of second cognitive sensors that collect information about the self-driving vehicle; and
A second processing unit configured to generate second information including at least one of types and locations of objects around the self-driving vehicle by collecting and processing information acquired by the plurality of second cognitive sensors;

The autonomous driving control unit,
receiving the second information from the second processing unit;
Receiving location information of the second vehicle from the second GPS,
Synchronizing times of the first information and the second information based on the location information of the first vehicle and the location information of the second vehicle;
Controlling the operation of the autonomous vehicle by using the synchronized first and second information together;

The plurality of first recognition sensors and the plurality of second recognition sensors,
at least one camera, at least one lidar and at least one radar;

The first processing unit and the second processing unit,
A triggering signal is generated and transmitted to the plurality of first cognitive sensors and the plurality of second cognitive sensors,
The plurality of first cognitive sensors and the plurality of second cognitive sensors collect the information according to the triggering signal.
삭제delete 삭제delete 제 1항에 있어서,
상기 트리거링 신호의 주기는,
상기 복수의 제 1 인지센서 및 상기 복수의 제 2 인지센서 중 가장 측정주기가 느린 제 1 센서를 기준으로 설정되는 것을 특징으로 하는 자율주행차량.
According to claim 1,
The period of the triggering signal is
The self-driving vehicle, characterized in that set based on a first sensor having the slowest measurement cycle among the plurality of first cognitive sensors and the plurality of second cognitive sensors.
제 4항에 있어서,
상기 제 1 처리부 및 상기 제 2 처리부는,
상기 트리거링 신호의 주기에 따라 상기 복수의 제 1 인지센서 및 상기 복수의 제 2 인지센서에서 획득된 모든 정보가 수집되는지 여부를 판단하고,

상기 모든 정보가 수집되지 않는 경우,
상기 트리거링 신호의 주기를 재설정하는 것을 특징으로 하는 자율주행차량.
According to claim 4,
The first processing unit and the second processing unit,
Determine whether all information obtained from the plurality of first cognitive sensors and the plurality of second cognitive sensors is collected according to the period of the triggering signal;

If all of the above information is not collected,
Self-driving vehicle, characterized in that for resetting the period of the triggering signal.
2개의 차량을 굴절마디로 연결해 곡선도로에서도 휘어지면서 달릴 수 있도록 만든 자율주행차량의 제어방법에 있어서,

상기 2개의 차량 중 제 1 차량의 제 1 GPS가 상기 제 1 차량의 위치정보를 획득하고, 제 2 차량의 제 2 GPS가 상기 제 2 차량의 위치정보를 획득하는 제 1 단계;

상기 제 1 차량의 복수의 제 1 인지센서가 상기 자율주행차량 주변의 정보를 수집하고, 상기 제 2차량의 복수의 인지센서가 상기 자율주행차량 주변의 정보를 수집하는 제 2 단계;

상기 제 1 차량의 제 1 처리부가 상기 복수의 제 1 인지센서가 획득한 정보를 수집 및 처리함으로써, 상기 자율주행차량 주변의 객체의 종류 및 위치 중 적어도 하나를 포함하는 제 1 정보를 생성하고, 상기 제 2 차량의 제 2 처리부가 상기 복수의 제 2 인지센서가 획득한 정보를 수집 및 처리함으로써, 상기 자율주행차량 주변의 객체의 종류 및 위치 중 적어도 하나를 포함하는 제 2 정보를 생성하는 제 3 단계;

상기 제 1 차량의 자율주행 제어부가, 상기 제 1 처리부로부터 상기 제 1 정보를 전달받고, 상기 제 1 GPS로부터 상기 제 1 차량의 위치정보를 전달받으며, 상기 제 2 처리부로부터 상기 제 2 정보를 전달받고, 상기 제 2 GPS로부터 상기 제 2 차량의 위치정보를 전달받는 제 4 단계; 및

상기 자율주행 제어부가, 상기 제 1 차량의 위치정보와 상기 제 2 차량의 위치정보를 기초로, 상기 제 1 정보와 상기 제 2 정보의 시간을 동기화하고, 상기 동기화된 제 1 정보와 제 2 정보를 함께 이용하여 상기 자율주행차량의 운행을 제어하는 제 5 단계;를 포함하고,

상기 복수의 제 1 인지센서 및 상기 복수의 제 2 인지센서는,
적어도 하나의 카메라, 적어도 하나의 라이다 및 적어도 하나의 레이더를 포함하고,

상기 제 1 단계와 상기 제 2 단계 사이에,
상기 제 1 처리부와 상기 제 2 처리부가 트리거링 신호를 발생시켜 상기 복수의 제 1 인지센서 및 상기 복수의 제 2 인지센서로 전달하는 제 1.5 단계;를 더 포함하고,

상기 제 2 단계에서,
상기 복수의 제 1 인지센서 및 상기 복수의 제 2 인지센서는, 상기 트리거링 신호에 따라 상기 정보를 수집하는 것을 특징으로 하는 자율주행차량의 제어방법.
In the control method of an autonomous vehicle that connects two vehicles with an articulated joint so that they can run while bending on a curved road,

a first step in which a first GPS of a first vehicle among the two vehicles acquires location information of the first vehicle and a second GPS of a second vehicle obtains location information of the second vehicle;

a second step of collecting information around the self-driving vehicle by a plurality of first cognitive sensors of the first vehicle and collecting information about the autonomous vehicle by a plurality of cognitive sensors of the second vehicle;

A first processing unit of the first vehicle generates first information including at least one of a type and a location of an object around the autonomous vehicle by collecting and processing information acquired by the plurality of first cognitive sensors; A second processing unit of the second vehicle collects and processes information obtained by the plurality of second cognitive sensors to generate second information including at least one of a type and a location of an object around the self-driving vehicle. Step 3;

The autonomous driving control unit of the first vehicle receives the first information from the first processing unit, receives location information of the first vehicle from the first GPS, and transmits the second information from the second processing unit. a fourth step of receiving and receiving location information of the second vehicle from the second GPS; and

The autonomous driving control unit synchronizes the time of the first information and the second information based on the location information of the first vehicle and the location information of the second vehicle, and the synchronized first information and second information A fifth step of controlling the operation of the self-driving vehicle by using together; including,

The plurality of first recognition sensors and the plurality of second recognition sensors,
at least one camera, at least one lidar and at least one radar;

Between the first step and the second step,
A 1.5 step of generating a triggering signal by the first processing unit and the second processing unit and transmitting the triggering signal to the plurality of first cognitive sensors and the plurality of second cognitive sensors; further comprising,

In the second step,
The plurality of first cognitive sensors and the plurality of second cognitive sensors collect the information according to the triggering signal.
삭제delete 제 6항에 있어서,
상기 트리거링 신호의 주기는,
상기 복수의 제 1 인지센서 및 상기 복수의 제 2 인지센서 중 가장 측정주기가 느린 제 1 센서를 기준으로 설정되는 것을 특징으로 하는 자율주행차량의 제어방법.
According to claim 6,
The period of the triggering signal is
The method of controlling an autonomous vehicle, characterized in that set based on a first sensor having the slowest measurement cycle among the plurality of first cognitive sensors and the plurality of second cognitive sensors.
제 8항에 있어서,
상기 제 5 단계 이후에는,
상기 제 1 처리부 및 상기 제 2 처리부가, 상기 트리거링 신호의 주기에 따라 상기 복수의 제 1 인지센서 및 상기 복수의 제 2 인지센서에서 획득된 모든 정보가 수집되는지 여부를 판단하는 제 6 단계; 및
상기 모든 정보가 수집되지 않는 경우, 상기 제 1 처리부 및 상기 제 2 처리부가, 상기 트리거링 신호의 주기를 재설정하는 제 7 단계;를 더 포함하는 것을 특징으로 하는 자율주행차량의 제어방법.
According to claim 8,
After the fifth step,
A sixth step of determining, by the first processing unit and the second processing unit, whether all information acquired from the plurality of first cognitive sensors and the plurality of second cognitive sensors is collected according to a period of the triggering signal; and
and a seventh step of resetting, by the first processing unit and the second processing unit, a cycle of the triggering signal when all of the information is not collected.
KR1020210022345A 2021-02-19 2021-02-19 Control system and method for autonomous driving of refractory bus vehicle KR102469413B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210022345A KR102469413B1 (en) 2021-02-19 2021-02-19 Control system and method for autonomous driving of refractory bus vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210022345A KR102469413B1 (en) 2021-02-19 2021-02-19 Control system and method for autonomous driving of refractory bus vehicle

Publications (2)

Publication Number Publication Date
KR20220119538A KR20220119538A (en) 2022-08-30
KR102469413B1 true KR102469413B1 (en) 2022-11-24

Family

ID=83114302

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210022345A KR102469413B1 (en) 2021-02-19 2021-02-19 Control system and method for autonomous driving of refractory bus vehicle

Country Status (1)

Country Link
KR (1) KR102469413B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008273504A (en) 2007-02-22 2008-11-13 Honeywell Internatl Inc Electronic preventive mechanism for articulated vehicle
JP2013225826A (en) * 2012-03-19 2013-10-31 Casio Comput Co Ltd Imaging apparatus, imaging method, and program
JP2014097691A (en) * 2012-11-13 2014-05-29 Denso Corp Driving support unit, and driving support system
JP2018531530A (en) * 2015-07-31 2018-10-25 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH Method and apparatus for displaying surrounding scene of vehicle / towed vehicle combination
JP2020144620A (en) 2019-03-06 2020-09-10 本田技研工業株式会社 Vehicle controller, information providing device, information providing system, vehicle control method, information providing method, and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100873472B1 (en) 2006-10-30 2008-12-15 한국전자통신연구원 Location information provision and information collection device using wireless recognition technology and method thereof
KR101017604B1 (en) 2009-10-16 2011-02-28 한국과학기술원 On line electric vechicle location recognition system
KR20150075774A (en) * 2013-12-26 2015-07-06 한국전자통신연구원 Autonomous driving vehicle and infra for supporting autonomous drive

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008273504A (en) 2007-02-22 2008-11-13 Honeywell Internatl Inc Electronic preventive mechanism for articulated vehicle
JP2013225826A (en) * 2012-03-19 2013-10-31 Casio Comput Co Ltd Imaging apparatus, imaging method, and program
JP2014097691A (en) * 2012-11-13 2014-05-29 Denso Corp Driving support unit, and driving support system
JP2018531530A (en) * 2015-07-31 2018-10-25 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH Method and apparatus for displaying surrounding scene of vehicle / towed vehicle combination
JP2020144620A (en) 2019-03-06 2020-09-10 本田技研工業株式会社 Vehicle controller, information providing device, information providing system, vehicle control method, information providing method, and program

Also Published As

Publication number Publication date
KR20220119538A (en) 2022-08-30

Similar Documents

Publication Publication Date Title
KR102275507B1 (en) Vehicle control device mounted on vehicle and method for controlling the vehicle
US10872143B2 (en) Recognizing assigned passengers for autonomous vehicles
US9902398B2 (en) Driving control device
KR102037324B1 (en) Autonomous vehicle and method of controlling the same
KR20190078105A (en) Autonomous vehicle and method of controlling the same
CN111148674A (en) Autonomous vehicle and control method thereof
US20190101915A1 (en) Vehicle driving control apparatus and vehicle driving method
US20200114904A1 (en) Autonomous parking apparatus and method
KR20190109608A (en) Control device and method for autonomousvehicles by using network
CN112874511B (en) Automatic driving control method and device for automobile and computer storage medium
KR102469413B1 (en) Control system and method for autonomous driving of refractory bus vehicle
KR101916427B1 (en) Radar apparatus for vehicle
KR102433345B1 (en) Method and apparatus for providing information using vehicle's camera
KR102041682B1 (en) Control system for autonomous vehicle using tag and its control method
KR20190019681A (en) Vehicle control device mounted on vehicle and method for controlling the vehicle
KR102007087B1 (en) Autonomous vehicle and its control method using Vehicle to Vehicle antenna
KR101985496B1 (en) Driving assistance apparatus and vehicle having the same
KR102414764B1 (en) System and Method for Automating Multi-Sensor Calibration of refraction vehicle
KR101929816B1 (en) Vehicle controlling device mounted at vehicle and method for controlling the vehicle
KR102441972B1 (en) Control System and Control Method for Railway Crossing of Self-driving Vehicles
KR102538256B1 (en) A system and method for creating routes for self-driving public transportation based on destination
KR102064421B1 (en) Vehicle control device mounted on vehicle and method for controlling the vehicle
KR20240047807A (en) Method and device for synchronizing data acquired by multiple sensors
KR20240050539A (en) Self-driving public transportation support system and control method to detect changes in vehicle weight according to passenger getting on and off
KR20240081899A (en) Automatic parking system with vehicle remote control technology

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant