KR102469413B1 - Control system and method for autonomous driving of refractory bus vehicle - Google Patents
Control system and method for autonomous driving of refractory bus vehicle Download PDFInfo
- Publication number
- KR102469413B1 KR102469413B1 KR1020210022345A KR20210022345A KR102469413B1 KR 102469413 B1 KR102469413 B1 KR 102469413B1 KR 1020210022345 A KR1020210022345 A KR 1020210022345A KR 20210022345 A KR20210022345 A KR 20210022345A KR 102469413 B1 KR102469413 B1 KR 102469413B1
- Authority
- KR
- South Korea
- Prior art keywords
- vehicle
- information
- processing unit
- sensors
- cognitive sensors
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 34
- 238000012545 processing Methods 0.000 claims abstract description 83
- 230000001149 cognitive effect Effects 0.000 claims abstract description 80
- 230000001360 synchronised effect Effects 0.000 claims abstract description 14
- 238000005259 measurement Methods 0.000 claims description 10
- 238000005452 bending Methods 0.000 claims description 6
- 238000004891 communication Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 10
- 239000000284 extract Substances 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000003698 anagen phase Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000005684 electric field Effects 0.000 description 1
- 230000005672 electromagnetic field Effects 0.000 description 1
- 239000010408 film Substances 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0002—Automatic control, details of type of controller or control system architecture
- B60W2050/0004—In digital systems, e.g. discrete-time systems involving sampling
- B60W2050/0005—Processor details or data handling, e.g. memory registers or chip architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B60W2420/42—
-
- B60W2420/52—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/402—Type
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4041—Position
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
- B60W2556/50—External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2200/00—Type of vehicle
- B60Y2200/40—Special vehicles
- B60Y2200/41—Construction vehicles, e.g. graders, excavators
- B60Y2200/417—Articulated frame vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2400/00—Special features of vehicle units
- B60Y2400/30—Sensors
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Business, Economics & Management (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Game Theory and Decision Science (AREA)
- Medical Informatics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Traffic Control Systems (AREA)
Abstract
2개의 차량을 굴절마디로 연결한 자율주행차량에 있어서, 상기 2개의 차량 중 제 1 차량은, 상기 제 1 차량의 위치정보를 획득하는 제 1 GPS; 상기 자율주행차량 주변의 정보를 수집하는 복수의 제 1 인지센서; 상기 복수의 제 1 인지센서가 획득한 정보를 수집 및 처리함으로써, 상기 자율주행차량 주변의 객체의 종류 및 위치 중 적어도 하나를 포함하는 제 1 정보를 생성하는 제 1 처리부; 및 상기 제 1 처리부로부터 상기 제 1 정보를 전달받고, 상기 제 1 GPS로부터 상기 제 1 차량의 위치정보를 전달받는 자율주행 제어부;를 포함하고, 상기 2개의 차량 중 제 2 차량은, 상기 제 2 차량의 위치정보를 획득하는 제 2 GPS; 상기 자율주행차량 주변의 정보를 수집하는 복수의 제 2 인지센서; 및 상기 복수의 제 2 인지센서가 획득한 정보를 수집 및 처리함으로써, 상기 자율주행차량 주변의 객체의 종류 및 위치 중 적어도 하나를 포함하는 제 2 정보를 생성하는 제 2 처리부;를 포함하며, 상기 자율주행 제어부는, 상기 제 2 처리부로부터 상기 제 2 정보를 전달받고, 상기 제 2 GPS로부터 상기 제 2 차량의 위치정보를 전달받으며, 상기 제 1 차량의 위치정보와 상기 제 2 차량의 위치정보를 기초로, 상기 제 1 정보와 상기 제 2 정보의 시간을 동기화하고, 상기 동기화된 제 1 정보와 제 2 정보를 함께 이용하여 상기 자율주행차량의 운행을 제어할 수 있다.In an autonomous vehicle in which two vehicles are connected by an articulation joint, a first vehicle among the two vehicles includes: a first GPS that obtains location information of the first vehicle; a plurality of first recognition sensors for collecting information around the self-driving vehicle; a first processing unit generating first information including at least one of types and locations of objects around the self-driving vehicle by collecting and processing information acquired by the plurality of first cognitive sensors; and an autonomous driving control unit that receives the first information from the first processing unit and the location information of the first vehicle from the first GPS, wherein a second vehicle of the two vehicles includes the second vehicle. a second GPS that acquires vehicle location information; a plurality of second cognitive sensors that collect information around the self-driving vehicle; and a second processing unit configured to generate second information including at least one of a type and a location of an object around the self-driving vehicle by collecting and processing information obtained by the plurality of second cognitive sensors. The autonomous driving control unit receives the second information from the second processing unit, receives the location information of the second vehicle from the second GPS, and transmits the location information of the first vehicle and the location information of the second vehicle. Based on this, the time of the first information and the second information may be synchronized, and operation of the autonomous vehicle may be controlled by using the synchronized first information and second information together.
Description
본 발명은 굴절버스 차량의 자율주행을 위한 제어 시스템 및 방법 에 관한 것으로, 전량과 후량에 인지센서 처리 시스템을 별도로 구성하고, 객체의 종류, 위치정보를 추출하며, 전량과 후량의 GPS 신호를 각각 이용하여 두 시스템의 시간 동기화함으로써, 자율주행차량을 제어하는 시스템 및 방법에 관한 것이다.The present invention relates to a control system and method for autonomous driving of an articulated bus vehicle, which separately configures a recognition sensor processing system for the first and second, extracts the type and location information of an object, and generates GPS signals for the first and second, respectively. It relates to a system and method for controlling an autonomous vehicle by synchronizing the time of two systems using the same.
대중교통 자율주행 차량은 미리 정해진 경로에 따라 안정적으로 운행되어야 하고, 정차장에서 승객이 안전하게 탈수 있도록 정해진 구간에 정차를 할 수 있는 기술을 제공하여야 한다. Public transportation self-driving vehicles must be stably operated according to a pre-determined route, and technology to stop at a designated section must be provided so that passengers can safely ride at the stop.
특히, 굴절차량은 2량 1편성으로 최대 100인승인데, 2량을 연결한 차량으로 길이가 길어서 자율주행을 위한 인지 센서의 개수도 그만큼 증가하는 문제가 있다.In particular, the articulated vehicle has a maximum capacity of 100 people in a two-car, one-car formation, and since it is a two-car connected vehicle and is long, there is a problem in that the number of cognitive sensors for autonomous driving increases accordingly.
또한, 굴절버스 차량의 경우, 인지센서에서 획득한 정보를 한꺼번에 처리하기에는 시스템 처리 용량에 무리가 따르는 문제가 있다.In addition, in the case of an articulated bus vehicle, there is a problem in that the processing capacity of the system is excessive to process the information obtained from the recognition sensor at once.
따라서 이러한 문제점을 해소할 수 있는 시스템 및 방법에 대한 니즈가 높아지고 있다.Therefore, the need for a system and method capable of solving these problems is increasing.
본 발명은 굴절버스 차량의 자율주행을 위한 제어 시스템 및 방법 에 관한 것으로, 전량과 후량에 인지센서 처리 시스템을 별도로 구성하고, 객체의 종류, 위치정보를 추출하며, 전량과 후량의 GPS 신호를 각각 이용하여 두 시스템의 시간 동기화함으로써, 자율주행차량을 제어하는 시스템 및 방법을 사용자에게 제공하고자 한다.The present invention relates to a control system and method for autonomous driving of an articulated bus vehicle, which separately configures a recognition sensor processing system for the first and second, extracts the type and location information of an object, and generates GPS signals for the first and second, respectively. It is intended to provide users with a system and method for controlling an autonomous vehicle by synchronizing the time of the two systems using the present invention.
구체적으로 본 발명은 자율주행 제어부가 제 1 차량의 위치정보와 제 2 차량의 위치정보를 기초로, 제 1 차량이 획득한 제 1 정보와 제 2 차량이 획득한 제 2 정보의 시간을 동기화하고, 동기화된 제 1 정보와 제 2 정보를 함께 이용하여 자율주행차량의 운행을 제어하는 것을 특징으로 하는 자율주행차량, 시스템 및 방법을 사용자에게 제공하고자 한다.Specifically, the present invention provides an autonomous driving control unit to synchronize the time of first information acquired by the first vehicle and second information obtained by the second vehicle based on location information of the first vehicle and location information of the second vehicle, and To provide a user with an autonomous vehicle, system and method characterized by controlling the operation of the autonomous vehicle by using the synchronized first and second information together.
한편, 본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.On the other hand, the technical problems to be achieved in the present invention are not limited to the above-mentioned technical problems, and other technical problems that are not mentioned will become clear to those skilled in the art from the description below. You will be able to understand.
상기의 기술적 과제를 달성하기 위한 본 발명의 일 양상인 2개의 차량을 굴절마디로 연결해 곡선도로에서도 휘어지면서 달릴 수 있도록 만든 자율주행차량에 있어서, 상기 2개의 차량 중 제 1 차량은, 상기 제 1 차량의 위치정보를 획득하는 제 1 GPS; 상기 자율주행차량 주변의 정보를 수집하는 복수의 제 1 인지센서; 상기 복수의 제 1 인지센서가 획득한 정보를 수집 및 처리함으로써, 상기 자율주행차량 주변의 객체의 종류 및 위치 중 적어도 하나를 포함하는 제 1 정보를 생성하는 제 1 처리부; 및 상기 제 1 처리부로부터 상기 제 1 정보를 전달받고, 상기 제 1 GPS로부터 상기 제 1 차량의 위치정보를 전달받는 자율주행 제어부;를 포함하고, 상기 2개의 차량 중 제 2 차량은, 상기 제 2 차량의 위치정보를 획득하는 제 2 GPS; 상기 자율주행차량 주변의 정보를 수집하는 복수의 제 2 인지센서; 및 상기 복수의 제 2 인지센서가 획득한 정보를 수집 및 처리함으로써, 상기 자율주행차량 주변의 객체의 종류 및 위치 중 적어도 하나를 포함하는 제 2 정보를 생성하는 제 2 처리부;를 포함하며, 상기 자율주행 제어부는, 상기 제 2 처리부로부터 상기 제 2 정보를 전달받고, 상기 제 2 GPS로부터 상기 제 2 차량의 위치정보를 전달받으며, 상기 제 1 차량의 위치정보와 상기 제 2 차량의 위치정보를 기초로, 상기 제 1 정보와 상기 제 2 정보의 시간을 동기화하고, 상기 동기화된 제 1 정보와 제 2 정보를 함께 이용하여 상기 자율주행차량의 운행을 제어할 수 있다.In an autonomous vehicle made to run while bending on a curved road by connecting two vehicles with an articulation joint, which is an aspect of the present invention for achieving the above technical problem, a first vehicle of the two vehicles is A first GPS that acquires vehicle location information; a plurality of first recognition sensors for collecting information around the self-driving vehicle; a first processing unit generating first information including at least one of types and locations of objects around the self-driving vehicle by collecting and processing information acquired by the plurality of first cognitive sensors; and an autonomous driving control unit that receives the first information from the first processing unit and the location information of the first vehicle from the first GPS, wherein a second vehicle of the two vehicles includes the second vehicle. a second GPS that acquires vehicle location information; a plurality of second cognitive sensors that collect information around the self-driving vehicle; and a second processing unit configured to generate second information including at least one of a type and a location of an object around the self-driving vehicle by collecting and processing information obtained by the plurality of second cognitive sensors. The autonomous driving control unit receives the second information from the second processing unit, receives the location information of the second vehicle from the second GPS, and transmits the location information of the first vehicle and the location information of the second vehicle. Based on this, the time of the first information and the second information may be synchronized, and operation of the autonomous vehicle may be controlled by using the synchronized first information and second information together.
또한, 상기 복수의 제 1 인지센서 및 상기 복수의 제 2 인지센서는, 적어도 하나의 카메라, 적어도 하나의 라이다 및 적어도 하나의 레이더를 포함할 수 있다.In addition, the plurality of first cognitive sensors and the plurality of second cognitive sensors may include at least one camera, at least one LIDAR, and at least one radar.
또한, 상기 제 1 처리부와 상기 제 2 처리부는, 트리거링 신호를 발생시켜 상기 복수의 제 1 인지센서 및 상기 복수의 제 2 인지센서로 전달하고, 상기 복수의 제 1 인지센서 및 상기 복수의 제 2 인지센서는, 상기 트리거링 신호에 따라 상기 정보를 수집할 수 있다.In addition, the first processing unit and the second processing unit generate a triggering signal, transfer it to the plurality of first cognitive sensors and the plurality of second cognitive sensors, and generate a triggering signal, and transmit the triggering signal to the plurality of first cognitive sensors and the plurality of second cognitive sensors. The cognitive sensor may collect the information according to the triggering signal.
또한, 상기 트리거링 신호의 주기는, 상기 복수의 제 1 인지센서 및 상기 복수의 제 2 인지센서 중 가장 측정주기가 느린 제 1 센서를 기준으로 설정될 수 있다.In addition, the period of the triggering signal may be set based on the first sensor having the slowest measurement period among the plurality of first cognitive sensors and the plurality of second cognitive sensors.
또한, 상기 제 1 처리부 및 상기 제 2 처리부는, 상기 트리거링 신호의 주기에 따라 상기 복수의 제 1 인지센서 및 상기 복수의 제 2 인지센서에서 획득된 모든 정보가 수집되는지 여부를 판단하고, 상기 모든 정보가 수집되지 않는 경우, 상기 트리거링 신호의 주기를 재설정할 수 있다.In addition, the first processing unit and the second processing unit determine whether all information acquired from the plurality of first cognitive sensors and the plurality of second cognitive sensors is collected according to the cycle of the triggering signal, and all of the When information is not collected, the period of the triggering signal may be reset.
한편, 상기의 기술적 과제를 달성하기 위한 본 발명의 다른 양상인 2개의 차량을 굴절마디로 연결해 곡선도로에서도 휘어지면서 달릴 수 있도록 만든 자율주행차량의 제어방법에 있어서, 상기 2개의 차량 중 제 1 차량의 제 1 GPS가 상기 제 1 차량의 위치정보를 획득하고, 제 2 차량의 제 2 GPS가 상기 제 2 차량의 위치정보를 획득하는 제 1 단계; 상기 제 1 차량의 복수의 제 1 인지센서가 상기 자율주행차량 주변의 정보를 수집하고, 상기 제 2차량의 복수의 인지센서가 상기 자율주행차량 주변의 정보를 수집하는 제 2 단계; 상기 제 1 차량의 제 1 처리부가 상기 복수의 제 1 인지센서가 획득한 정보를 수집 및 처리함으로써, 상기 자율주행차량 주변의 객체의 종류 및 위치 중 적어도 하나를 포함하는 제 1 정보를 생성하고, 상기 제 2 차량의 제 2 처리부가 상기 복수의 제 2 인지센서가 획득한 정보를 수집 및 처리함으로써, 상기 자율주행차량 주변의 객체의 종류 및 위치 중 적어도 하나를 포함하는 제 2 정보를 생성하는 제 3 단계; 상기 제 1 차량의 자율주행 제어부가, 상기 제 1 처리부로부터 상기 제 1 정보를 전달받고, 상기 제 1 GPS로부터 상기 제 1 차량의 위치정보를 전달받으며, 상기 제 2 처리부로부터 상기 제 2 정보를 전달받고, 상기 제 2 GPS로부터 상기 제 2 차량의 위치정보를 전달받는 제 4 단계; 및 상기 자율주행 제어부가, 상기 제 1 차량의 위치정보와 상기 제 2 차량의 위치정보를 기초로, 상기 제 1 정보와 상기 제 2 정보의 시간을 동기화하고, 상기 동기화된 제 1 정보와 제 2 정보를 함께 이용하여 상기 자율주행차량의 운행을 제어하는 제 5 단계;를 포함할 수 있다.On the other hand, in the control method of an autonomous vehicle, which is another aspect of the present invention for achieving the above technical problem, in which two vehicles are connected by an articulated joint so that they can run while bending on a curved road, the first vehicle of the two vehicles A first step of obtaining location information of the first vehicle by a first GPS of the second vehicle and obtaining location information of the second vehicle by a second GPS of a second vehicle; a second step of collecting information around the self-driving vehicle by a plurality of first cognitive sensors of the first vehicle and collecting information about the autonomous vehicle by a plurality of cognitive sensors of the second vehicle; A first processing unit of the first vehicle generates first information including at least one of a type and a location of an object around the autonomous vehicle by collecting and processing information acquired by the plurality of first cognitive sensors; A second processing unit of the second vehicle collects and processes information obtained by the plurality of second cognitive sensors to generate second information including at least one of a type and a location of an object around the self-driving vehicle. Step 3; The autonomous driving control unit of the first vehicle receives the first information from the first processing unit, receives location information of the first vehicle from the first GPS, and transmits the second information from the second processing unit. a fourth step of receiving and receiving location information of the second vehicle from the second GPS; and the autonomous driving control unit synchronizes the time of the first information and the second information based on the location information of the first vehicle and the location information of the second vehicle, and the synchronized first information and the second information. A fifth step of controlling the operation of the self-driving vehicle by using information together; may include.
또한, 상기 복수의 제 1 인지센서 및 상기 복수의 제 2 인지센서는, 적어도 하나의 카메라, 적어도 하나의 라이다 및 적어도 하나의 레이더를 포함하고, 상기 제 1 단계와 상기 제 2 단계 사이에, 상기 제 1 처리부와 상기 제 2 처리부가 트리거링 신호를 발생시켜 상기 복수의 제 1 인지센서 및 상기 복수의 제 2 인지센서로 전달하는 제 1.5 단계;를 더 포함하고, 상기 제 2 단계에서, 상기 복수의 제 1 인지센서 및 상기 복수의 제 2 인지센서는, 상기 트리거링 신호에 따라 상기 정보를 수집할 수 있다.In addition, the plurality of first cognitive sensors and the plurality of second cognitive sensors include at least one camera, at least one lidar, and at least one radar, and between the first step and the second step, A 1.5 step of generating a triggering signal by the first processing unit and the second processing unit and transmitting the triggering signal to the plurality of first cognitive sensors and the plurality of second cognitive sensors, and in the second step, the plurality of The first cognitive sensor and the plurality of second cognitive sensors of may collect the information according to the triggering signal.
또한, 상기 트리거링 신호의 주기는, 상기 복수의 제 1 인지센서 및 상기 복수의 제 2 인지센서 중 가장 측정주기가 느린 제 1 센서를 기준으로 설정될 수 있다.In addition, the period of the triggering signal may be set based on the first sensor having the slowest measurement period among the plurality of first cognitive sensors and the plurality of second cognitive sensors.
또한, 상기 제 5 단계 이후에는, 상기 제 1 처리부 및 상기 제 2 처리부가, 상기 트리거링 신호의 주기에 따라 상기 복수의 제 1 인지센서 및 상기 복수의 제 2 인지센서에서 획득된 모든 정보가 수집되는지 여부를 판단하는 제 6 단계; 및 상기 모든 정보가 수집되지 않는 경우, 상기 제 1 처리부 및 상기 제 2 처리부가, 상기 트리거링 신호의 주기를 재설정하는 제 7 단계;를 더 포함할 수 있다.In addition, after the fifth step, whether the first processing unit and the second processing unit collect all information obtained from the plurality of first cognitive sensors and the plurality of second cognitive sensors according to the cycle of the triggering signal. A sixth step of determining whether or not; and a seventh step of resetting the period of the triggering signal by the first processing unit and the second processing unit when all of the information is not collected.
본 발명은 굴절버스 차량의 자율주행을 위한 제어 시스템 및 방법 에 관한 것으로, 전량과 후량에 인지센서 처리 시스템을 별도로 구성하고, 객체의 종류, 위치정보를 추출하며, 전량과 후량의 GPS 신호를 각각 이용하여 두 시스템의 시간 동기화함으로써, 자율주행차량을 제어하는 시스템 및 방법을 사용자에게 제공할 수 있다.The present invention relates to a control system and method for autonomous driving of an articulated bus vehicle, which separately configures a recognition sensor processing system for the first and second, extracts the type and location information of an object, and generates GPS signals for the first and second, respectively. By using the time synchronization of the two systems, it is possible to provide a system and method for controlling an autonomous vehicle to the user.
구체적으로 본 발명은 자율주행 제어부가 제 1 차량의 위치정보와 제 2 차량의 위치정보를 기초로, 제 1 차량이 획득한 제 1 정보와 제 2 차량이 획득한 제 2 정보의 시간을 동기화하고, 동기화된 제 1 정보와 제 2 정보를 함께 이용하여 자율주행차량의 운행을 제어하는 것을 특징으로 하는 자율주행차량, 시스템 및 방법을 사용자에게 제공할 수 있다.Specifically, the present invention provides an autonomous driving control unit to synchronize the time of first information acquired by the first vehicle and second information obtained by the second vehicle based on location information of the first vehicle and location information of the second vehicle, and , It is possible to provide a self-driving vehicle, a system and a method characterized in that the operation of the autonomous vehicle is controlled by using the synchronized first and second information together to the user.
다만, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the effects obtainable in the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below. You will be able to.
도 1은 본 발명에 따른 자율주행차량에 대한 블록구성도의 일례를 도시한 것이다.
도 2는 본 발명과 관련하여, 굴절버스의 각 구성요소와 관련된 구체적 블록구성도의 일례를 도시한 것이다.
도 3은 본 발명과 관련하여, 트리거링 신호를 기초로 정보를 수집하는 일례를 도시한 것이다.
도 4는 본 발명과 관련하여, 굴절버스 차량의 자율주행을 위한 제어 방법을 설명하는 순서도이다.1 shows an example of a block configuration diagram for an autonomous vehicle according to the present invention.
2 shows an example of a specific block diagram related to each component of the articulated bus in relation to the present invention.
3 illustrates an example of collecting information based on a triggering signal in relation to the present invention.
4 is a flowchart illustrating a control method for autonomous driving of an articulated bus vehicle in relation to the present invention.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 의도는 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해될 수 있다.Since the present invention can make various changes and have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. This is not intended to limit the present invention to specific embodiments, and it can be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention.
본 발명을 설명함에 있어서 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지 않을 수 있다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.In describing the present invention, terms such as first and second may be used to describe various components, but the components may not be limited by the terms. These terms are only for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention.
어떤 구성요소가 다른 구성요소에 연결되어 있다거나 접속되어 있다고 언급되는 경우는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해될 수 있다. 반면에, 어떤 구성요소가 다른 구성요소에 직접 연결되어 있다거나 직접 접속되어 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해될 수 있다.When a component is referred to as being connected or connected to another component, it may be directly connected or connected to the other component, but it may be understood that another component may exist in the middle. . On the other hand, when it is mentioned that a certain element is directly connected to another element or directly connected to another element, it can be understood that no other element exists in the middle.
본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다.Terms used in this specification are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions may include plural expressions unless the context clearly dictates otherwise.
본 명세서에서, 포함하다 또는 구비하다 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것으로서, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해될 수 있다.In this specification, the terms include or include are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features or numbers, It can be understood that the presence or addition of steps, operations, components, parts, or combinations thereof is not precluded.
또한, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 본 명세서에서 사용되는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석될 수 있으며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않을 수 있다.In addition, unless defined otherwise, all terms used in this specification, including technical or scientific terms, may have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. . Terms such as those defined in commonly used dictionaries may be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in this specification, interpreted in an ideal or excessively formal meaning. It may not be.
자율주행차량은 운전자가 핸들과 가속페달, 브레이크 등을 조작하지 않아도 정밀한 지도, 위성항법시스템(GPS) 등 차량의 각종 센서로 상황을 파악해 스스로 목적지까지 찾아가는 차량을 말한다. An autonomous vehicle refers to a vehicle that navigates to its destination by itself by identifying the situation with various sensors such as precise maps and global positioning systems (GPS), without the driver manipulating the steering wheel, accelerator pedal, or brake.
자율주행 시장은 2020년부터 본격적인 성장세에 진입할 것으로 전망되고 있다. The self-driving market is expected to enter a full-fledged growth phase from 2020.
시장조사업체 네비건트리서치에 따르면 세계 자율주행차 시장은 2020년 전체 자동차 시장의 2%인 2000억달러를 차지한 뒤 2035년까지 1조2000억달러에 달할 것으로 추정된다.According to market research firm Navigant Research, the global self-driving car market is estimated to reach $1.2 trillion by 2035 after accounting for $200 billion, or 2% of the total car market, in 2020.
자율주행 자동차가 실현되기 위해선 여러 가지의 기술이 필요할 수 있는데, 차간 거리를 자동으로 유지해 주는 HDA 기술, 차선이탈 경보 시스템(LDWS), 차선유지 지원 시스템(LKAS), 후측방 경보 시스템(BSD), 어드밴스트 스마트 크루즈 컨트롤(ASCC), 자동 긴급제동 시스템(AEB) 등이 필요하다.Several technologies may be required to realize self-driving cars, such as HDA technology that automatically maintains the distance between vehicles, Lane Departure Warning System (LDWS), Lane Keeping Assist System (LKAS), Blind Spot Warning System (BSD), Advanced Smart Cruise Control (ASCC) and Automatic Emergency Braking (AEB) are required.
여기서 자율주행 차량은 미리 정해진 경로에 따라 안정적으로 운행되어야 하고, 특정 이벤트 발생시에도 해당 이벤트에 대응하는 바이패스 운행을 통해 안정적 서비스 기술을 제공하여야 한다.Here, the self-driving vehicle must be stably operated according to a predetermined route, and even when a specific event occurs, stable service technology must be provided through bypass operation corresponding to the event.
특히, 굴절차량은 2량 1편성으로 최대 100인승인데, 2량을 연결한 차량으로 길이가 길어서 자율주행을 위한 인지 센서의 개수도 그만큼 증가하는 문제가 있다.In particular, the articulated vehicle has a maximum capacity of 100 people in a two-car, one-car formation, and since it is a two-car connected vehicle and is long, there is a problem in that the number of cognitive sensors for autonomous driving increases accordingly.
또한, 굴절버스 차량의 경우, 인지센서에서 획득한 정보를 한꺼번에 처리하기에는 시스템 처리 용량에 무리가 따르는 문제가 있다.In addition, in the case of an articulated bus vehicle, there is a problem in that the processing capacity of the system is excessive to process the information obtained from the recognition sensor at once.
따라서 본 발명은 굴절버스 차량의 자율주행을 위한 제어 시스템 및 방법 에 관한 것으로, 전량과 후량에 인지센서 처리 시스템을 별도로 구성하고, 객체의 종류, 위치정보를 추출하며, 전량과 후량의 GPS 신호를 각각 이용하여 두 시스템의 시간 동기화함으로써, 자율주행차량을 제어하는 시스템 및 방법을 사용자에게 제공하고자 한다.Therefore, the present invention relates to a control system and method for autonomous driving of an articulated bus vehicle, which separately configures a recognition sensor processing system for the first and second time, extracts the type and location information of an object, and generates GPS signals for the first and second time It is intended to provide a system and method for controlling an autonomous vehicle to a user by synchronizing the time of the two systems using each.
구체적으로 본 발명은 자율주행 제어부가 제 1 차량의 위치정보와 제 2 차량의 위치정보를 기초로, 제 1 차량이 획득한 제 1 정보와 제 2 차량이 획득한 제 2 정보의 시간을 동기화하고, 동기화된 제 1 정보와 제 2 정보를 함께 이용하여 자율주행차량의 운행을 제어하는 것을 특징으로 하는 자율주행차량, 시스템 및 방법을 사용자에게 제공하고자 한다.Specifically, the present invention provides an autonomous driving control unit to synchronize the time of first information acquired by the first vehicle and second information obtained by the second vehicle based on location information of the first vehicle and location information of the second vehicle, and To provide a user with an autonomous vehicle, system and method characterized by controlling the operation of the autonomous vehicle by using the synchronized first and second information together.
본 발명의 구체적인 설명에 앞서, 본 발명에 적용되는 자율주행차량에 대해 구체적으로 설명한다.Prior to a detailed description of the present invention, an autonomous vehicle applied to the present invention will be described in detail.
도 1은 본 발명에 따른 자율주행차량에 대한 블록구성도의 일례를 도시한 것이다.1 shows an example of a block configuration diagram for an autonomous vehicle according to the present invention.
도 1을 참조하면, 자율주행차량(100)는 무선 통신부(110), 구동부(120), 제동부(130), 센싱부(140), 출력부(150), 메모리(160), 제어부(180), 전원공급부(190) 등을 포함할 수 있다. Referring to FIG. 1 , an
단, 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 자율주행차량(100)이 구현될 수도 있다.However, since the components shown in FIG. 1 are not essential, an
이하, 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the above components are examined in turn.
무선 통신부(110)는 자율주행차량(100)과 무선 통신 시스템 사이 또는 기기와 기기가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. The
무선 통신부(110)는 근거리 통신 또는 원거리 통신을 통해 외부의 기기와 통신을 수행할 수 있다.The
여기서 근거리 통신은, ANT, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(UltraWideband), ZigBee 기술을 포함할 수 있다.Here, the short-range communication may include ANT, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), UltraWideband (UWB), and ZigBee technologies.
또한, 원거리 통신은 CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SC-FDMA(single carrier frequency division multiple access)을 포함할 수 있다.In addition, long-distance communication includes code division multiple access (CDMA), frequency division multiple access (FDMA), time division multiple access (TDMA), orthogonal frequency division multiple access (OFDMA), and single carrier frequency division multiple access (SC-FDMA). can include
또한, 도 1을 참조하면, 구동부(120)는 자율주행차량(100) 즉, 이동체를 구동시키는 기능을 제공한다.Also, referring to FIG. 1 , the driving
즉, 모터, 인버터 등의 구성들을 기초로 자율주행차량(100)을 이동시키는 원동력을 제공할 수 있다.That is, a driving force for moving the self-driving
또한, 도 1을 참조하면, 제동부(130)는 자율주행차량(100)의 이동을 중지시키는 브레이킹 기능을 제공하는 구성이다.Also, referring to FIG. 1 , the
제동부(130)는, 운전자의 조작력이나 보조동력 따위를 이용해 제동에 필요한 힘을 발생시키는 제동력 발생장치, 제동력 발생장치에서 발생한 힘을 이용해 차량의 속도를 줄이거나, 차량을 직접 정지시키는 제동장치, 제동력 발생장치에서 발생한 힘을 제동장치에 전달하는 부수장치 등으로 구성될 수 있다.The
제동력 발생장치에는 진공, 유압, 공기 브레이크 등 보조동력과 마스터 실린더, 부스터 등이 속하고, 제동장치에는 드럼, 디스크 브레이크 등이 속하며, 부수장치에는 진공펌프와 에어 컴프레셔 등이 속할 수 있다.Braking force generating devices include auxiliary power such as vacuum, hydraulic pressure, and air brakes, master cylinders, boosters, etc., brake devices include drum and disc brakes, and auxiliary devices include vacuum pumps and air compressors.
제동부(130)는 자동차의 주행 속도를 낮추거나 급정차하는 데 필요한 제동브레이크, 주차 또는 정차 상태를 유지하거나 비탈길에서 주정차한 자동차가 미끄러지지 않도록 하는 주차브레이크, 비탈길을 내려갈 때 속도를 제어하는 보조브레이크 따위로 분류된다. 또 마찰 방식에 따라 마찰식과 비마찰식으로 나뉠 수도 있다.The
전자에는 주차, 중앙, 휠, 상용, 유압, 공기 브레이크 등이, 후자에는 감속, 배기, 엔진, 전자식, 유체식 브레이크 등이 있다. The former includes parking, center, wheel, commercial, hydraulic, and air brakes, and the latter includes deceleration, exhaust, engine, electronic, and fluid brakes.
또한, 센싱부(140)는 자율주행차량(100)의 개폐 상태, 자율주행차량(100)의 위치, 자율주행차량(100)의 방위, 자율주행차량(100)의 가속/감속 등과 같이 자율주행차량(100)의 현 상태를 감지하여 자율주행차량(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. In addition, the
센싱부(140)는 전원 공급부(190)의 전원 공급 여부 을 센싱할 수도 있다. The
본 발명에 따른 센싱부(140)는 근접 센서, 초음파 센서, 거리 센서 등을 더 포함할 수도 있다.The
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(151), 음향 출력 모듈(152) 등이 포함될 수 있다.The
디스플레이부(151)는 자율주행차량(100)에서 처리되는 정보를 표시(출력)한다. The
디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. The
이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부(151)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 자율주행차량(100) 바디의 디스플레이부(151)가 차지하는 영역을 통해 자율주행차량(100) 바디의 후방에 위치한 사물을 볼 수 있다.Some of these displays may be of a transparent type or a light transmission type so that the outside can be seen through them. This may be referred to as a transparent display, and a representative example of the transparent display is TOLED (Transparent OLED) and the like. A rear structure of the
자율주행차량(100)의 구현 형태에 따라 디스플레이부(151)이 2개 이상 존재할 수 있다. Depending on the implementation form of the
디스플레이부(151)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.When the
터치 센서는 디스플레이부(151)의 특정 부위에 가해진 압력 또는 디스플레이부(151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. The touch sensor may be configured to convert a pressure applied to a specific area of the
터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.When there is a touch input to the touch sensor, the corresponding signal(s) are sent to the touch controller. The touch controller processes the signal(s) and then transmits corresponding data to the
상기 근접 센서(141)는 상기 터치스크린에 의해 감싸지는 자율주행차량(100)의 내부 영역 또는 상기 터치 스크린의 근처에 배치될 수 있다. 상기 근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다. The proximity sensor 141 may be disposed in an inner area of the
상기 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.Examples of the proximity sensor include a transmissive photoelectric sensor, a direct reflection photoelectric sensor, a mirror reflection photoelectric sensor, a high frequency oscillation type proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, an infrared proximity sensor, and the like. When the touch screen is capacitive, the proximity of the pointer is detected by a change in electric field according to the proximity of the pointer. In this case, the touch screen (touch sensor) may be classified as a proximity sensor.
음향 출력 모듈(152)은 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력할 수 있다. The
음향 출력 모듈(152)은 자율주행차량(100)에서 수행되는 기능과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력 모듈(152)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The
메모리부(160)는 제어부(180)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입/출력되는 데이터들(예를 들어, 메시지, 오디오, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다. The
메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 자율주행차량(100)은 인터넷(internet)상에서 상기 메모리(160)의 저장 기능을 The
또한, 제어부(controller, 180)는 통상적으로 자율주행차량(100)의 전반적인 동작을 제어한다. In addition, the
전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가 받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The
여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.Various embodiments described herein may be embodied in a recording medium readable by a computer or similar device using, for example, software, hardware, or a combination thereof.
하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시예들이 제어부(180) 자체로 구현될 수 있다.According to hardware implementation, the embodiments described herein include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), It may be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and electrical units for performing other functions. The described embodiments may be implemented by the
소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 메모리(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.According to software implementation, embodiments such as procedures and functions described in this specification may be implemented as separate software modules. Each of the software modules may perform one or more functions and operations described herein. The software code may be implemented as a software application written in any suitable programming language. The software code may be stored in the
한편, 도 2는 본 발명과 관련하여, 굴절버스의 각 구성요소와 관련된 구체적 블록구성도의 일례를 도시한 것이다.Meanwhile, FIG. 2 shows an example of a specific block configuration diagram related to each component of the articulated bus in relation to the present invention.
도 2를 참조하면, 2개의 차량(100a, 100b)을 굴절마디로 연결해 곡선도로에서도 휘어지면서 달릴 수 있도록 만든 자율주행차량(1)이 도시된다.Referring to FIG. 2 , a self-driving
2개의 차량(100a, 100b) 중 제 1 차량(100a)은, 제 1 차량(100a)의 위치정보를 획득하는 제 1 GPS(111a), 자율주행차량(100a) 주변의 정보를 수집하는 복수의 제 1 인지센서(141a, 142a, 143a), 복수의 제 1 인지센서가 획득한 정보를 수집 및 처리함으로써, 상기 자율주행차량 주변의 객체의 종류 및 위치 중 적어도 하나를 포함하는 제 1 정보를 생성하는 제 1 처리부(180a) 및 제 1 처리부(180a)로부터 상기 제 1 정보를 전달받고, 상기 제 1 GPS(111a)로부터 상기 제 1 차량의 위치정보를 전달받는 자율주행 제어부(200)를 포함할 수 있다.Among the two
또한, 2개의 차량(100a, 100b) 중 제 2 차량(100b)은, 제 2 차량(100b)의 위치정보를 획득하는 제 2 GPS(111b), 자율주행차량 주변의 정보를 수집하는 복수의 제 2 인지센서(141b, 142b, 143b), 복수의 제 2 인지센서가 획득한 정보를 수집 및 처리함으로써, 상기 자율주행차량 주변의 객체의 종류 및 위치 중 적어도 하나를 포함하는 제 2 정보를 생성하는 제 2 처리부(180b)를 포함할 수 있다.In addition, among the two
또한, 제 1 차량(100a)의 자율주행 제어부(200)는, 제 2 처리부(180b)로부터 상기 제 2 정보를 전달받고, 제 2 GPS(111b)로부터 상기 제 2 차량의 위치정보를 전달받으며, 제 1 차량(100a)의 위치정보와 상기 제 2 차량(100b)의 위치정보를 기초로, 상기 제 1 정보와 상기 제 2 정보의 시간을 동기화하고, 동기화된 제 1 정보와 제 2 정보를 함께 이용하여 상기 자율주행차량(100)의 운행을 제어할 수 있다.In addition, the autonomous
굴절차량은 2량 1편성으로 최대 100인승이고, 2량을 연결한 차량으로 길이가 길어서 자율주행을 위한 인지 센서의 개수도 그만큼 증가하며, 인지센서를 한꺼번에 처리하기에는 시스템 처리 용량에 무리가 있다는 문제점을 본 발명은 해결할 수 있다.The articulated vehicle has a maximum capacity of 100 people in a two-car, one-car formation, and is long as a two-car connected vehicle, so the number of cognitive sensors for autonomous driving increases accordingly, and the system processing capacity is unreasonable to process the cognitive sensors at once. The present invention can solve.
즉, 전량과 후량에 인치센서 처리 시스템을 별도로 구성하고, 이로부터 정보를 받아 판단 및 제어를 수행하고, 인지센서 처리 시스템에서는 센서정보를 가지고 객체의 종류, 위치정보를 추출하며, 전량과 후량의 GPS 신호를 각각 이용하여 두시스템의 시간 동기화를 통해 이를 해소할 수 있다.That is, the inch sensor processing system is separately configured for the former and the latter, receives information from it and performs judgment and control, and the cognitive sensor processing system extracts the type and location information of the object with sensor information, and This problem can be solved through time synchronization of the two systems using each GPS signal.
한편, 복수의 제 1 인지센서(141a, 142a, 143a) 및 복수의 제 2 인지센서(141b, 142b, 143b)는, 적어도 하나의 카메라, 적어도 하나의 라이다 및 적어도 하나의 레이더를 포함할 수 있다.Meanwhile, the plurality of
한편, 본 발명에 따르면, 트리거링 신호를 기초로 정보를 수집할 수 있다.Meanwhile, according to the present invention, information may be collected based on a triggering signal.
도 3의 (a)를 참조하면, 기존에는, 센서 별로 측정주기가 다르기 때문에, 신호처리 시점을 정하고 그 인근에서 가장 가까운 신호를 동일한 시점이라고 가정하고 처리한다는 문제점이 있었다.Referring to (a) of FIG. 3, conventionally, since the measurement period is different for each sensor, there is a problem in that a signal processing time point is determined and the signal closest to that point is assumed to be the same time point and processed.
따라서 도 3의 (b)에 도시된 것과 같이, 제 1 처리부(180a)와 상기 제 2 처리부(180b)는, 트리거링 신호를 발생시켜 상기 복수의 제 1 인지센서(141a, 142a, 143a) 및 복수의 제 2 인지센서(141b, 142b, 143b)로 전달하고, 복수의 제 1 인지센서(141a, 142a, 143a) 및 복수의 제 2 인지센서(141b, 142b, 143b)는, 상기 트리거링 신호에 따라 상기 정보를 수집함으로써, 이를 해결할 수 있다.Therefore, as shown in (b) of FIG. 3, the
제안된 방법을 통해, 인지센서 처리 시스템에서 트리거링 신호를 발생시켜 동일한 시간에 신호 취득되고, 버려지는 정보가 없고 인지 센서들간 정확한 동기화 시점 설정이 가능해진다.Through the proposed method, a triggering signal is generated in the cognitive sensor processing system, the signal is acquired at the same time, there is no discarded information, and accurate synchronization time points can be set between the cognitive sensors.
한편, 본 발명에 따르면, 트리거링 신호는 가장 측정주기가 느린 센서를 사용할 수 있다.Meanwhile, according to the present invention, the triggering signal may use a sensor having the slowest measurement period.
즉, 측정주기가 가장 느린 센서의 측정주기에 맞춰 트리거링 신호를 설정할 수 있다.That is, the triggering signal may be set according to the measurement period of the sensor having the slowest measurement period.
또한, 가장 느린 신호에 맞춰 설정하더라도, 인지센서 처리시스템에서 전체 신호를 처리하는지를 확인하고, 처리하지 못하는 경우에는 측정주기를 증가해가면서 최종 트리거일 신호 주기를 결정하도록 할 수 있다.In addition, even if it is set according to the slowest signal, it is possible to determine whether the cognitive sensor processing system processes the entire signal and, if not, to determine the signal period of the final trigger while increasing the measurement period.
한편, 도 4는 본 발명과 관련하여, 굴절버스 차량의 자율주행을 위한 제어 방법을 설명하는 순서도이다.Meanwhile, FIG. 4 is a flowchart illustrating a control method for autonomous driving of an articulated bus vehicle in relation to the present invention.
도 4를 참조하면, 2개의 차량을 굴절마디로 연결해 곡선도로에서도 휘어지면서 달릴 수 있도록 만든 자율주행차량의 제어방법은, 상기 2개의 차량 중 제 1 차량의 제 1 GPS가 상기 제 1 차량의 위치정보를 획득하고, 제 2 차량의 제 2 GPS가 상기 제 2 차량의 위치정보를 획득하는 단계와 제 1 차량의 복수의 제 1 인지센서가 상기 자율주행차량 주변의 정보를 수집하고, 상기 제 2차량의 복수의 인지센서가 상기 자율주행차량 주변의 정보를 수집하는 단계(S1, S2, S3)가 먼저 진행된다.Referring to FIG. 4, in a method for controlling an autonomous vehicle that connects two vehicles with an articulation joint so that they can run while bending on a curved road, a first GPS of a first vehicle among the two vehicles determines the location of the first vehicle. Obtaining information, a second GPS of a second vehicle acquiring location information of the second vehicle, and a plurality of first cognitive sensors of the first vehicle collecting information around the autonomous vehicle, and the second Steps (S1, S2, S3) of collecting information around the self-driving vehicle by a plurality of cognitive sensors of the vehicle are performed first.
이후, 트리거링 신호의 주기는, 복수의 제 1 인지센서 및 상기 복수의 제 2 인지센서 중 가장 측정주기가 느린 제 1 센서를 기준으로 설정되고(S4, S5), 제 1 처리부 및 상기 제 2 처리부가, 상기 트리거링 신호의 주기에 따라 상기 복수의 제 1 인지센서 및 상기 복수의 제 2 인지센서에서 획득된 모든 정보가 수집되는지 여부를 판단하여, 모든 정보가 수집되지 않는 경우, 상기 제 1 처리부 및 상기 제 2 처리부가, 상기 트리거링 신호의 주기를 재설정할 수 있다(S7, S9).Thereafter, the period of the triggering signal is set based on the first sensor having the slowest measurement period among the plurality of first cognitive sensors and the plurality of second cognitive sensors (S4, S5), and the first processing unit and the second processing unit In addition, it is determined whether all the information obtained from the plurality of first cognitive sensors and the plurality of second cognitive sensors is collected according to the period of the triggering signal, and when all information is not collected, the first processing unit and The second processing unit may reset the period of the triggering signal (S7, S9).
또한, 제 1 처리부와 상기 제 2 처리부가 트리거링 신호를 발생시켜 상기 복수의 제 1 인지센서 및 상기 복수의 제 2 인지센서로 전달하고(S6), 복수의 제 1 인지센서 및 상기 복수의 제 2 인지센서는, 상기 트리거링 신호에 따라 상기 정보를 수집하게 된다.In addition, the first processing unit and the second processing unit generate a triggering signal and transmit it to the plurality of first cognitive sensors and the plurality of second cognitive sensors (S6), and the plurality of first cognitive sensors and the plurality of second cognitive sensors. The cognitive sensor collects the information according to the triggering signal.
또한, 상기 제 1 차량의 제 1 처리부가 상기 복수의 제 1 인지센서가 획득한 정보를 수집 및 처리함으로써, 상기 자율주행차량 주변의 객체의 종류 및 위치 중 적어도 하나를 포함하는 제 1 정보를 생성하고, 상기 제 2 차량의 제 2 처리부가 상기 복수의 제 2 인지센서가 획득한 정보를 수집 및 처리함으로써, 상기 자율주행차량 주변의 객체의 종류 및 위치 중 적어도 하나를 포함하는 제 2 정보를 생성한다.In addition, the first processing unit of the first vehicle generates first information including at least one of types and locations of objects around the self-driving vehicle by collecting and processing information acquired by the plurality of first cognitive sensors. and generating second information including at least one of types and locations of objects around the self-driving vehicle by a second processing unit of the second vehicle collecting and processing information acquired by the plurality of second cognitive sensors. do.
이후, 제 1 차량의 자율주행 제어부가, 상기 제 1 처리부로부터 상기 제 1 정보를 전달받고, 상기 제 1 GPS로부터 상기 제 1 차량의 위치정보를 전달받으며, 상기 제 2 처리부로부터 상기 제 2 정보를 전달받고, 상기 제 2 GPS로부터 상기 제 2 차량의 위치정보를 전달받게 된다.Thereafter, the autonomous driving control unit of the first vehicle receives the first information from the first processing unit, receives the location information of the first vehicle from the first GPS, and receives the second information from the second processing unit. and the location information of the second vehicle is received from the second GPS.
또한, 자율주행 제어부가, 상기 제 1 차량의 위치정보와 상기 제 2 차량의 위치정보를 기초로, 상기 제 1 정보와 상기 제 2 정보의 시간을 동기화하고, 상기 동기화된 제 1 정보와 제 2 정보를 함께 이용하여 상기 자율주행차량의 운행을 제어할 수 있다.In addition, the autonomous driving control unit synchronizes the time of the first information and the second information based on the location information of the first vehicle and the location information of the second vehicle, and the synchronized first information and the second information. Operation of the self-driving vehicle may be controlled by using the information together.
따라서 본 발명은 굴절버스 차량의 자율주행을 위한 제어 시스템 및 방법 에 관한 것으로, 전량과 후량에 인지센서 처리 시스템을 별도로 구성하고, 객체의 종류, 위치정보를 추출하며, 전량과 후량의 GPS 신호를 각각 이용하여 두 시스템의 시간 동기화함으로써, 자율주행차량을 제어하는 시스템 및 방법을 사용자에게 제공할 수 있다.Therefore, the present invention relates to a control system and method for autonomous driving of an articulated bus vehicle, which separately configures a recognition sensor processing system for the first and second time, extracts the type and location information of an object, and generates GPS signals for the first and second time A system and method for controlling an autonomous vehicle can be provided to a user by synchronizing the time of the two systems using each.
구체적으로 본 발명은 자율주행 제어부가 제 1 차량의 위치정보와 제 2 차량의 위치정보를 기초로, 제 1 차량이 획득한 제 1 정보와 제 2 차량이 획득한 제 2 정보의 시간을 동기화하고, 동기화된 제 1 정보와 제 2 정보를 함께 이용하여 자율주행차량의 운행을 제어하는 것을 특징으로 하는 자율주행차량, 시스템 및 방법을 사용자에게 제공할 수 있다.Specifically, the present invention provides an autonomous driving control unit to synchronize the time of first information acquired by the first vehicle and second information obtained by the second vehicle based on location information of the first vehicle and location information of the second vehicle, and , It is possible to provide a self-driving vehicle, a system and a method characterized in that the operation of the autonomous vehicle is controlled by using the synchronized first and second information together to the user.
한편, 상술한 본 발명의 실시예들은 다양한 수단을 통해 구현될 수 있다. 예를 들어, 본 발명의 실시예들은 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다. Meanwhile, the above-described embodiments of the present invention may be implemented through various means. For example, embodiments of the present invention may be implemented by hardware, firmware, software, or a combination thereof.
하드웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 프로세서, 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.In the case of hardware implementation, the method according to the embodiments of the present invention includes one or more ASICs (Application Specific Integrated Circuits), DSPs (Digital Signal Processors), DSPDs (Digital Signal Processing Devices), PLDs (Programmable Logic Devices) , Field Programmable Gate Arrays (FPGAs), processors, controllers, microcontrollers, microprocessors, etc.
펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차 또는 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리 유닛에 저장되어 프로세서에 의해 구동될 수 있다. 상기 메모리 유닛은 상기 프로세서 내부 또는 외부에 위치하여, 이미 공지된 다양한 수단에 의해 상기 프로세서와 데이터를 주고 받을 수 있다.In the case of implementation by firmware or software, the method according to the embodiments of the present invention may be implemented in the form of a module, procedure, or function that performs the functions or operations described above. The software code may be stored in a memory unit and driven by a processor. The memory unit may be located inside or outside the processor and exchange data with the processor by various means known in the art.
상술한 바와 같이 개시된 본 발명의 바람직한 실시예들에 대한 상세한 설명은 당업자가 본 발명을 구현하고 실시할 수 있도록 제공되었다. 상기에서는 본 발명의 바람직한 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 본 발명의 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 예를 들어, 당업자는 상술한 실시예들에 기재된 각 구성을 서로 조합하는 방식으로 이용할 수 있다. 따라서, 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다.Detailed descriptions of the preferred embodiments of the present invention disclosed as described above are provided to enable those skilled in the art to implement and practice the present invention. Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art will understand that the present invention can be variously modified and changed without departing from the scope of the present invention. For example, those skilled in the art can use each configuration described in the above-described embodiments in a way of combining each other. Thus, the present invention is not intended to be limited to the embodiments shown herein but is to be accorded the widest scope consistent with the principles and novel features disclosed herein.
본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다. 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다. 또한, 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함할 수 있다.The present invention can be embodied in other specific forms without departing from the spirit and essential characteristics of the present invention. Accordingly, the above detailed description should not be construed as limiting in all respects and should be considered as illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention. The invention is not intended to be limited to the embodiments shown herein but is to be accorded the widest scope consistent with the principles and novel features disclosed herein. In addition, claims that do not have an explicit citation relationship in the claims may be combined to form an embodiment or may be included as new claims by amendment after filing.
Claims (9)
상기 2개의 차량 중 제 1 차량은,
상기 제 1 차량의 위치정보를 획득하는 제 1 GPS;
상기 자율주행차량 주변의 정보를 수집하는 복수의 제 1 인지센서;
상기 복수의 제 1 인지센서가 획득한 정보를 수집 및 처리함으로써, 상기 자율주행차량 주변의 객체의 종류 및 위치 중 적어도 하나를 포함하는 제 1 정보를 생성하는 제 1 처리부; 및
상기 제 1 처리부로부터 상기 제 1 정보를 전달받고, 상기 제 1 GPS로부터 상기 제 1 차량의 위치정보를 전달받는 자율주행 제어부;를 포함하고,
상기 2개의 차량 중 제 2 차량은,
상기 제 2 차량의 위치정보를 획득하는 제 2 GPS;
상기 자율주행차량 주변의 정보를 수집하는 복수의 제 2 인지센서; 및
상기 복수의 제 2 인지센서가 획득한 정보를 수집 및 처리함으로써, 상기 자율주행차량 주변의 객체의 종류 및 위치 중 적어도 하나를 포함하는 제 2 정보를 생성하는 제 2 처리부;를 포함하며,
상기 자율주행 제어부는,
상기 제 2 처리부로부터 상기 제 2 정보를 전달받고,
상기 제 2 GPS로부터 상기 제 2 차량의 위치정보를 전달받으며,
상기 제 1 차량의 위치정보와 상기 제 2 차량의 위치정보를 기초로, 상기 제 1 정보와 상기 제 2 정보의 시간을 동기화하고,
상기 동기화된 제 1 정보와 제 2 정보를 함께 이용하여 상기 자율주행차량의 운행을 제어하며,
상기 복수의 제 1 인지센서 및 상기 복수의 제 2 인지센서는,
적어도 하나의 카메라, 적어도 하나의 라이다 및 적어도 하나의 레이더를 포함하고,
상기 제 1 처리부와 상기 제 2 처리부는,
트리거링 신호를 발생시켜 상기 복수의 제 1 인지센서 및 상기 복수의 제 2 인지센서로 전달하고,
상기 복수의 제 1 인지센서 및 상기 복수의 제 2 인지센서는, 상기 트리거링 신호에 따라 상기 정보를 수집하는 것을 특징으로 하는 자율주행차량.
In an autonomous vehicle that connects two vehicles with an articulated joint so that they can run while bending on a curved road,
The first vehicle of the two vehicles,
a first GPS acquiring location information of the first vehicle;
a plurality of first recognition sensors for collecting information around the self-driving vehicle;
a first processing unit generating first information including at least one of types and locations of objects around the self-driving vehicle by collecting and processing information acquired by the plurality of first cognitive sensors; and
An autonomous driving control unit that receives the first information from the first processing unit and receives location information of the first vehicle from the first GPS unit;
The second vehicle of the two vehicles,
a second GPS acquiring location information of the second vehicle;
a plurality of second cognitive sensors that collect information about the self-driving vehicle; and
A second processing unit configured to generate second information including at least one of types and locations of objects around the self-driving vehicle by collecting and processing information acquired by the plurality of second cognitive sensors;
The autonomous driving control unit,
receiving the second information from the second processing unit;
Receiving location information of the second vehicle from the second GPS,
Synchronizing times of the first information and the second information based on the location information of the first vehicle and the location information of the second vehicle;
Controlling the operation of the autonomous vehicle by using the synchronized first and second information together;
The plurality of first recognition sensors and the plurality of second recognition sensors,
at least one camera, at least one lidar and at least one radar;
The first processing unit and the second processing unit,
A triggering signal is generated and transmitted to the plurality of first cognitive sensors and the plurality of second cognitive sensors,
The plurality of first cognitive sensors and the plurality of second cognitive sensors collect the information according to the triggering signal.
상기 트리거링 신호의 주기는,
상기 복수의 제 1 인지센서 및 상기 복수의 제 2 인지센서 중 가장 측정주기가 느린 제 1 센서를 기준으로 설정되는 것을 특징으로 하는 자율주행차량.
According to claim 1,
The period of the triggering signal is
The self-driving vehicle, characterized in that set based on a first sensor having the slowest measurement cycle among the plurality of first cognitive sensors and the plurality of second cognitive sensors.
상기 제 1 처리부 및 상기 제 2 처리부는,
상기 트리거링 신호의 주기에 따라 상기 복수의 제 1 인지센서 및 상기 복수의 제 2 인지센서에서 획득된 모든 정보가 수집되는지 여부를 판단하고,
상기 모든 정보가 수집되지 않는 경우,
상기 트리거링 신호의 주기를 재설정하는 것을 특징으로 하는 자율주행차량.According to claim 4,
The first processing unit and the second processing unit,
Determine whether all information obtained from the plurality of first cognitive sensors and the plurality of second cognitive sensors is collected according to the period of the triggering signal;
If all of the above information is not collected,
Self-driving vehicle, characterized in that for resetting the period of the triggering signal.
상기 2개의 차량 중 제 1 차량의 제 1 GPS가 상기 제 1 차량의 위치정보를 획득하고, 제 2 차량의 제 2 GPS가 상기 제 2 차량의 위치정보를 획득하는 제 1 단계;
상기 제 1 차량의 복수의 제 1 인지센서가 상기 자율주행차량 주변의 정보를 수집하고, 상기 제 2차량의 복수의 인지센서가 상기 자율주행차량 주변의 정보를 수집하는 제 2 단계;
상기 제 1 차량의 제 1 처리부가 상기 복수의 제 1 인지센서가 획득한 정보를 수집 및 처리함으로써, 상기 자율주행차량 주변의 객체의 종류 및 위치 중 적어도 하나를 포함하는 제 1 정보를 생성하고, 상기 제 2 차량의 제 2 처리부가 상기 복수의 제 2 인지센서가 획득한 정보를 수집 및 처리함으로써, 상기 자율주행차량 주변의 객체의 종류 및 위치 중 적어도 하나를 포함하는 제 2 정보를 생성하는 제 3 단계;
상기 제 1 차량의 자율주행 제어부가, 상기 제 1 처리부로부터 상기 제 1 정보를 전달받고, 상기 제 1 GPS로부터 상기 제 1 차량의 위치정보를 전달받으며, 상기 제 2 처리부로부터 상기 제 2 정보를 전달받고, 상기 제 2 GPS로부터 상기 제 2 차량의 위치정보를 전달받는 제 4 단계; 및
상기 자율주행 제어부가, 상기 제 1 차량의 위치정보와 상기 제 2 차량의 위치정보를 기초로, 상기 제 1 정보와 상기 제 2 정보의 시간을 동기화하고, 상기 동기화된 제 1 정보와 제 2 정보를 함께 이용하여 상기 자율주행차량의 운행을 제어하는 제 5 단계;를 포함하고,
상기 복수의 제 1 인지센서 및 상기 복수의 제 2 인지센서는,
적어도 하나의 카메라, 적어도 하나의 라이다 및 적어도 하나의 레이더를 포함하고,
상기 제 1 단계와 상기 제 2 단계 사이에,
상기 제 1 처리부와 상기 제 2 처리부가 트리거링 신호를 발생시켜 상기 복수의 제 1 인지센서 및 상기 복수의 제 2 인지센서로 전달하는 제 1.5 단계;를 더 포함하고,
상기 제 2 단계에서,
상기 복수의 제 1 인지센서 및 상기 복수의 제 2 인지센서는, 상기 트리거링 신호에 따라 상기 정보를 수집하는 것을 특징으로 하는 자율주행차량의 제어방법.
In the control method of an autonomous vehicle that connects two vehicles with an articulated joint so that they can run while bending on a curved road,
a first step in which a first GPS of a first vehicle among the two vehicles acquires location information of the first vehicle and a second GPS of a second vehicle obtains location information of the second vehicle;
a second step of collecting information around the self-driving vehicle by a plurality of first cognitive sensors of the first vehicle and collecting information about the autonomous vehicle by a plurality of cognitive sensors of the second vehicle;
A first processing unit of the first vehicle generates first information including at least one of a type and a location of an object around the autonomous vehicle by collecting and processing information acquired by the plurality of first cognitive sensors; A second processing unit of the second vehicle collects and processes information obtained by the plurality of second cognitive sensors to generate second information including at least one of a type and a location of an object around the self-driving vehicle. Step 3;
The autonomous driving control unit of the first vehicle receives the first information from the first processing unit, receives location information of the first vehicle from the first GPS, and transmits the second information from the second processing unit. a fourth step of receiving and receiving location information of the second vehicle from the second GPS; and
The autonomous driving control unit synchronizes the time of the first information and the second information based on the location information of the first vehicle and the location information of the second vehicle, and the synchronized first information and second information A fifth step of controlling the operation of the self-driving vehicle by using together; including,
The plurality of first recognition sensors and the plurality of second recognition sensors,
at least one camera, at least one lidar and at least one radar;
Between the first step and the second step,
A 1.5 step of generating a triggering signal by the first processing unit and the second processing unit and transmitting the triggering signal to the plurality of first cognitive sensors and the plurality of second cognitive sensors; further comprising,
In the second step,
The plurality of first cognitive sensors and the plurality of second cognitive sensors collect the information according to the triggering signal.
상기 트리거링 신호의 주기는,
상기 복수의 제 1 인지센서 및 상기 복수의 제 2 인지센서 중 가장 측정주기가 느린 제 1 센서를 기준으로 설정되는 것을 특징으로 하는 자율주행차량의 제어방법.
According to claim 6,
The period of the triggering signal is
The method of controlling an autonomous vehicle, characterized in that set based on a first sensor having the slowest measurement cycle among the plurality of first cognitive sensors and the plurality of second cognitive sensors.
상기 제 5 단계 이후에는,
상기 제 1 처리부 및 상기 제 2 처리부가, 상기 트리거링 신호의 주기에 따라 상기 복수의 제 1 인지센서 및 상기 복수의 제 2 인지센서에서 획득된 모든 정보가 수집되는지 여부를 판단하는 제 6 단계; 및
상기 모든 정보가 수집되지 않는 경우, 상기 제 1 처리부 및 상기 제 2 처리부가, 상기 트리거링 신호의 주기를 재설정하는 제 7 단계;를 더 포함하는 것을 특징으로 하는 자율주행차량의 제어방법.According to claim 8,
After the fifth step,
A sixth step of determining, by the first processing unit and the second processing unit, whether all information acquired from the plurality of first cognitive sensors and the plurality of second cognitive sensors is collected according to a period of the triggering signal; and
and a seventh step of resetting, by the first processing unit and the second processing unit, a cycle of the triggering signal when all of the information is not collected.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210022345A KR102469413B1 (en) | 2021-02-19 | 2021-02-19 | Control system and method for autonomous driving of refractory bus vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210022345A KR102469413B1 (en) | 2021-02-19 | 2021-02-19 | Control system and method for autonomous driving of refractory bus vehicle |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220119538A KR20220119538A (en) | 2022-08-30 |
KR102469413B1 true KR102469413B1 (en) | 2022-11-24 |
Family
ID=83114302
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210022345A KR102469413B1 (en) | 2021-02-19 | 2021-02-19 | Control system and method for autonomous driving of refractory bus vehicle |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102469413B1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008273504A (en) | 2007-02-22 | 2008-11-13 | Honeywell Internatl Inc | Electronic preventive mechanism for articulated vehicle |
JP2013225826A (en) * | 2012-03-19 | 2013-10-31 | Casio Comput Co Ltd | Imaging apparatus, imaging method, and program |
JP2014097691A (en) * | 2012-11-13 | 2014-05-29 | Denso Corp | Driving support unit, and driving support system |
JP2018531530A (en) * | 2015-07-31 | 2018-10-25 | コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH | Method and apparatus for displaying surrounding scene of vehicle / towed vehicle combination |
JP2020144620A (en) | 2019-03-06 | 2020-09-10 | 本田技研工業株式会社 | Vehicle controller, information providing device, information providing system, vehicle control method, information providing method, and program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100873472B1 (en) | 2006-10-30 | 2008-12-15 | 한국전자통신연구원 | Location information provision and information collection device using wireless recognition technology and method thereof |
KR101017604B1 (en) | 2009-10-16 | 2011-02-28 | 한국과학기술원 | On line electric vechicle location recognition system |
KR20150075774A (en) * | 2013-12-26 | 2015-07-06 | 한국전자통신연구원 | Autonomous driving vehicle and infra for supporting autonomous drive |
-
2021
- 2021-02-19 KR KR1020210022345A patent/KR102469413B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008273504A (en) | 2007-02-22 | 2008-11-13 | Honeywell Internatl Inc | Electronic preventive mechanism for articulated vehicle |
JP2013225826A (en) * | 2012-03-19 | 2013-10-31 | Casio Comput Co Ltd | Imaging apparatus, imaging method, and program |
JP2014097691A (en) * | 2012-11-13 | 2014-05-29 | Denso Corp | Driving support unit, and driving support system |
JP2018531530A (en) * | 2015-07-31 | 2018-10-25 | コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH | Method and apparatus for displaying surrounding scene of vehicle / towed vehicle combination |
JP2020144620A (en) | 2019-03-06 | 2020-09-10 | 本田技研工業株式会社 | Vehicle controller, information providing device, information providing system, vehicle control method, information providing method, and program |
Also Published As
Publication number | Publication date |
---|---|
KR20220119538A (en) | 2022-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102275507B1 (en) | Vehicle control device mounted on vehicle and method for controlling the vehicle | |
US10872143B2 (en) | Recognizing assigned passengers for autonomous vehicles | |
US9902398B2 (en) | Driving control device | |
KR102037324B1 (en) | Autonomous vehicle and method of controlling the same | |
KR20190078105A (en) | Autonomous vehicle and method of controlling the same | |
CN111148674A (en) | Autonomous vehicle and control method thereof | |
US20190101915A1 (en) | Vehicle driving control apparatus and vehicle driving method | |
US20200114904A1 (en) | Autonomous parking apparatus and method | |
KR20190109608A (en) | Control device and method for autonomousvehicles by using network | |
CN112874511B (en) | Automatic driving control method and device for automobile and computer storage medium | |
KR102469413B1 (en) | Control system and method for autonomous driving of refractory bus vehicle | |
KR101916427B1 (en) | Radar apparatus for vehicle | |
KR102433345B1 (en) | Method and apparatus for providing information using vehicle's camera | |
KR102041682B1 (en) | Control system for autonomous vehicle using tag and its control method | |
KR20190019681A (en) | Vehicle control device mounted on vehicle and method for controlling the vehicle | |
KR102007087B1 (en) | Autonomous vehicle and its control method using Vehicle to Vehicle antenna | |
KR101985496B1 (en) | Driving assistance apparatus and vehicle having the same | |
KR102414764B1 (en) | System and Method for Automating Multi-Sensor Calibration of refraction vehicle | |
KR101929816B1 (en) | Vehicle controlling device mounted at vehicle and method for controlling the vehicle | |
KR102441972B1 (en) | Control System and Control Method for Railway Crossing of Self-driving Vehicles | |
KR102538256B1 (en) | A system and method for creating routes for self-driving public transportation based on destination | |
KR102064421B1 (en) | Vehicle control device mounted on vehicle and method for controlling the vehicle | |
KR20240047807A (en) | Method and device for synchronizing data acquired by multiple sensors | |
KR20240050539A (en) | Self-driving public transportation support system and control method to detect changes in vehicle weight according to passenger getting on and off | |
KR20240081899A (en) | Automatic parking system with vehicle remote control technology |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |