KR102656811B1 - System and method for controlling autonomous driving vehicle based on multiple sensor data - Google Patents
System and method for controlling autonomous driving vehicle based on multiple sensor data Download PDFInfo
- Publication number
- KR102656811B1 KR102656811B1 KR1020210178446A KR20210178446A KR102656811B1 KR 102656811 B1 KR102656811 B1 KR 102656811B1 KR 1020210178446 A KR1020210178446 A KR 1020210178446A KR 20210178446 A KR20210178446 A KR 20210178446A KR 102656811 B1 KR102656811 B1 KR 102656811B1
- Authority
- KR
- South Korea
- Prior art keywords
- sensing data
- sensor
- autonomous driving
- data
- sensors
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 230000002159 abnormal effect Effects 0.000 claims abstract description 53
- 230000007613 environmental effect Effects 0.000 claims description 5
- 238000012790 confirmation Methods 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims description 2
- 238000012545 processing Methods 0.000 description 21
- 230000015654 memory Effects 0.000 description 15
- 230000007547 defect Effects 0.000 description 11
- 230000004044 response Effects 0.000 description 10
- 238000006243 chemical reaction Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000005856 abnormality Effects 0.000 description 2
- 230000009118 appropriate response Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000002950 deficient Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 206010041349 Somnolence Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/02—Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0002—Automatic control, details of type of controller or control system architecture
- B60W2050/0004—In digital systems, e.g. discrete-time systems involving sampling
- B60W2050/0005—Processor details or data handling, e.g. memory registers or chip architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/02—Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
- B60W50/0205—Diagnosing or detecting failures; Failure detection models
- B60W2050/0215—Sensor drifts or sensor failures
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Traffic Control Systems (AREA)
Abstract
본 개시는, 적어도 하나의 프로세서에 의해 실행되는, 복수의 센서 데이터에 기반한 자율주행 제어 방법을 제공한다. 이 방법은, 복수의 센서로부터 복수의 제1 센싱 데이터를 수신하는 단계, 복수의 제1 센싱 데이터의 도메인을 변환하여 복수의 제2 센싱 데이터를 생성하는 단계, 복수의 제2 센싱 데이터의 비교 결과에 기초하여, 복수의 센서 중에서 비정상적인 센싱 데이터를 생성하는 센서를 감지하는 단계 및, 비정상적인 센싱 데이터를 생성하는 센서가 감지된 경우, 경고 메시지를 출력하는 단계를 포함할 수 있다.The present disclosure provides an autonomous driving control method based on a plurality of sensor data, executed by at least one processor. This method includes receiving a plurality of first sensing data from a plurality of sensors, converting the domain of the plurality of first sensing data to generate a plurality of second sensing data, and comparing results of the plurality of second sensing data. Based on this, it may include detecting a sensor that generates abnormal sensing data among a plurality of sensors, and outputting a warning message when a sensor that generates abnormal sensing data is detected.
Description
본 개시는 복수의 센서 데이터에 기반한 자율주행 제어 시스템 및 방법에 관한 것으로, 보다 상세하게는, 이종 센서들이 감지한 주변 정보에 관한 입력 데이터를 비교함으로써 입력 데이터에 문제가 발생한 센서를 검출하여, 안전하고 효율적인 자율주행을 실행할 수 있는 자율주행 시스템 및 방법에 관한 것이다.The present disclosure relates to an autonomous driving control system and method based on a plurality of sensor data, and more specifically, by comparing input data regarding surrounding information detected by heterogeneous sensors to detect sensors with problems with input data, thereby ensuring safety. It relates to an autonomous driving system and method that can perform efficient autonomous driving.
자율주행 시스템은 신뢰성 있는 주행 및 안전보장을 위해 복수의 이종 센서들, 복수의 전력공급장치 또는 복수의 컴퓨팅 컴포넌트들을 사용할 수 있다. 예를 들어, 복수의 컴퓨팅 컴포넌트들(또는 프로세서들)이 동일한 센서 데이터를 처리하여 자율주행 제어 신호들을 생성하는 경우, 자율주행 제어 신호들을 비교함으로써 동작 오류가 발생한 프로세서를 감지하고, 이에 대한 적절한 대응 절차를 실행함으로써 보다 신뢰성 있는 자율 주행을 구현할 수 있다. 또한, 효과적이고 안정적으로 자율 주행차를 운용하기 위해 다양한 소프트웨어 및 하드웨어의 보강이 이루어지고 있다.An autonomous driving system may use multiple heterogeneous sensors, multiple power supplies, or multiple computing components to ensure reliable driving and safety. For example, when multiple computing components (or processors) process the same sensor data to generate autonomous driving control signals, detect the processor in which an operation error occurred by comparing the autonomous driving control signals, and respond appropriately. By executing the procedure, more reliable autonomous driving can be achieved. In addition, various software and hardware enhancements are being made to operate autonomous vehicles effectively and stably.
자율주행 시스템의 오작동은 인명 피해 및 커다란 재산의 손실을 야기시킬 수 있는 만큼, 제조사 책임 설계가 필요하다. 이를 위해, 자율주행 시스템은, 모든 상황에 평균적으로 잘 대처하도록 구현되기 보다는 한정적인 상황일지라도 치명적인 오류나 실패에 적절히 대응할 수 있도록 개발되고 있다.Because malfunctions in autonomous driving systems can cause casualties and significant property damage, manufacturers are required to take responsibility for their design. To this end, autonomous driving systems are being developed to respond appropriately to fatal errors or failures even in limited situations, rather than being implemented to respond well to all situations on average.
예를 들어, 자율주행 시스템의 신뢰성을 구현하기 위해서, 시스템의 구성요소들이 극한의 상황(고열, 고압, 과전류, 충격 등)에서 견딜 수 있도록 하드웨어적 요소를 강화하는 기술들이 개발되고 있다. 이와 더불어, 시스템 내부의 회로 혹은 소프트웨어의 오류를 검출하기 위해 자체 결함 테스트를 하는 등, 실시간으로 각 컴포넌트들의 동작 상태를 모니터링 하는 방법들이 연구되고 있다.For example, in order to realize the reliability of autonomous driving systems, technologies are being developed to strengthen hardware elements so that system components can withstand extreme situations (high heat, high pressure, overcurrent, shock, etc.). In addition, methods for monitoring the operating status of each component in real time, such as conducting self-defect tests to detect errors in circuits or software within the system, are being studied.
일반적으로 자율주행 시스템에서, 센서의 결함을 검출함에 있어 BIST(내장 자체 시험) 등과 같이 센서 내부 회로 또는 하드웨어 및 센서와 관련한 소프트웨어 결함을 검출하는 방법들이 다수 존재한다. 그러나 센서가 정상 작동 상태에 있음에도, 열악한 도로 환경(예를 들어, 터널 내부, 기상 악화, 야간 상황, 운전자를 향한 직사광선 등)이나 센서 감지를 방해하는 장해요소들(예를 들어, 센서 주변에 부착되는 이물질 등)에 의해 센서의 입력이 올바르지 않은 경우, 센서를 고장으로 잘못 인식하거나, 자율주행 시스템에 주변 상황에 대한 잘못된 정보가 입력될 수 있다. In general, in detecting sensor defects in an autonomous driving system, there are many methods for detecting defects in the sensor's internal circuit or hardware and software related to the sensor, such as BIST (Built-in Self-Test). However, even if the sensor is in normal operating condition, there are adverse road environments (e.g. inside a tunnel, bad weather, night situations, direct sunlight toward the driver, etc.) or obstacles that interfere with sensor detection (e.g. attached to the sensor area). If the sensor input is incorrect due to foreign substances, etc.), the sensor may be incorrectly recognized as malfunctioning, or incorrect information about the surrounding situation may be input to the autonomous driving system.
한편, 종래의 자율주행 기술 중에서, 다양한 상황에서 주변 환경 인식의 정확도 및 신뢰도를 높이기 위한 방법으로서, 센서에 의해 취득한 데이터를 인공신경망을 이용하여 분석 및 분류하는 다양한 방법이 제시되고 있다. 하지만, 실제로 센서 외부의 장해요소들이 존재하는 경우, 센서 자체의 결함이 발생하지 않았음에도 센서의 결함으로 판단하고, 결함이 있다고 판단된 센서의 데이터를 배제할 수 있다. 다른 경우, 인공신경망이 잘못 입력된 센서 데이터를 배제하지 않고 계산에 포함시킨 경우, 자율주행 제어 신호가 부적합 하게 생성되어 사고 발생의 위험성이 증가할 수 있다. Meanwhile, among conventional autonomous driving technologies, various methods have been proposed to analyze and classify data acquired by sensors using artificial neural networks as a method to increase the accuracy and reliability of recognition of the surrounding environment in various situations. However, if there are actual obstacles outside the sensor, it may be determined that the sensor is defective even though there is no defect in the sensor itself, and data from the sensor determined to be defective can be excluded. In other cases, if the artificial neural network includes incorrectly input sensor data in the calculations instead of excluding it, autonomous driving control signals may be generated inappropriately, increasing the risk of accidents.
본 개시는, 이상 설명한 종래의 자율주행 시스템의 문제점을 해결하기 위해, 복수의 센서 데이터에 기반한 자율주행 제어 시스템 및 방법을 제공한다.The present disclosure provides an autonomous driving control system and method based on a plurality of sensor data to solve the problems of the conventional autonomous driving system described above.
본 개시의 일 실시예에 따르면, 적어도 하나의 프로세서에 의해 실행되는, 복수의 센서 데이터에 기반한 자율주행 제어 방법은, 복수의 센서로부터 복수의 제1 센싱 데이터를 수신하는 단계, 복수의 제1 센싱 데이터의 도메인을 변환하여 복수의 제2 센싱 데이터를 생성하는 단계, 복수의 제2 센싱 데이터의 비교 결과에 기초하여, 상기 복수의 센서 중에서 비정상적인 센싱 데이터를 생성하는 센서를 감지하는 단계 및 상기 비정상적인 센싱 데이터를 생성하는 센서가 감지된 경우, 경고 메시지를 출력하는 단계를 포함하는, 자율주행 제어 방법을 포함할 수 있다.According to an embodiment of the present disclosure, an autonomous driving control method based on a plurality of sensor data, executed by at least one processor, includes receiving a plurality of first sensing data from a plurality of sensors, a plurality of first sensing Converting the domain of data to generate a plurality of second sensing data, detecting a sensor generating abnormal sensing data among the plurality of sensors based on a comparison result of the plurality of second sensing data, and detecting a sensor generating abnormal sensing data An autonomous driving control method may be included, including outputting a warning message when a sensor generating data is detected.
일 실시예에 따르면, 복수의 제2 센싱 데이터의 비교 결과에 기초하여, 복수의 센서 중에서 자율주행 차량의 환경 요인에 따른 비정상적인 센싱 데이터를 생성하는 센서를 감지하는 단계는, 복수의 제2 센싱 데이터 중 다른 센싱 데이터와의 유사도가 가장 낮은 센싱 데이터를 생성하는 센서를 감지하는 단계를 포함하는, 자율주행 제어 방법을 포함할 수 있다.According to one embodiment, based on a comparison result of a plurality of second sensing data, the step of detecting a sensor that generates abnormal sensing data according to environmental factors of the autonomous vehicle among the plurality of sensors includes a plurality of second sensing data. An autonomous driving control method may be included, including detecting a sensor that generates sensing data with the lowest similarity to other sensing data.
일 실시예에 따르면, 복수의 제2 센싱 데이터의 비교 결과에 기초하여, 복수의 센서 중에서 자율주행 차량의 환경 요인에 따른 비정상적인 센싱 데이터를 생성하는 센서를 감지하는 단계는, 복수의 제2 센싱 데이터 중 다른 센싱 데이터와의 차이가 사전 결정된 임계치를 초과하는 센싱 데이터를 생성하는 센서를 감지하는 단계를 포함할 수 있다.According to one embodiment, based on a comparison result of a plurality of second sensing data, the step of detecting a sensor that generates abnormal sensing data according to environmental factors of the autonomous vehicle among the plurality of sensors includes a plurality of second sensing data. It may include detecting a sensor that generates sensing data whose difference from other sensing data exceeds a predetermined threshold.
일 실시예에 따르면, 비정상적인 센싱 데이터를 생성하는 센서가 감지된 경우, 경고 메시지를 출력하는 단계는, 비정상적인 센싱 데이터가 자율주행 차량의 환경 요인에 따른 것인지를 확인 요청하는 경고 메시지를 출력하는 단계를 포함할 수 있다.According to one embodiment, when a sensor generating abnormal sensing data is detected, the step of outputting a warning message includes outputting a warning message requesting confirmation whether the abnormal sensing data is due to environmental factors of the autonomous vehicle. It can be included.
일 실시예에 따르면, 자율주행 제어 방법은, 비정상적인 센싱 데이터를 생성하는 센서가 감지된 경우, 자율주행 차량의 운전 모드를 반자율 주행 모드 또는 수동 주행 모드로 전환하는 단계를 더 포함할 수 있다.According to one embodiment, the autonomous driving control method may further include switching the driving mode of the autonomous vehicle to a semi-autonomous driving mode or a manual driving mode when a sensor generating abnormal sensing data is detected.
일 실시예에 따르면, 자율주행 제어 방법은, 비정상적인 센싱 데이터를 생성하는 센서가 감지된 경우, 자율주행 차량이 비상 주행 경로로 주행하도록 제어하는 단계를 더 포함할 수 있다.According to one embodiment, the autonomous driving control method may further include controlling the autonomous vehicle to drive on an emergency driving path when a sensor generating abnormal sensing data is detected.
일 실시예에 따르면, 복수의 센서는, 레이더 센서, 라이다(LiDAR) 센서, 적외선 센서 및 카메라 중 적어도 하나를 포함할 수 있다.According to one embodiment, the plurality of sensors may include at least one of a radar sensor, a LiDAR sensor, an infrared sensor, and a camera.
일 실시예에 따르면, 복수의 제1 센싱 데이터의 도메인을 변환하여 복수의 제2 센싱 데이터를 생성하는 단계는, 복수의 제1 센싱 데이터를 2차원 도메인의 이미지 데이터로 변환하여 상기 복수의 제2 센싱 데이터를 생성하는 단계를 포함할 수 있다.According to one embodiment, the step of generating a plurality of second sensing data by converting the domain of the plurality of first sensing data includes converting the plurality of first sensing data into image data of a two-dimensional domain to generate the plurality of second sensing data. It may include generating sensing data.
일 실시예에 따르면, 복수의 센서 데이터에 기반한 자율주행 제어 시스템은, 메모리와 연결되고, 메모리에 포함된 컴퓨터 판독 가능한 적어도 하나의 프로그램을 실행하도록 구성된 적어도 하나의 프로세서를 포함하고, 적어도 하나의 프로그램은, 복수의 센서로부터 복수의 제1 센싱 데이터를 수신하고, 복수의 제1 센싱 데이터의 도메인을 변환하여 복수의 제2 센싱 데이터를 생성하고, 상기 복수의 제2 센싱 데이터의 비교 결과에 기초하여, 상기 복수의 센서 중에서 비정상적인 센싱 데이터를 생성하는 센서를 감지하고, 비정상적인 센싱 데이터를 생성하는 센서가 감지된 경우, 경고 메시지를 출력하기 위한 명령어들을 포함할 수 있다.According to one embodiment, an autonomous driving control system based on a plurality of sensor data includes at least one processor connected to a memory and configured to execute at least one computer-readable program included in the memory, and at least one program Receives a plurality of first sensing data from a plurality of sensors, converts the domain of the plurality of first sensing data to generate a plurality of second sensing data, and based on the comparison result of the plurality of second sensing data , may include instructions for detecting a sensor generating abnormal sensing data among the plurality of sensors and outputting a warning message when a sensor generating abnormal sensing data is detected.
본 개시의 다양한 실시예들에 따르면, 자율주행 시스템은, 외부 환경의 변화나 장해요소들에 의해 발생한 센서 입력 오류를 식별하여 이에 대한 적절한 대응을 실행할 수 있다. 이를 통해, 자율주행 시스템이, 센서 입력 오류에 대해 불필요하거나 잘못된 응답으로써 동작함으로써 불필요하게 전력을 사용하거나 사고가 발생할 수 있는 가능성을 감소시켜, 자율주행의 효율성 및 신뢰도를 향상시킬 수 있다.According to various embodiments of the present disclosure, the autonomous driving system can identify sensor input errors caused by changes in the external environment or obstacles and take appropriate responses to them. Through this, the efficiency and reliability of autonomous driving can be improved by reducing the possibility that the autonomous driving system may use power unnecessarily or cause an accident by operating with unnecessary or incorrect responses to sensor input errors.
본 개시의 다양한 실시예들에 따르면, 센서 입력 오류 여부 뿐만 아니라, 운전자의 현재 상태를 파악하여 그에 적합한 대응을 실행함으로써, 자율주행 시스템의 안전성과 신뢰성을 더욱 향상시킬 수 있다. 또한, 자율주행 시스템의 목적 중 하나인 안전하고 신속한 이동을 구현하기에 알맞은 자율주행 방법을 제공함으로써, 탑승자가 편안하고 안전하게 목적지까지 갈 수 있도록 도움을 줄 수 있다. According to various embodiments of the present disclosure, the safety and reliability of the autonomous driving system can be further improved by determining not only whether there is a sensor input error but also the current state of the driver and executing an appropriate response. In addition, by providing an autonomous driving method suitable for implementing safe and rapid movement, which is one of the purposes of the autonomous driving system, it can help passengers reach their destination comfortably and safely.
본 개시의 다양한 실시예들에 따르면, 자율주행 시스템을 사용하는 이동수단의 운전자 또는 탑승자가 시스템 결함에 대응하는 방법에 있어, 자율주행 시스템의 동작 오류가 심각한 내부적 결함에 의한 것인지 혹은 운전자가 간단히 대처할 수 있는지를 파악하도록 가이드를 제공함으로써, 운전자 스스로가 시스템의 결함에 알맞은 대처를 할 수 있는 데에 도움을 줄 수 있다. According to various embodiments of the present disclosure, in a method for a driver or passenger of a vehicle using an autonomous driving system to respond to a system defect, whether the operation error of the autonomous driving system is due to a serious internal defect or the driver can simply respond to it. By providing guidance to identify possible defects in the system, it can help drivers themselves take appropriate action against system defects.
본 개시의 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급되지 않은 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present disclosure are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.
본 개시의 실시예들은, 이하 설명하는 첨부 도면들을 참조하여 설명될 것이며, 여기서 유사한 참조 번호는 유사한 요소들을 나타내지만, 이에 한정되지는 않는다.
도 1은 본 개시의 일 실시예에 따른 자율주행 시스템의 구성 및 외부의 장해 요소에 따른 센서 데이터 입력 오류의 예시를 나타내는 도면이다.
도 2는 본 개시의 일 실시예에 따른 자율주행 제어 시스템의 구성을 나타내는 블록도이다.
도 3은 본 개시의 일 실시예에 따른 복수의 이종 센서로부터 수신된 데이터를 비교하여 비정상 센싱 데이터를 식별하는 방법의 예시를 도시한다.
도 4는 본 개시의 일 실시예에 따른 운전자(탑승자)의 현재 상태를 파악하는 방법의 예시를 나타내는 도면이다.
도 5는 본 개시의 일 실시예에 따른 복수의 센서에 기반한 자율주행 제어 방법의 흐름도이다.
도 6은 본 개시의 다른 실시예에 따른 복수의 센서에 기반한 자율주행 제어 방법의 흐름도이다.
도 7은 본 개시의 또 다른 실시예에 따른 복수의 센서에 기반한 자율주행 제어 방법의 흐름도이다.Embodiments of the present disclosure will be described with reference to the accompanying drawings described below, in which like reference numerals indicate like elements, but are not limited thereto.
1 is a diagram illustrating the configuration of an autonomous driving system according to an embodiment of the present disclosure and an example of sensor data input error due to external obstacles.
Figure 2 is a block diagram showing the configuration of an autonomous driving control system according to an embodiment of the present disclosure.
Figure 3 shows an example of a method for identifying abnormal sensing data by comparing data received from a plurality of heterogeneous sensors according to an embodiment of the present disclosure.
Figure 4 is a diagram illustrating an example of a method for determining the current status of a driver (passenger) according to an embodiment of the present disclosure.
Figure 5 is a flowchart of an autonomous driving control method based on a plurality of sensors according to an embodiment of the present disclosure.
Figure 6 is a flowchart of an autonomous driving control method based on a plurality of sensors according to another embodiment of the present disclosure.
Figure 7 is a flowchart of an autonomous driving control method based on a plurality of sensors according to another embodiment of the present disclosure.
이하, 본 개시의 실시를 위한 구체적인 내용을 첨부된 도면을 참조하여 상세히 설명한다. 다만, 이하의 설명에서는 본 개시의 요지를 불필요하게 흐릴 우려가 있는 경우, 널리 알려진 기능이나 구성에 관한 구체적 설명은 생략하기로 한다. Hereinafter, specific details for implementing the present disclosure will be described in detail with reference to the attached drawings. However, in the following description, detailed descriptions of well-known functions or configurations will be omitted if there is a risk of unnecessarily obscuring the gist of the present disclosure.
첨부된 도면에서, 동일하거나 대응하는 구성요소에는 동일한 참조부호가 부여되어 있다. 또한, 이하의 실시예들의 설명에 있어서, 동일하거나 대응하는 구성요소를 중복하여 기술하는 것이 생략될 수 있다. 그러나 구성요소에 관한 기술이 생략되어도, 그러한 구성요소가 어떤 실시예에 포함되지 않는 것으로 의도되지는 않는다. In the accompanying drawings, identical or corresponding components are given the same reference numerals. Additionally, in the description of the following embodiments, overlapping descriptions of identical or corresponding components may be omitted. However, even if descriptions of components are omitted, it is not intended that such components are not included in any embodiment.
개시된 실시예의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 개시는 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 개시가 완전하도록 하고, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것일 뿐이다.Advantages and features of the disclosed embodiments and methods for achieving them will become clear by referring to the embodiments described below in conjunction with the accompanying drawings. However, the present disclosure is not limited to the embodiments disclosed below and may be implemented in various different forms. The present embodiments are merely provided to ensure that the present disclosure is complete and to those skilled in the art to which the present disclosure pertains. It is provided only to fully inform the user of the scope of the invention.
본 개시에서 사용되는 용어에 대해 간략히 설명하고, 개시된 실시예에 대해 구체적으로 설명하기로 한다. Terms used in the present disclosure will be briefly described, and the disclosed embodiments will be described in detail.
본 개시에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 관련 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다. The terminology used in this disclosure selects general terms that are currently widely used as much as possible while considering the functions in this disclosure, but this may vary depending on the intention or precedent of a technician working in the related field, the emergence of new technology, etc. In addition, in certain cases, there are terms arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the relevant invention. Therefore, the terms used in this disclosure should be defined based on the meaning of the term and the overall content of this disclosure, rather than simply the name of the term.
본 개시에서의 단수의 표현은 문맥상 명백하게 단수인 것으로 특정하지 않는 한, 복수의 표현을 포함한다. 또한 복수의 표현은 문맥상 명백하게 복수인 것으로 특정하지 않는 한, 단수의 표현을 포함한다.In this disclosure, singular expressions include plural expressions, unless the context clearly specifies the singular. Additionally, plural expressions include singular expressions, unless the context clearly specifies plural expressions.
본 개시의 전체에서 어떤 부분이 어떤 구성요소를 '포함'한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. When it is said that a part 'includes' a certain element throughout the present disclosure, this means that other elements may be further included rather than excluding other elements, unless specifically stated to the contrary.
명세서에서 사용되는 '부' 또는 '모듈'이라는 용어는 소프트웨어 또는 하드웨어 구성요소를 의미하며, '부' 또는 '모듈'은 어떤 역할들을 수행한다. 그렇지만, '부' 또는 '모듈'은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '부' 또는 '모듈'은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서, '부' 또는 '모듈'은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 또는 변수들 중 적어도 하나를 포함할 수 있다. 구성요소들과 '부' 또는 '모듈'들은 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '부' 또는 '모듈'들로 결합되거나 추가적인 구성요소들과 '부' 또는 '모듈'들로 더 분리될 수 있다.The term 'unit' or 'module' used in the specification refers to a software or hardware component, and the 'unit' or 'module' performs certain roles. However, 'part' or 'module' is not limited to software or hardware. A 'unit' or 'module' may be configured to reside on an addressable storage medium and may be configured to run on one or more processors. Thus, as an example, 'part' or 'module' refers to components such as software components, object-oriented software components, class components and task components, processes, functions, properties, etc. , procedures, subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, or variables. Components and 'parts' or 'modules' can be combined into smaller numbers of components and 'parts' or 'modules' or into additional components and 'parts' or 'modules'. Could be further separated.
본 개시의 일 실시예에 따르면, '부' 또는 '모듈'은 프로세서 및 메모리로 구현될 수 있다. 용어 "프로세서" 는 범용 프로세서, 중앙 처리 장치 (CPU), 마이크로프로세서, 디지털 신호 프로세서 (DSP), 제어기, 마이크로제어기, 상태 머신 등을 포함하도록 넓게 해석되어야 한다. 몇몇 환경에서는, "프로세서" 는 주문형 반도체 (ASIC), 프로그램가능 로직 디바이스 (PLD), 필드 프로그램가능 게이트 어레이 (FPGA) 등을 지칭할 수도 있다. 용어 "프로세서"는, 예를 들어, DSP 와 마이크로프로세서의 조합, 복수의 마이크로프로세서들의 조합, DSP 코어와 결합한 하나 이상의 마이크로프로세서들의 조합, 또는 임의의 다른 그러한 구성들의 조합과 같은 처리 디바이스들의 조합을 지칭할 수도 있다.According to an embodiment of the present disclosure, a 'unit' or 'module' may be implemented with a processor and memory. The term “processor” should be interpreted broadly to include general purpose processors, central processing units (CPUs), microprocessors, digital signal processors (DSPs), controllers, microcontrollers, state machines, etc. In some contexts, “processor” may refer to an application-specific integrated circuit (ASIC), programmable logic device (PLD), field programmable gate array (FPGA), etc. The term “processor” refers to a combination of processing devices, for example, a combination of a DSP and a microprocessor, a combination of a plurality of microprocessors, a combination of one or more microprocessors in combination with a DSP core, or any other such combination of configurations. It may also refer to
본 개시에서, '시스템'은 하나 이상의 서버, 컴퓨팅 장치, 본 개시에 기술된 기능을 실행하는 소프트웨어 모듈 또는 구성요소들, 또는 이들이 결합된 형태를 포함하는 구성을 지칭할 수 있으며, 예를 들어, 하나 이상의 컴퓨팅 장치, 서버 장치, 또는 클라우드 서비스를 제공하는 분산된 컴퓨팅 장치를 지칭할 수 있으나, 이에 한정되는 것은 아니다. 이하 입력에 오류가 있는 센서를 검출하는 기능을 포함하는 자율주행 시스템의 실시예들을 설명하는 경우, 시스템은 입력에 오류가 있는 센서를 검출하는 자율주행 시스템을 구현하는 소프트웨어 구조(software architecture), 운영 체제, 라이브러리, 드라이버 또는 이들과 프로세서, 메모리 등과 같은 하드웨어 모듈의 하나 이상의 구성요소들이 결합된 것을 의미할 수 있다.In this disclosure, 'system' may refer to a configuration that includes one or more servers, computing devices, software modules or components that execute the functions described in this disclosure, or a combination thereof, for example, It may refer to, but is not limited to, one or more computing devices, server devices, or distributed computing devices that provide cloud services. Hereinafter, when describing embodiments of an autonomous driving system that includes a function for detecting a sensor with an error in the input, the system includes a software architecture and operation that implements an autonomous driving system that detects a sensor with an error in the input. It may mean a system, library, driver, or a combination of these and one or more components of a hardware module such as a processor, memory, etc.
도 1은 본 개시의 일 실시예에 따른 자율주행 시스템의 구성 및 외부의 장해 요소에 따른 센서 데이터 입력 오류의 예시를 나타내는 도면이다.1 is a diagram illustrating the configuration of an autonomous driving system according to an embodiment of the present disclosure and an example of sensor data input error due to external obstacles.
도시된 바와 같이, 자율주행 차량(110)은, 차량의 주변 상황에 관한 센서 데이터 처리하여 자율주행 제어 신호를 생성하는 자율주행 모듈(120)을 포함할 수 있다. 자율주행 모듈(120)은, 카메라 센서(130), 레이더(140), 라이다(LiDAR)(150) 등을 포함하는 복수의 이종 센서로부터 데이터(이하 '센싱 데이터')를 수신할 수 있으며, 수신된 센싱 데이터에 기초하여 자율주행 제어 신호를 생성할 수 있다. 도 1에서는, 카메라, 레이더, 라이다와 같은 3가지 종류의 센서를 예시로서 도시하고 있으나, 센서들의 종류나 수는 이에 한정되지 않으며, 적외선 센서, 음파 센서 등과 같은 다른 종류의 센서를 더 포함할 수 있다. 또한, 자율주행 모듈(120)은, 하나 이상의 센싱 데이터를 처리할 수 있는 하나 이상의 프로세서, 센싱 데이터를 저장할 수 있는 메모리, 복수의 센서와 프로세서 및 메모리를 연결할 수 있는 데이터 버스 또는 입출력 인터페이스 등을 포함하는 컴퓨팅 장치일 수 있다.As shown, the
도 1은, 입력 오류 발생 상황(100)으로서, 카메라 센서(130)가 장해요소(160)(예를 들어, 나뭇잎과 같은 이물질)로 인해 비정상적인 데이터를 입력 받는 상황의 예시를 도시한다. 카메라 센서(130)에 의해 입력되는 정상적인 센싱 데이터(170)는 자율주행 모듈(120)이 자율주행 제어 신호를 생성하는데 있어 적합한 데이터로 활용할 수 있지만, 비정상 센싱 데이터(180)는 자율주행 제어 신호 생성에 있어서 적합한 데이터로 활용할 수 없다. FIG. 1 shows an example of an input
비정상 센싱 데이터(180)는 카메라(130) 뿐만 아니라 레이더(140) 또는 라이다(150)와 같은 다른 유형의 센서들에 대한 장해요소(160)로 인해 발생할 수 있다. 자율주행 모듈(120)은 각 센서로부터 수신한 센싱 데이터를 비교하여, 비정상 센싱 데이터(180)를 검출할 수 있다. 비정상 센싱 데이터(180) 검출 시, 자율주행 모듈(120)은 센싱 데이터(180)의 오류가 외부 장해요소(160) 또는 열악한 도로환경(예를 들어, 악천후, 직사광선, 야간 상황 등)에 의한 것인지 또는 센서 자체의 결함에 의한 것인지를 구분하여 판단할 수 있다.
일 실시예에서, 자율주행 모듈(120)은 복수의 센서(130, 140, 150)에 대한 BIST(Built-In Self-Test)를 실행하여, 복수의 센서(130, 140, 150) 중에서 자체 하드웨어 또는 소프트웨어의 결함이 있는지 여부를 판단할 수 있다. 자율주행 모듈(120)은, BIST에 따른 센서 결함이 발견되지 않는 경우, 센싱 데이터(180)의 오류가 외부 장해요소(160) 또는 열악한 도로환경(예를 들어, 악천후, 직사광선, 야간 상황 등)에 의한 것으로 판단하고, 이하 상세히 설명하는 방법에 따라 비정상 센싱 데이터(180)를 생성하는 센서를 감지할 수 있다. 다른 실시예에서, 자율주행 모듈은, 복수의 센서(130, 140, 150) 중에서 자체 하드웨어 또는 소프트웨어의 결함이 있는지 여부를 판단하는 절차를 실행하지 않고, 이하 상세히 설명하는 방법에 따라 비정상 센싱 데이터(180)를 생성하는 센서를 감지할 수 있다.In one embodiment, the
일 실시예에서, 자율주행 모듈(120)은, 복수의 센서 복수의 센서(130, 140, 150)로부터 수신한 센싱 데이터(이하, '제1 센싱 데이터)의 도메인을 변환하여 복수의 제2 센싱 데이터를 생성할 수 있다. 예를 들어, 자율주행 모듈(120)은, 레이저 센서(140) 및 라이다 센서(150)로부터 수신한 센싱 데이터를 2차원 이미지 데이터(또는 제2 센싱 데이터)로 변환함으로써, 카메라 센서(130)로부터 수신한 센싱 데이터인 2차원 이미지 데이터(또는 제2 센싱 데이터)와 동일한 도메인을 갖도록 할 수 있다. 자율주행 모듈(120)은, 복수의 제2 센싱 데이터의 비교 결과에 기초하여, 복수의 센서(130, 140, 150) 중에서 비정상적인 센싱 데이터를 생성하는 센서를 감지할 수 있다.In one embodiment, the
도 1에 도시된 예에서, 레이저 센서(140) 및 라이다 센서(150)의 주변에는 외부 장해요소가 존재하지 않기 때문에, 해당 센서들로부터 수신된 제1 센싱 데이터를 제2 센싱 데이터로 도메인 변환하는 경우, 제2 센싱 데이터는 정상 센싱 데이터(170)와 유사한 특징을 가질 수 있다. 이에 반해, 카메라 센서(160) 주변에는 외부 장해요소(160)가 존재하기 때문에, 해당 센서로부터 수신된 제1 센싱 데이터를 도메인 변환한 제2 센싱 데이터는 비정상 센싱 데이터(180)와 유사한 특징을 가질 수 있다. 자율주행 모듈(120)은, 복수의 센서(140, 150, 160)로부터 수신된 복수의 제1 센싱 데이터의 도메인을 변환하여 생성된 복수의 제2 센싱 데이터 중 다른 센싱 데이터와의 유사도가 가장 낮은 센싱 데이터를 비정상으로 판단할 수 있다. 이에 따라, 자율주행 모듈(120)은, 해당 비정상 센싱 데이터를 생성한 센서(예를 들어, 카메라 센서(130))에 대해 장해요소(160)에 의한 입력 오류가 발생했음을 결정할 수 있다. In the example shown in FIG. 1, since there are no external obstacles around the
일 실시예에서, 비정상 센싱 데이터를 생성한 센서가 감지된 경우, 자율주행 모듈(120)은 운전자에게 제공될 경고 메시지를 출력할 수 있다. 여기서, 경고 메시지는, 자율주행 모듈(120)이 출력하는 경고 메시지는, 소리, 진동 또는 빛에 의한 경고 신호일 수 있다. 또한, 경고 메시지는, 비정상적인 센싱 데이터가 자율주행 차량의 환경 요인에 따른 것인지를 확인 요청하는 경고 메시지일 수 있다. 추가적으로, 자율주행 모듈(120)은, 비정상적인 센싱 데이터를 생성하는 센서가 감지된 경우, 자율주행 차량(110)의 운전 모드를 반자율 주행 모드 또는 수동 주행 모드로 전환하는 자율주행 제어 신호를 생성할 수 있다. 대안적으로, 자율주행 모듈(120)은, 비정상적인 센싱 데이터를 생성하는 센서가 감지된 경우, 자율주행 차량(110)이 비상 주행 경로로 주행하도록 하는 자율주행 제어 신호를 생성할 수 있다.In one embodiment, when a sensor that generates abnormal sensing data is detected, the
추가적으로, 자율주행 모듈(120)은, 운전자의 현재 상태를 파악하고, 파악된 운전자의 상태에 따른 경고 메시지 및/또는 자율주행 제어 신호를 생성할 수 있다. 자율주행 모듈(120)은, 자율주행 차량(110)의 내부에 설치된 카메라 또는 적외선 센서(미도시)를 이용하여 운전자의 현재 상태를 파악할 수 있다.Additionally, the
일 실시예에서, 운전자의 현재 상태가 수면, 졸음 또는 음주 상태인 경우, 자율주행 모듈(120)은 경고 메시지를 출력하고, 비상주행 모드를 실행할 수 있다. 비상주행 모드에서, 자율주행 모듈(120)은 비상주행 경로를 생성하고, 생성된 비상주행 경로를 따라 차량(110)을 주행하도록 하는 자율주행 제어 신호를 생성할 수 있다. 예를 들어, 비상주행 경로는 차량의 현재 위치 및 주변 상황(차량, 갓길 유무)등을 고려하여 생성될 수 있다. In one embodiment, if the driver's current state is sleeping, drowsy, or drunk, the
다른 실시예에서, 운전자의 현재 상태가 경각 상태인 경우, 자율주행 모듈(120)은 경고 메시지를 출력하고, 반자율 주행 모드 또는 수동 주행 모드를 실행할 수 있다. 반자율 주행 모드에서, 자율주행 모듈(120)은, 복수의 센서(130, 140, 150) 중 정상 센싱 데이터를 생성하는 일부 센서를 이용하여 자율주행을 수행할 수 있다. In another embodiment, when the driver's current state is an alert state, the
이상 실시예들에 따르면, 자율주행 차량에 설치된 다양한 센서들의 입력에 오류를 발생시키는 갑작스러운 외부 장해요소(160)의 발생 여부를 효과적으로 감지함으로써, 센싱 데이터 오류에 대응하여 안전하고 신뢰성 있는 자율주행을 실행할 수 있다.According to the above embodiments, safe and reliable autonomous driving is achieved in response to sensing data errors by effectively detecting the occurrence of a sudden
도 2는 본 개시의 일 실시예에 따른 자율주행 제어 시스템의 구성을 나타내는 블록도이다.Figure 2 is a block diagram showing the configuration of an autonomous driving control system according to an embodiment of the present disclosure.
도 2에 도시된 자율주행 제어 시스템(200)은, 예를 들어 도 1에 도시된 자율주행 차량(110) 또는 자율주행 모듈(120)에 포함된 시스템일수 있다. 도시된 바와 같이, 자율주행 제어 시스템(200)은, 복수의 이종 센서(130, 140, 150)를 포함하는 센서부(210), 센서부(210) 수신된 센싱 데이터를 처리하여 자율주행 알고리즘을 수행하는 처리부(220), 수신된 센싱 데이터를 비교하는 비교부(230), 비정상 센싱 데이터 또는 이를 생성하는 센서의 검출에 대응하는 비정상 대응부(240)를 포함할 수 있다. 예를 들어, 처리부(220), 비교부(230) 및 비정상 대응부(240)는, 도 1에 도시된 자율주행 모듈(120)에 포함될 수 있다.The autonomous
일 실시예에서, 센서부(210)는 자율주행에 필요한 복수의 이종 센서들, 즉, 카메라(130), 레이더(140), 라이다(150)를 포함할 수 있다. 센서부(210)에서 생성된 복수의 센싱 데이터는 센서 버스(BUS)(260)를 통해 처리부(220)에 전송될 수 있다.In one embodiment, the sensor unit 210 may include a plurality of heterogeneous sensors necessary for autonomous driving, that is, a
일 실시예에서, 처리부(220)는, 센서 버스 인터페이스(222), 연산부(224)를 포함할 수 있다. 센서 버스 인터페이스(222)는 BUS(260)를 통해 센서부(210)로부터 송신된 복수의 센싱 데이터들을 수신할 수 있다. 연산부(224)는 주행제어부(226) 및 주변감시부(228)를 포함할 수 있다. 주행 제어부(226)는 수신된 센싱 데이터에 기초하여 자율주행 제어 신호를 생성할 수 있다. 또한, 주변 감시부(228)는, 수신된 센싱 데이터에 기초하여 차량 주변 상황에 관한 주변 정보 데이터를 생성할 수 있다.In one embodiment, the processing unit 220 may include a
일 실시예에서, 비교부(230)는 도메인 변환부(232), 이미지 매칭부(234), 및 메모리(236)를 포함할 수 있다. 도메인 변환부(232)는 처리부(220)로부터 수신된 센싱 데이터의 도메인을 변환함으로써, 센싱 데이터의 도메인을 일치시킨다. 예를 들어, 도메인 변환부(232)는 수신된 센싱 데이터의 도메인을 2차원 이미지 도메인으로 변환할 수 있다. 이미지 매칭부(234)는 도메인이 일치된 센싱 데이터를 비교함으로써, 비정상 센싱 데이터를 식별할 수 있다.In one embodiment, the comparison unit 230 may include a
일 실시예에서, 이미지 매칭부(234)는, 도메인이 일치된 센싱 데이터를 비교한 결과, 일정 임계치 이상의 유사도 차이를 보이는 센싱 데이터를 출력하는 센서를 비정상으로 판단할 수 있다.In one embodiment, the
일 실시예에서, 비교부(230)의 메모리(236)는 도메인 변환 알고리즘, 이미지 매칭 알고리즘 및 유사도 임계치 데이터 등을 저장할 수 있다. 메모리(236)는 도메인 변환부(232) 및 이미지 매칭부(234) 외부에 배치되어 있는 것으로 도시되어 있으나, 이에 한정되지 않으며, 구현예에 따라서 도메인 변환부(232) 및 이미지 매칭부(234) 각각의 내부에 구현될 수 있다.In one embodiment, the
일 실시예에서, 비정상 대응부(240)는, 경고부(242), 운전 모드 결정부(244), 비상 주행 경로 생성부(246)를 포함할 수 있다. 비정상 대응부(240)은, 비교부(230)로부터 수신되는 비정상 센싱 데이터 여부 또는 비정상 센싱 데이터를 생성하는 센서 정보에 기초하여 대응 절차를 실행할 수 있다.In one embodiment, the abnormality response unit 240 may include a warning unit 242, a driving mode determination unit 244, and an emergency travel path creation unit 246. The abnormality response unit 240 may execute a response procedure based on whether there is abnormal sensing data received from the comparison unit 230 or sensor information that generates abnormal sensing data.
일 실시예에서, 비정상 대응부(240)의 경고부(242)는, 비교부(230)로부터 비정상 센싱 데이터를 생성하는 센서 정보를 수신한 경우, 운전자(또는 탑승자)에게 제공될 경고 메세지를 생성할 수 있다. 예를 들어, 경고 메시지는, 소리, 진동, 빛에 의한 경고 신호일수 있다. 운전 모드 결정부(244)는, 비교부(230)로부터 비정상 센싱 데이터를 생성하는 센서 정보를 수신한 경우, 자율주행 차량의 운전 모드를 반자율 주행 모드 또는 수동 주행 모드로 전환하는 제어 신호를 생성할 수 있다. In one embodiment, the warning unit 242 of the abnormal response unit 240 generates a warning message to be provided to the driver (or passenger) when receiving sensor information generating abnormal sensing data from the comparison unit 230. can do. For example, a warning message may be a warning signal by sound, vibration, or light. When receiving sensor information that generates abnormal sensing data from the comparison unit 230, the driving mode determination unit 244 generates a control signal to change the driving mode of the autonomous vehicle to semi-autonomous driving mode or manual driving mode. can do.
일 실시예에서, 운전 모드 결정부(244)는, 운전자의 현재 상태를 식별하고, 식별된 운전자의 상태에 따라 자율주행 차량의 운전 모드를 반자율 주행 모드 또는 수동 주행 모드로 전환하는 제어 신호를 생성할 수 있다. 운전 모드 결정부(244)가 운전자의 상태를 파악함에 있어, 예를 들어, 차량 내부에 설치된 카메라 센서에 의해 촬영된 운전자의 영상 중 눈 영역 의 깜박임을 식별함으로써, 운전자가 졸음 상태인지 판단할 수 있다. 운전 모드 결정부(244)에서 운전자의 현재 상태가 졸음 상태로 판단한 경우, 현재 운전 모드를 비상 주행 모드로 전환하는 제어 신호를 생성하여 처리부(220)로 전송할 수 있다.In one embodiment, the driving mode determination unit 244 identifies the current state of the driver and sends a control signal to switch the driving mode of the autonomous vehicle to a semi-autonomous driving mode or a manual driving mode according to the identified driver's state. can be created. When the driving mode determination unit 244 determines the driver's state, for example, it can determine whether the driver is drowsy by identifying blinking in the eye area among the driver's image captured by a camera sensor installed inside the vehicle. there is. If the driving mode determination unit 244 determines that the driver's current state is drowsy, a control signal for switching the current driving mode to the emergency driving mode may be generated and transmitted to the processing unit 220.
일 실시예에서, 운전 모드 결정부(244)는, 운전자의 현재 상태가 경각상태로 판단한 경우, 경고부(242)를 통해 경고 메세지를 출력하고, 운전 모드를 반자율주행 모드 또는 수동주행모드로 전환하는 제어 신호를 생성하여 처리부(220)로 전송할 수 있다. 이에 응답하여, 처리부(220)의 주행 제어부(226)는, 정상 동작하며 비정상 입력 신호를 수신하지 않는, 복수의 센서 중 일부를 사용하여 반자율주행 모드를 실행할 수 있다. In one embodiment, when the driving mode determination unit 244 determines that the driver's current state is an alarm state, the driving mode determination unit 244 outputs a warning message through the warning unit 242 and changes the driving mode to a semi-autonomous driving mode or a manual driving mode. A switching control signal can be generated and transmitted to the processing unit 220. In response, the driving
일 실시예에서, 운전 모드 결정부(244)는, 운전자의 현재 상태가 수면, 졸음, 음주 상태로 판단한 경우, 경고부(242)를 통해 경고 메세지를 출력하고, 비상 주행 경로 생성부(246)에서 생성된 경로를 바탕으로 비상주행모드를 수행할 수 있다. 비상 주행 경로 생성부(246)는, 차량의 현재 위치 및 주변 상황(차량, 갓길 유무 등)을 고려하여 비상주행경로를 생성할 수 있다. 비상 주행 경로 생성부(246)에서 생성된 비상주행경로는 자율주행 차량의 현재 위치에서 주차장, 졸음쉼터, 휴게소 등과 같은 안전한 위치까지의 경로를 의미할 수 있다.In one embodiment, when the driving mode determination unit 244 determines that the driver's current state is sleeping, drowsy, or drunk, it outputs a warning message through the warning unit 242 and the emergency driving path creation unit 246. You can perform emergency driving mode based on the path created in . The emergency travel route generator 246 may generate an emergency travel route by considering the current location of the vehicle and surrounding conditions (vehicles, presence of a shoulder, etc.). The emergency driving path generated by the emergency driving path generator 246 may mean a path from the current location of the autonomous vehicle to a safe location such as a parking lot, a sleepy rest area, a rest area, etc.
도 3은 본 개시의 일 실시예에 따른 복수의 이종 센서로부터 수신된 데이터를 비교하여 비정상 센싱 데이터를 식별하는 방법의 예시를 도시한다.Figure 3 shows an example of a method for identifying abnormal sensing data by comparing data received from a plurality of heterogeneous sensors according to an embodiment of the present disclosure.
도 3에 도시된 이미지 데이터(310, 320, 330, 340)는, 복수의 센서에 의해 감지된 자율주행 차량의 주변 환경(예를 들어, 보행자 우선도로)를 나타내는 것으로, 처리부(220)에서 2차원 도메인의 이미지로 변환된 상태를 나타낸다. 처리부(220)는 센서 버스 인터페이스(222)를 통해 센싱 데이터를 수신하고, 수신된 센싱 데이터를 비교하기 위하여 도메인 변환부(232)에서 각 센싱 데이터의 도메인을 변환하여 일치시킨다. 예를 들어, 도메인 변환부(232)는 복수의 센싱 데이터의 도메인을 2차원 도메인 이미지로 변환할 수 있다. The
도시된 바와 같이, 도메인 변환부(232)는, 라이다 센서, 제1 카메라, 레이더 센서, 제2 카메라로부터 수신된 센싱 데이터의 도메인을 변환하여 2차원 이미지 데이터(310, 320, 330, 340)를 생성할 수 있다. As shown, the
일 실시예에서, 이미지 매칭부(234)는, 2차원 이미지데이터(310, 320, 330, 340)를 비교하여 입력에 오류가 있는 센서를 검출할 수 있다. 도시된 바와 같이, 도메인이 변환된 라이다 데이터(310), 제1 카메라 데이터(320) 및 레이더 데이터(330)에서는 한 대의 차량(312, 322, 332) 및 두명의 보행자(314, 324, 334)가 유사하게 식별될 수 있다. 이에 반해, 도메인이 변환된 제2 카메라 데이터(340)에는, 다른 데이터(310, 320, 330)과 다르게, 장해요인(나뭇잎, 눈 등)에 의해 차량 또는 보행자가 식별되지 않기 때문에, 해당 데이터가 입력된 센서에 오류가 발생했음을 검출할 수 있다. In one embodiment, the
이미지 매칭부(234)는, 이미지 데이터(310, 320, 330, 340) 중 이미지 데이터(310, 320, 330)는 서로 유사도가 임계치를 초과하지 않는 것으로 결정할 수 있다. 이에 반해, 이미지 매칭부(234)는, 이미지 데이터(340)와 다른 이미지 데이터(310, 320, 330)의 유사도가 임계치를 초과하여, 이미지 데이터(340)를 비정상 이미지 데이터로 분류할 수 있다.The
도 4는 본 개시의 일 실시예에 따른 운전자(탑승자)의 현재 상태를 파악하는 방법의 예시를 나타내는 도면이다.Figure 4 is a diagram illustrating an example of a method for determining the current status of a driver (passenger) according to an embodiment of the present disclosure.
일 실시예에서, 운전자(탑승자) 상태 파악 방법(400)은, 운전 모드 결정부에 의해, 운전자의 안구 및 안구주위를 촬영한 영상으로부터 눈의 깜빡임 여부에 따라 졸음 여부 또는 경각 상태 여부를 판단함으로써 실행될 수 있다.In one embodiment, the driver (passenger) state determination method 400 determines whether the driver is drowsy or alert according to whether the driver's eyes blink from images taken of the driver's eyes and the area around the eyes, by the driving mode determination unit. It can be executed.
일 실시예에서, 운전 모드 결정부가 운전자가 경각 상태(410)인 것으로 판단한 경우, 경고부를 통해 경고 메시지를 출력하고, 반자율주행 또는 수동주행로 전환하는 제어 신호를 생성할 수 있다. 한편, 운전 모드 결정부가 운전자가 졸음 상태(420)인 것으로 판단한 경우, 비상주행모드로 전환하는 제어 신호를 생성할 수 있다.In one embodiment, when the driving mode determination unit determines that the driver is in an
도 5는 본 개시의 일 실시예에 따른 복수의 센서에 기반한 자율주행 제어 방법의 흐름도이다.Figure 5 is a flowchart of an autonomous driving control method based on a plurality of sensors according to an embodiment of the present disclosure.
도시된 바와 같이, 복수의 센서에 기반한 자율주행 제어 방법(500)은, 단계 510에서, 복수의 센서로부터 복수의 제1 센싱 데이터를 수신하는 것으로 개시될 수 있다. 일 실시예에서, 도 1 내지 도 4를 참조하면, 처리부(220)는 센서부(210)에서 복수의 센서, 즉, 카메라 센서(130), 레이더(140), 라이다(150)에 의해 복수의 센싱 데이터를 수신할 수 있다.As shown, the autonomous driving control method 500 based on a plurality of sensors may begin by receiving a plurality of first sensing data from a plurality of sensors in
다음으로, 복수의 제1 센싱 데이터의 도메인을 변환하여 복수의 제2 센싱 데이터를 생성할 수 있다(단계 520). 일 실시예에서, 도 1 내지 도 4를 참조하면, 도메인 변환부(232)는 처리부(220)에서 수신된 제1 센싱 데이터의 도메인을 변환하여 제2 센싱 데이터인 2차원 이미지 데이터(310, 320, 330, 340)를 생성할 수 있다.Next, the domains of the first plurality of sensing data may be converted to generate a plurality of second sensing data (step 520). In one embodiment, referring to FIGS. 1 to 4, the
단계 530에서, 복수의 제2 센싱 데이터의 비교 결과에 기초하여, 복수의 센서중 비정상적인 데이터를 생성하는 센서를 감지할 수 있다. 일 실시예에서, 도 1 내지 도 4를 참조하면, 비교부(230)는 복수의 제2 센싱 데이터를 비교하고, 비교 결과에 기초하여 복수의 센서 중 비정상적인 데이터를 생성하는 센서를 감지한다. In
마지막으로, 비정상 센서 감지 시, 경고 메세지를 출력할 수 있다(540). 일 실시예에서, 도 1 내지 도 4를 참조하면, 비교부(230)에 의해 비정상 센서 감지 시, 경고부(242)는 경고 메시지를 출력할 수 있고, 예를 들어 경고 메시지는 소리, 진동 또는 빛에 의한 경고 메시지일 수 있다.Finally, when an abnormal sensor is detected, a warning message can be output (540). In one embodiment, referring to FIGS. 1 to 4, when an abnormal sensor is detected by the comparison unit 230, the warning unit 242 may output a warning message. For example, the warning message may include sound, vibration, or It may be a warning message by light.
도 6은 본 개시의 다른 실시예에 따른 복수의 센서에 기반한 자율주행 제어 방법의 흐름도이다.Figure 6 is a flowchart of an autonomous driving control method based on a plurality of sensors according to another embodiment of the present disclosure.
도시된 바와 같이, 복수의 센서에 기반한 자율주행 제어 방법(600)은, 복수의 센서로부터 복수의 제1 센싱 데이터를 수신하는 단계(610)로 개시될 수 있다.As shown, the autonomous driving control method 600 based on a plurality of sensors may begin with a step 610 of receiving a plurality of first sensing data from a plurality of sensors.
다음으로, 복수의 제1 센싱 데이터의 도메인을 변환하여 복수의 제2 센싱 데이터를 생성하는 단계(620), 복수의 제2 센싱 데이터들의 센싱 데이터와 비교 결과, 다른 센싱 데이터와 유사도가 가장 낮은 센싱 데이터를 생성하는 센서를 검출하는 단계(630)가 실행될 수 있다. Next, converting the domain of the plurality of first sensing data to generate a plurality of second sensing data (620). As a result of comparing the plurality of second sensing data with the sensing data, the sensing data with the lowest similarity to other sensing data is selected. Step 630 of detecting a sensor generating data may be performed.
단계(640)에서, 센싱 데이터의 유사도 차이가 임계치를 초과하는 경우, 단계(650)에서 경고 메세지를 출력하고, 비상주행 경로를 생성하여 비상주행 경로를 따라 이동할 수 있다(660).In
도 7은 본 개시의 또 다른 실시예에 따른 복수의 센서에 기반한 자율주행 제어 방법의 흐름도이다.Figure 7 is a flowchart of an autonomous driving control method based on a plurality of sensors according to another embodiment of the present disclosure.
도시된 바와 같이, 복수의 센서에 기반한 자율주행 제어 방법(700)은, 복수의 센서로부터 복수의 제1 센싱 데이터를 수신하는 단계(710)로 개시될 수 있다.As shown, the autonomous driving control method 700 based on a plurality of sensors may begin with a
다음으로, 복수의 제1 센싱 데이터의 도메인을 2차원 도메인의 이미지 데이터로 변환하여 복수의 제2 센싱 데이터를 생성하는 단계(720), 및 복수의 제2 센싱 데이터들의 센싱 데이터와 비교 결과, 다른 센싱 데이터와 유사도가 가장 낮은 센싱 데이터를 생성하는 센서를 검출하는 단계(730)가 실행될 수 있다.Next, converting the domain of the plurality of first sensing data into image data of a two-dimensional domain to generate a plurality of second sensing data (720), and as a result of comparing the plurality of second sensing data with the sensing data, another
단계(740)에서, 데이터의 유사도 차이가 임계치를 초과하는 것으로 판단된 경우, 경고 메시지를 출력하는 단계(750)메시지가 실행될 수 있다.In
또한, 단계(760)에서, 운전자가 운전이 가능한 상태(예를 들어, 경각 상태)로 판단된 경우, 반자율 주행 모드 또는 수동주행 모드로 전환하는 단계(770)가 실행될 수 있다. 반면, 단계(760)에서, 운전자가 운전이 불가능한 상태(예를 들어, 졸음 상태)로 판단된 경우, 비상주행 경로를 생성하여 비상주행 경로를 따라 이동하는 단계(780)가 실행될 수 있다.Additionally, in
상술한 방법은 컴퓨터에서 실행하기 위해 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램으로 제공될 수 있다. 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수개 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD 와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 애플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.The above-described method may be provided as a computer program stored in a computer-readable recording medium for execution on a computer. The medium may continuously store a computer-executable program, or may temporarily store it for execution or download. In addition, the medium may be a variety of recording or storage means in the form of a single or several pieces of hardware combined. It is not limited to a medium directly connected to a computer system and may be distributed over a network. Examples of media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, And there may be something configured to store program instructions, including ROM, RAM, flash memory, etc. Additionally, examples of other media include recording or storage media managed by app stores that distribute applications, sites or servers that supply or distribute various other software, etc.
본 개시의 방법, 동작 또는 기법들은 다양한 수단에 의해 구현될 수도 있다. 예를 들어, 이러한 기법들은 하드웨어, 펌웨어, 소프트웨어, 또는 이들의 조합으로 구현될 수도 있다. 본원의 개시와 연계하여 설명된 다양한 예시적인 논리적 블록들, 모듈들, 회로들, 및 알고리즘 단계들은 전자 하드웨어, 컴퓨터 소프트웨어, 또는 양자의 조합들로 구현될 수도 있음을 통상의 기술자들은 이해할 것이다. 하드웨어 및 소프트웨어의 이러한 상호 대체를 명확하게 설명하기 위해, 다양한 예시적인 구성요소들, 블록들, 모듈들, 회로들, 및 단계들이 그들의 기능적 관점에서 일반적으로 위에서 설명되었다. 그러한 기능이 하드웨어로서 구현되는지 또는 소프트웨어로서 구현되는지의 여부는, 특정 애플리케이션 및 전체 시스템에 부과되는 설계 요구사항들에 따라 달라진다. 통상의 기술자들은 각각의 특정 애플리케이션을 위해 다양한 방식들로 설명된 기능을 구현할 수도 있으나, 그러한 구현들은 본 개시의 범위로부터 벗어나게 하는 것으로 해석되어서는 안된다.The methods, operations, or techniques of this disclosure may be implemented by various means. For example, these techniques may be implemented in hardware, firmware, software, or a combination thereof. Those skilled in the art will understand that the various illustrative logical blocks, modules, circuits, and algorithm steps described in connection with the disclosure herein may be implemented in electronic hardware, computer software, or combinations of both. To clearly illustrate this interchange of hardware and software, various illustrative components, blocks, modules, circuits, and steps have been described above generally in terms of their functionality. Whether such functionality is implemented as hardware or software depends on the specific application and design requirements imposed on the overall system. Skilled artisans may implement the described functionality in varying ways for each particular application, but such implementations should not be interpreted as causing a departure from the scope of the present disclosure.
하드웨어 구현에서, 기법들을 수행하는 데 이용되는 프로세싱 유닛들은, 하나 이상의 ASIC들, DSP들, 디지털 신호 프로세싱 디바이스들(digital signal processing devices; DSPD들), 프로그램가능 논리 디바이스들(programmable logic devices; PLD들), 필드 프로그램가능 게이트 어레이들(field programmable gate arrays; FPGA들), 프로세서들, 제어기들, 마이크로제어기들, 마이크로프로세서들, 전자 디바이스들, 본 개시에 설명된 기능들을 수행하도록 설계된 다른 전자 유닛들, 컴퓨터, 또는 이들의 조합 내에서 구현될 수도 있다.In a hardware implementation, the processing units used to perform the techniques may include one or more ASICs, DSPs, digital signal processing devices (DSPDs), programmable logic devices (PLDs). ), field programmable gate arrays (FPGAs), processors, controllers, microcontrollers, microprocessors, electronic devices, and other electronic units designed to perform the functions described in this disclosure. , a computer, or a combination thereof.
따라서, 본 개시와 연계하여 설명된 다양한 예시적인 논리 블록들, 모듈들, 및 회로들은 범용 프로세서, DSP, ASIC, FPGA나 다른 프로그램 가능 논리 디바이스, 이산 게이트나 트랜지스터 로직, 이산 하드웨어 컴포넌트들, 또는 본원에 설명된 기능들을 수행하도록 설계된 것들의 임의의 조합으로 구현되거나 수행될 수도 있다. 범용 프로세서는 마이크로프로세서일 수도 있지만, 대안으로, 프로세서는 임의의 종래의 프로세서, 제어기, 마이크로제어기, 또는 상태 머신일 수도 있다. 프로세서는 또한, 컴퓨팅 디바이스들의 조합, 예를 들면, DSP와 마이크로프로세서, 복수의 마이크로프로세서들, DSP 코어와 연계한 하나 이상의 마이크로프로세서들, 또는 임의의 다른 구성의 조합으로서 구현될 수도 있다.Accordingly, the various illustrative logical blocks, modules, and circuits described in connection with this disclosure may be general-purpose processors, DSPs, ASICs, FPGAs or other programmable logic devices, discrete gate or transistor logic, discrete hardware components, or It may be implemented or performed as any combination of those designed to perform the functions described in. A general-purpose processor may be a microprocessor, but in the alternative, the processor may be any conventional processor, controller, microcontroller, or state machine. A processor may also be implemented as a combination of computing devices, such as a DSP and a microprocessor, a plurality of microprocessors, one or more microprocessors in conjunction with a DSP core, or any other configuration.
펌웨어 및/또는 소프트웨어 구현에 있어서, 기법들은 랜덤 액세스 메모리(random access memory; RAM), 판독 전용 메모리(read-only memory; ROM), 비휘발성 RAM(non-volatile random access memory; NVRAM), PROM(programmable read-only memory), EPROM(erasable programmable read-only memory), EEPROM(electrically erasable PROM), 플래시 메모리, 컴팩트 디스크(compact disc; CD), 자기 또는 광학 데이터 스토리지 디바이스 등과 같은 컴퓨터 판독가능 매체 상에 저장된 명령들로서 구현될 수도 있다. 명령들은 하나 이상의 프로세서들에 의해 실행 가능할 수도 있고, 프로세서(들)로 하여금 본 개시에 설명된 기능의 특정 양태들을 수행하게 할 수도 있다.For firmware and/or software implementations, techniques include random access memory (RAM), read-only memory (ROM), non-volatile random access memory (NVRAM), and PROM ( on computer-readable media such as programmable read-only memory (EPROM), electrically erasable PROM (EEPROM), flash memory, compact disc (CD), magnetic or optical data storage devices, etc. It may also be implemented as stored instructions. Instructions may be executable by one or more processors and may cause the processor(s) to perform certain aspects of the functionality described in this disclosure.
이상 설명된 실시예들이 하나 이상의 독립형 컴퓨터 시스템에서 현재 개시된 주제의 양태들을 활용하는 것으로 기술되었으나, 본 개시는 이에 한정되지 않고, 네트워크나 분산 컴퓨팅 환경과 같은 임의의 컴퓨팅 환경과 연계하여 구현될 수도 있다. 또 나아가, 본 개시에서 주제의 양상들은 복수의 프로세싱 칩들이나 장치들에서 구현될 수도 있고, 스토리지는 복수의 장치들에 걸쳐 유사하게 영향을 받게 될 수도 있다. 이러한 장치들은 PC들, 네트워크 서버들, 및 휴대용 장치들을 포함할 수도 있다.Although the above-described embodiments have been described as utilizing aspects of the presently disclosed subject matter in one or more standalone computer systems, the disclosure is not limited thereto and may also be implemented in conjunction with any computing environment, such as a network or distributed computing environment. . Furthermore, aspects of the subject matter of this disclosure may be implemented in multiple processing chips or devices, and storage may be similarly effected across the multiple devices. These devices may include PCs, network servers, and portable devices.
본 명세서에서는 본 개시가 일부 실시예들과 관련하여 설명되었지만, 본 발명이 속하는 기술분야의 통상의 기술자가 이해할 수 있는 본 개시의 범위를 벗어나지 않는 범위에서 다양한 변형 및 변경이 이루어질 수 있다는 점을 알아야 할 것이다. 또한, 그러한 변형 및 변경은 본 명세서에 첨부된 특허청구의 범위 내에 속하는 것으로 생각되어야 한다.Although the present disclosure has been described in relation to some embodiments in the specification, it should be understood that various modifications and changes may be made without departing from the scope of the present disclosure as understood by those skilled in the art. something to do. Additionally, such modifications and changes should be considered to fall within the scope of the claims appended hereto.
110: 자율주행 차량 120: 모듈
130: 카메라 140: 레이더
150: 라이다 160: 장해요소
200: 자율주행 제어 시스템 210: 센서부
220: 처리부 222: 센서버스인터페이스
224: 연산부 226: 주행 제어부
228: 주변 감시부 230: 비교부
232: 도메인 변환부 234: 이미지 매칭부
236: 메모리 240: 비정상 대응부
242: 경고부 244: 운전 모드 결정부
246: 비상 주행 경로 생성부 310: 라이다 데이터
320: 제1 카메라 데이터 330: 레이더 데이터
340: 제2 카메라 데이터 400: 상태 파악 단계110: autonomous vehicle 120: module
130: Camera 140: Radar
150: Lidar 160: Obstacle
200: Autonomous driving control system 210: Sensor unit
220: Processing unit 222: Sensor bus interface
224: calculation unit 226: driving control unit
228: Perimeter monitoring unit 230: Comparison unit
232: Domain conversion unit 234: Image matching unit
236: memory 240: abnormal response unit
242: warning unit 244: driving mode decision unit
246: Emergency driving path creation unit 310: LiDAR data
320: first camera data 330: radar data
340: Second camera data 400: Status identification step
Claims (10)
복수의 센서로부터 복수의 제1 센싱 데이터를 수신하는 단계;
상기 복수의 제1 센싱 데이터의 도메인을 변환하여 복수의 제2 센싱 데이터를 생성하는 단계;
상기 복수의 제2 센싱 데이터의 비교 결과에 기초하여, 상기 복수의 센서 중에서 비정상적인 센싱 데이터를 생성하는 센서를 감지하는 단계; 및
상기 비정상적인 센싱 데이터를 생성하는 센서가 감지된 경우, 경고 메시지를 출력하는 단계;를 포함하되,
상기 복수의 제1 센싱 데이터의 도메인을 변환하여 복수의 제2 센싱 데이터를 생성하는 단계는,
상기 복수의 제1 센싱 데이터를 2차원 도메인의 이미지 데이터로 변환하여 상기 복수의 제2 센싱 데이터를 생성하는 단계;를 포함하되,
상기 복수의 제2 센싱 데이터의 비교 결과에 기초하여, 상기 복수의 센서 중에서 비정상적인 센싱 데이터를 생성하는 센서를 감지하는 단계는,
상기 복수의 제2 센싱 데이터 중 다른 센싱 데이터와의 유사도가 가장 낮은 센싱 데이터를 생성하는 센서를 검출하는 단계; 및
상기 유사도가 가장 낮은 센싱 데이터를 생성하는 센서를 검출하는 단계에서 검출된 센서의 상기 복수의 제2 센싱 데이터 중 다른 센싱 데이터와의 유사도 차이가 임계치를 초과하는 지 여부를 판단하는 단계;를 포함하는, 자율주행 제어 방법.In an autonomous driving control method based on a plurality of sensor data, executed by at least one processor,
Receiving a plurality of first sensing data from a plurality of sensors;
converting domains of the plurality of first sensing data to generate a plurality of second sensing data;
Detecting a sensor generating abnormal sensing data among the plurality of sensors based on a comparison result of the plurality of second sensing data; and
Including, outputting a warning message when a sensor generating the abnormal sensing data is detected,
The step of generating a plurality of second sensing data by converting the domain of the plurality of first sensing data,
Converting the plurality of first sensing data into two-dimensional domain image data to generate the plurality of second sensing data,
The step of detecting a sensor generating abnormal sensing data among the plurality of sensors based on a comparison result of the plurality of second sensing data includes:
Detecting a sensor that generates sensing data having the lowest similarity with other sensing data among the plurality of second sensing data; and
Comprising: determining whether a difference in similarity with other sensing data among the plurality of second sensing data of the sensor detected in the step of detecting the sensor generating sensing data with the lowest similarity exceeds a threshold; , Autonomous driving control method.
상기 비정상적인 센싱 데이터를 생성하는 센서가 감지된 경우, 경고 메시지를 출력하는 단계는,
상기 비정상적인 센싱 데이터가 자율주행 차량의 환경 요인에 따른 것인지를 확인 요청하는 경고 메시지를 출력하는 단계를 포함하는, 자율주행 제어 방법.
According to paragraph 1,
When a sensor generating abnormal sensing data is detected, the step of outputting a warning message is:
An autonomous driving control method comprising outputting a warning message requesting confirmation whether the abnormal sensing data is due to environmental factors of the autonomous vehicle.
상기 비정상적인 센싱 데이터를 생성하는 센서가 감지된 경우, 자율주행 차량의 운전 모드를 반자율 주행 모드 또는 수동 주행 모드로 전환하는 단계를 더 포함하는, 자율주행 제어 방법.
According to paragraph 1,
An autonomous driving control method further comprising switching the driving mode of the autonomous vehicle to a semi-autonomous driving mode or a manual driving mode when a sensor generating the abnormal sensing data is detected.
상기 비정상적인 센싱 데이터를 생성하는 센서가 감지된 경우, 자율주행 차량이 비상 주행 경로로 주행하도록 제어하는 단계를 더 포함하는, 자율주행 제어 방법.
According to paragraph 1,
An autonomous driving control method further comprising controlling the autonomous vehicle to travel on an emergency driving path when a sensor generating the abnormal sensing data is detected.
상기 복수의 센서는, 레이더 센서, 라이다(LiDAR) 센서, 적외선 센서 및 카메라 중 적어도 하나를 포함하는, 자율주행 제어 방법.
According to paragraph 1,
The plurality of sensors include at least one of a radar sensor, a LiDAR sensor, an infrared sensor, and a camera.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210178446A KR102656811B1 (en) | 2021-12-14 | 2021-12-14 | System and method for controlling autonomous driving vehicle based on multiple sensor data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210178446A KR102656811B1 (en) | 2021-12-14 | 2021-12-14 | System and method for controlling autonomous driving vehicle based on multiple sensor data |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20230089772A KR20230089772A (en) | 2023-06-21 |
KR102656811B1 true KR102656811B1 (en) | 2024-04-12 |
Family
ID=86990051
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210178446A KR102656811B1 (en) | 2021-12-14 | 2021-12-14 | System and method for controlling autonomous driving vehicle based on multiple sensor data |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102656811B1 (en) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5812064B2 (en) * | 2012-11-22 | 2015-11-11 | 株式会社デンソー | Target detection device |
KR101644370B1 (en) * | 2014-10-23 | 2016-08-01 | 현대모비스 주식회사 | Object detecting apparatus, and method for operating the same |
KR101967315B1 (en) * | 2017-06-05 | 2019-04-10 | 현대오트론 주식회사 | Apparatus for detecting forward object of vehicle and method thereof |
KR102109941B1 (en) * | 2018-01-23 | 2020-05-12 | 충북대학교 산학협력단 | Method and Apparatus for Vehicle Detection Using Lidar Sensor and Camera |
KR20210073705A (en) * | 2019-12-10 | 2021-06-21 | 현대모비스 주식회사 | Vehicle control system according to failure of autonomous driving vehicle and method thereof |
KR102371749B1 (en) * | 2020-01-31 | 2022-03-10 | 경북대학교 산학협력단 | Device for acquriing vehicle position information and controlling mmthod thereof |
-
2021
- 2021-12-14 KR KR1020210178446A patent/KR102656811B1/en active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR20230089772A (en) | 2023-06-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11254333B2 (en) | Electronic control device, vehicle control method, and vehicle control program product | |
CN106840242B (en) | Sensor self-checking system and multi-sensor fusion system of intelligent driving automobile | |
CN110271559B (en) | Improved control system and improved control method for autonomously controlling a motor vehicle | |
US20210046944A1 (en) | Determination of reliability of vehicle control commands via redundancy | |
US10532740B2 (en) | Method and arrangement for monitoring and adapting the performance of a fusion system of an autonomous vehicle | |
US11010229B2 (en) | Abnormality determination apparatus, abnormality determination method, and computer readable medium | |
CN110682877A (en) | Autonomous vehicle critical load backup | |
KR20130094997A (en) | Apparatus and method detectinc obstacle and alerting collision | |
CN111665849B (en) | Automatic driving system | |
US20110093163A1 (en) | Method and apparatus for detecting steering angle sensor initialization fault | |
JP6865572B2 (en) | Automotive risk-based control | |
JP2017174244A (en) | Information provision device | |
US20190033859A1 (en) | Sensor failure compensation system for an automated vehicle | |
US20210339764A1 (en) | System and method for detecting and/or preventing automation expectation mismatch in vehicle | |
US20200148202A1 (en) | Method for selecting and accelerated execution of reactive actions | |
KR102656811B1 (en) | System and method for controlling autonomous driving vehicle based on multiple sensor data | |
CN110427014B (en) | Fault vehicle control method and device and chassis control instruction execution method and device | |
CN112118991A (en) | Sensor detection method and vehicle-mounted control terminal | |
KR102155072B1 (en) | Vehicle longitudinal control apparatus and method | |
KR102656802B1 (en) | Autonomous driving computing platform based on redundant architecture | |
KR20130136113A (en) | Method and apparatus for collision warning | |
US11914027B2 (en) | Method and system for identifying hazard objects around a vehicle | |
CN113168774B (en) | Method for determining the current value of an occupancy parameter in relation to a portion of a space located in the vicinity of a land motor vehicle | |
US20240109539A1 (en) | Vehicle For Performing Minimal Risk Maneuver And Method For Operating The Same | |
KR20240048166A (en) | Apparatus and method of detecting failure of sensor for vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |