KR102656811B1 - System and method for controlling autonomous driving vehicle based on multiple sensor data - Google Patents

System and method for controlling autonomous driving vehicle based on multiple sensor data Download PDF

Info

Publication number
KR102656811B1
KR102656811B1 KR1020210178446A KR20210178446A KR102656811B1 KR 102656811 B1 KR102656811 B1 KR 102656811B1 KR 1020210178446 A KR1020210178446 A KR 1020210178446A KR 20210178446 A KR20210178446 A KR 20210178446A KR 102656811 B1 KR102656811 B1 KR 102656811B1
Authority
KR
South Korea
Prior art keywords
sensing data
sensor
autonomous driving
data
sensors
Prior art date
Application number
KR1020210178446A
Other languages
Korean (ko)
Other versions
KR20230089772A (en
Inventor
정태욱
Original Assignee
주식회사 유니트론텍
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 유니트론텍 filed Critical 주식회사 유니트론텍
Priority to KR1020210178446A priority Critical patent/KR102656811B1/en
Publication of KR20230089772A publication Critical patent/KR20230089772A/en
Application granted granted Critical
Publication of KR102656811B1 publication Critical patent/KR102656811B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • B60W2050/0215Sensor drifts or sensor failures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 개시는, 적어도 하나의 프로세서에 의해 실행되는, 복수의 센서 데이터에 기반한 자율주행 제어 방법을 제공한다. 이 방법은, 복수의 센서로부터 복수의 제1 센싱 데이터를 수신하는 단계, 복수의 제1 센싱 데이터의 도메인을 변환하여 복수의 제2 센싱 데이터를 생성하는 단계, 복수의 제2 센싱 데이터의 비교 결과에 기초하여, 복수의 센서 중에서 비정상적인 센싱 데이터를 생성하는 센서를 감지하는 단계 및, 비정상적인 센싱 데이터를 생성하는 센서가 감지된 경우, 경고 메시지를 출력하는 단계를 포함할 수 있다.The present disclosure provides an autonomous driving control method based on a plurality of sensor data, executed by at least one processor. This method includes receiving a plurality of first sensing data from a plurality of sensors, converting the domain of the plurality of first sensing data to generate a plurality of second sensing data, and comparing results of the plurality of second sensing data. Based on this, it may include detecting a sensor that generates abnormal sensing data among a plurality of sensors, and outputting a warning message when a sensor that generates abnormal sensing data is detected.

Description

복수의 센서 데이터에 기반한 자율주행 제어 시스템 및 방법{SYSTEM AND METHOD FOR CONTROLLING AUTONOMOUS DRIVING VEHICLE BASED ON MULTIPLE SENSOR DATA}Autonomous driving control system and method based on multiple sensor data {SYSTEM AND METHOD FOR CONTROLLING AUTONOMOUS DRIVING VEHICLE BASED ON MULTIPLE SENSOR DATA}

본 개시는 복수의 센서 데이터에 기반한 자율주행 제어 시스템 및 방법에 관한 것으로, 보다 상세하게는, 이종 센서들이 감지한 주변 정보에 관한 입력 데이터를 비교함으로써 입력 데이터에 문제가 발생한 센서를 검출하여, 안전하고 효율적인 자율주행을 실행할 수 있는 자율주행 시스템 및 방법에 관한 것이다.The present disclosure relates to an autonomous driving control system and method based on a plurality of sensor data, and more specifically, by comparing input data regarding surrounding information detected by heterogeneous sensors to detect sensors with problems with input data, thereby ensuring safety. It relates to an autonomous driving system and method that can perform efficient autonomous driving.

자율주행 시스템은 신뢰성 있는 주행 및 안전보장을 위해 복수의 이종 센서들, 복수의 전력공급장치 또는 복수의 컴퓨팅 컴포넌트들을 사용할 수 있다. 예를 들어, 복수의 컴퓨팅 컴포넌트들(또는 프로세서들)이 동일한 센서 데이터를 처리하여 자율주행 제어 신호들을 생성하는 경우, 자율주행 제어 신호들을 비교함으로써 동작 오류가 발생한 프로세서를 감지하고, 이에 대한 적절한 대응 절차를 실행함으로써 보다 신뢰성 있는 자율 주행을 구현할 수 있다. 또한, 효과적이고 안정적으로 자율 주행차를 운용하기 위해 다양한 소프트웨어 및 하드웨어의 보강이 이루어지고 있다.An autonomous driving system may use multiple heterogeneous sensors, multiple power supplies, or multiple computing components to ensure reliable driving and safety. For example, when multiple computing components (or processors) process the same sensor data to generate autonomous driving control signals, detect the processor in which an operation error occurred by comparing the autonomous driving control signals, and respond appropriately. By executing the procedure, more reliable autonomous driving can be achieved. In addition, various software and hardware enhancements are being made to operate autonomous vehicles effectively and stably.

자율주행 시스템의 오작동은 인명 피해 및 커다란 재산의 손실을 야기시킬 수 있는 만큼, 제조사 책임 설계가 필요하다. 이를 위해, 자율주행 시스템은, 모든 상황에 평균적으로 잘 대처하도록 구현되기 보다는 한정적인 상황일지라도 치명적인 오류나 실패에 적절히 대응할 수 있도록 개발되고 있다.Because malfunctions in autonomous driving systems can cause casualties and significant property damage, manufacturers are required to take responsibility for their design. To this end, autonomous driving systems are being developed to respond appropriately to fatal errors or failures even in limited situations, rather than being implemented to respond well to all situations on average.

예를 들어, 자율주행 시스템의 신뢰성을 구현하기 위해서, 시스템의 구성요소들이 극한의 상황(고열, 고압, 과전류, 충격 등)에서 견딜 수 있도록 하드웨어적 요소를 강화하는 기술들이 개발되고 있다. 이와 더불어, 시스템 내부의 회로 혹은 소프트웨어의 오류를 검출하기 위해 자체 결함 테스트를 하는 등, 실시간으로 각 컴포넌트들의 동작 상태를 모니터링 하는 방법들이 연구되고 있다.For example, in order to realize the reliability of autonomous driving systems, technologies are being developed to strengthen hardware elements so that system components can withstand extreme situations (high heat, high pressure, overcurrent, shock, etc.). In addition, methods for monitoring the operating status of each component in real time, such as conducting self-defect tests to detect errors in circuits or software within the system, are being studied.

일반적으로 자율주행 시스템에서, 센서의 결함을 검출함에 있어 BIST(내장 자체 시험) 등과 같이 센서 내부 회로 또는 하드웨어 및 센서와 관련한 소프트웨어 결함을 검출하는 방법들이 다수 존재한다. 그러나 센서가 정상 작동 상태에 있음에도, 열악한 도로 환경(예를 들어, 터널 내부, 기상 악화, 야간 상황, 운전자를 향한 직사광선 등)이나 센서 감지를 방해하는 장해요소들(예를 들어, 센서 주변에 부착되는 이물질 등)에 의해 센서의 입력이 올바르지 않은 경우, 센서를 고장으로 잘못 인식하거나, 자율주행 시스템에 주변 상황에 대한 잘못된 정보가 입력될 수 있다. In general, in detecting sensor defects in an autonomous driving system, there are many methods for detecting defects in the sensor's internal circuit or hardware and software related to the sensor, such as BIST (Built-in Self-Test). However, even if the sensor is in normal operating condition, there are adverse road environments (e.g. inside a tunnel, bad weather, night situations, direct sunlight toward the driver, etc.) or obstacles that interfere with sensor detection (e.g. attached to the sensor area). If the sensor input is incorrect due to foreign substances, etc.), the sensor may be incorrectly recognized as malfunctioning, or incorrect information about the surrounding situation may be input to the autonomous driving system.

한편, 종래의 자율주행 기술 중에서, 다양한 상황에서 주변 환경 인식의 정확도 및 신뢰도를 높이기 위한 방법으로서, 센서에 의해 취득한 데이터를 인공신경망을 이용하여 분석 및 분류하는 다양한 방법이 제시되고 있다. 하지만, 실제로 센서 외부의 장해요소들이 존재하는 경우, 센서 자체의 결함이 발생하지 않았음에도 센서의 결함으로 판단하고, 결함이 있다고 판단된 센서의 데이터를 배제할 수 있다. 다른 경우, 인공신경망이 잘못 입력된 센서 데이터를 배제하지 않고 계산에 포함시킨 경우, 자율주행 제어 신호가 부적합 하게 생성되어 사고 발생의 위험성이 증가할 수 있다. Meanwhile, among conventional autonomous driving technologies, various methods have been proposed to analyze and classify data acquired by sensors using artificial neural networks as a method to increase the accuracy and reliability of recognition of the surrounding environment in various situations. However, if there are actual obstacles outside the sensor, it may be determined that the sensor is defective even though there is no defect in the sensor itself, and data from the sensor determined to be defective can be excluded. In other cases, if the artificial neural network includes incorrectly input sensor data in the calculations instead of excluding it, autonomous driving control signals may be generated inappropriately, increasing the risk of accidents.

본 개시는, 이상 설명한 종래의 자율주행 시스템의 문제점을 해결하기 위해, 복수의 센서 데이터에 기반한 자율주행 제어 시스템 및 방법을 제공한다.The present disclosure provides an autonomous driving control system and method based on a plurality of sensor data to solve the problems of the conventional autonomous driving system described above.

본 개시의 일 실시예에 따르면, 적어도 하나의 프로세서에 의해 실행되는, 복수의 센서 데이터에 기반한 자율주행 제어 방법은, 복수의 센서로부터 복수의 제1 센싱 데이터를 수신하는 단계, 복수의 제1 센싱 데이터의 도메인을 변환하여 복수의 제2 센싱 데이터를 생성하는 단계, 복수의 제2 센싱 데이터의 비교 결과에 기초하여, 상기 복수의 센서 중에서 비정상적인 센싱 데이터를 생성하는 센서를 감지하는 단계 및 상기 비정상적인 센싱 데이터를 생성하는 센서가 감지된 경우, 경고 메시지를 출력하는 단계를 포함하는, 자율주행 제어 방법을 포함할 수 있다.According to an embodiment of the present disclosure, an autonomous driving control method based on a plurality of sensor data, executed by at least one processor, includes receiving a plurality of first sensing data from a plurality of sensors, a plurality of first sensing Converting the domain of data to generate a plurality of second sensing data, detecting a sensor generating abnormal sensing data among the plurality of sensors based on a comparison result of the plurality of second sensing data, and detecting a sensor generating abnormal sensing data An autonomous driving control method may be included, including outputting a warning message when a sensor generating data is detected.

일 실시예에 따르면, 복수의 제2 센싱 데이터의 비교 결과에 기초하여, 복수의 센서 중에서 자율주행 차량의 환경 요인에 따른 비정상적인 센싱 데이터를 생성하는 센서를 감지하는 단계는, 복수의 제2 센싱 데이터 중 다른 센싱 데이터와의 유사도가 가장 낮은 센싱 데이터를 생성하는 센서를 감지하는 단계를 포함하는, 자율주행 제어 방법을 포함할 수 있다.According to one embodiment, based on a comparison result of a plurality of second sensing data, the step of detecting a sensor that generates abnormal sensing data according to environmental factors of the autonomous vehicle among the plurality of sensors includes a plurality of second sensing data. An autonomous driving control method may be included, including detecting a sensor that generates sensing data with the lowest similarity to other sensing data.

일 실시예에 따르면, 복수의 제2 센싱 데이터의 비교 결과에 기초하여, 복수의 센서 중에서 자율주행 차량의 환경 요인에 따른 비정상적인 센싱 데이터를 생성하는 센서를 감지하는 단계는, 복수의 제2 센싱 데이터 중 다른 센싱 데이터와의 차이가 사전 결정된 임계치를 초과하는 센싱 데이터를 생성하는 센서를 감지하는 단계를 포함할 수 있다.According to one embodiment, based on a comparison result of a plurality of second sensing data, the step of detecting a sensor that generates abnormal sensing data according to environmental factors of the autonomous vehicle among the plurality of sensors includes a plurality of second sensing data. It may include detecting a sensor that generates sensing data whose difference from other sensing data exceeds a predetermined threshold.

일 실시예에 따르면, 비정상적인 센싱 데이터를 생성하는 센서가 감지된 경우, 경고 메시지를 출력하는 단계는, 비정상적인 센싱 데이터가 자율주행 차량의 환경 요인에 따른 것인지를 확인 요청하는 경고 메시지를 출력하는 단계를 포함할 수 있다.According to one embodiment, when a sensor generating abnormal sensing data is detected, the step of outputting a warning message includes outputting a warning message requesting confirmation whether the abnormal sensing data is due to environmental factors of the autonomous vehicle. It can be included.

일 실시예에 따르면, 자율주행 제어 방법은, 비정상적인 센싱 데이터를 생성하는 센서가 감지된 경우, 자율주행 차량의 운전 모드를 반자율 주행 모드 또는 수동 주행 모드로 전환하는 단계를 더 포함할 수 있다.According to one embodiment, the autonomous driving control method may further include switching the driving mode of the autonomous vehicle to a semi-autonomous driving mode or a manual driving mode when a sensor generating abnormal sensing data is detected.

일 실시예에 따르면, 자율주행 제어 방법은, 비정상적인 센싱 데이터를 생성하는 센서가 감지된 경우, 자율주행 차량이 비상 주행 경로로 주행하도록 제어하는 단계를 더 포함할 수 있다.According to one embodiment, the autonomous driving control method may further include controlling the autonomous vehicle to drive on an emergency driving path when a sensor generating abnormal sensing data is detected.

일 실시예에 따르면, 복수의 센서는, 레이더 센서, 라이다(LiDAR) 센서, 적외선 센서 및 카메라 중 적어도 하나를 포함할 수 있다.According to one embodiment, the plurality of sensors may include at least one of a radar sensor, a LiDAR sensor, an infrared sensor, and a camera.

일 실시예에 따르면, 복수의 제1 센싱 데이터의 도메인을 변환하여 복수의 제2 센싱 데이터를 생성하는 단계는, 복수의 제1 센싱 데이터를 2차원 도메인의 이미지 데이터로 변환하여 상기 복수의 제2 센싱 데이터를 생성하는 단계를 포함할 수 있다.According to one embodiment, the step of generating a plurality of second sensing data by converting the domain of the plurality of first sensing data includes converting the plurality of first sensing data into image data of a two-dimensional domain to generate the plurality of second sensing data. It may include generating sensing data.

일 실시예에 따르면, 복수의 센서 데이터에 기반한 자율주행 제어 시스템은, 메모리와 연결되고, 메모리에 포함된 컴퓨터 판독 가능한 적어도 하나의 프로그램을 실행하도록 구성된 적어도 하나의 프로세서를 포함하고, 적어도 하나의 프로그램은, 복수의 센서로부터 복수의 제1 센싱 데이터를 수신하고, 복수의 제1 센싱 데이터의 도메인을 변환하여 복수의 제2 센싱 데이터를 생성하고, 상기 복수의 제2 센싱 데이터의 비교 결과에 기초하여, 상기 복수의 센서 중에서 비정상적인 센싱 데이터를 생성하는 센서를 감지하고, 비정상적인 센싱 데이터를 생성하는 센서가 감지된 경우, 경고 메시지를 출력하기 위한 명령어들을 포함할 수 있다.According to one embodiment, an autonomous driving control system based on a plurality of sensor data includes at least one processor connected to a memory and configured to execute at least one computer-readable program included in the memory, and at least one program Receives a plurality of first sensing data from a plurality of sensors, converts the domain of the plurality of first sensing data to generate a plurality of second sensing data, and based on the comparison result of the plurality of second sensing data , may include instructions for detecting a sensor generating abnormal sensing data among the plurality of sensors and outputting a warning message when a sensor generating abnormal sensing data is detected.

본 개시의 다양한 실시예들에 따르면, 자율주행 시스템은, 외부 환경의 변화나 장해요소들에 의해 발생한 센서 입력 오류를 식별하여 이에 대한 적절한 대응을 실행할 수 있다. 이를 통해, 자율주행 시스템이, 센서 입력 오류에 대해 불필요하거나 잘못된 응답으로써 동작함으로써 불필요하게 전력을 사용하거나 사고가 발생할 수 있는 가능성을 감소시켜, 자율주행의 효율성 및 신뢰도를 향상시킬 수 있다.According to various embodiments of the present disclosure, the autonomous driving system can identify sensor input errors caused by changes in the external environment or obstacles and take appropriate responses to them. Through this, the efficiency and reliability of autonomous driving can be improved by reducing the possibility that the autonomous driving system may use power unnecessarily or cause an accident by operating with unnecessary or incorrect responses to sensor input errors.

본 개시의 다양한 실시예들에 따르면, 센서 입력 오류 여부 뿐만 아니라, 운전자의 현재 상태를 파악하여 그에 적합한 대응을 실행함으로써, 자율주행 시스템의 안전성과 신뢰성을 더욱 향상시킬 수 있다. 또한, 자율주행 시스템의 목적 중 하나인 안전하고 신속한 이동을 구현하기에 알맞은 자율주행 방법을 제공함으로써, 탑승자가 편안하고 안전하게 목적지까지 갈 수 있도록 도움을 줄 수 있다. According to various embodiments of the present disclosure, the safety and reliability of the autonomous driving system can be further improved by determining not only whether there is a sensor input error but also the current state of the driver and executing an appropriate response. In addition, by providing an autonomous driving method suitable for implementing safe and rapid movement, which is one of the purposes of the autonomous driving system, it can help passengers reach their destination comfortably and safely.

본 개시의 다양한 실시예들에 따르면, 자율주행 시스템을 사용하는 이동수단의 운전자 또는 탑승자가 시스템 결함에 대응하는 방법에 있어, 자율주행 시스템의 동작 오류가 심각한 내부적 결함에 의한 것인지 혹은 운전자가 간단히 대처할 수 있는지를 파악하도록 가이드를 제공함으로써, 운전자 스스로가 시스템의 결함에 알맞은 대처를 할 수 있는 데에 도움을 줄 수 있다. According to various embodiments of the present disclosure, in a method for a driver or passenger of a vehicle using an autonomous driving system to respond to a system defect, whether the operation error of the autonomous driving system is due to a serious internal defect or the driver can simply respond to it. By providing guidance to identify possible defects in the system, it can help drivers themselves take appropriate action against system defects.

본 개시의 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급되지 않은 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present disclosure are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.

본 개시의 실시예들은, 이하 설명하는 첨부 도면들을 참조하여 설명될 것이며, 여기서 유사한 참조 번호는 유사한 요소들을 나타내지만, 이에 한정되지는 않는다.
도 1은 본 개시의 일 실시예에 따른 자율주행 시스템의 구성 및 외부의 장해 요소에 따른 센서 데이터 입력 오류의 예시를 나타내는 도면이다.
도 2는 본 개시의 일 실시예에 따른 자율주행 제어 시스템의 구성을 나타내는 블록도이다.
도 3은 본 개시의 일 실시예에 따른 복수의 이종 센서로부터 수신된 데이터를 비교하여 비정상 센싱 데이터를 식별하는 방법의 예시를 도시한다.
도 4는 본 개시의 일 실시예에 따른 운전자(탑승자)의 현재 상태를 파악하는 방법의 예시를 나타내는 도면이다.
도 5는 본 개시의 일 실시예에 따른 복수의 센서에 기반한 자율주행 제어 방법의 흐름도이다.
도 6은 본 개시의 다른 실시예에 따른 복수의 센서에 기반한 자율주행 제어 방법의 흐름도이다.
도 7은 본 개시의 또 다른 실시예에 따른 복수의 센서에 기반한 자율주행 제어 방법의 흐름도이다.
Embodiments of the present disclosure will be described with reference to the accompanying drawings described below, in which like reference numerals indicate like elements, but are not limited thereto.
1 is a diagram illustrating the configuration of an autonomous driving system according to an embodiment of the present disclosure and an example of sensor data input error due to external obstacles.
Figure 2 is a block diagram showing the configuration of an autonomous driving control system according to an embodiment of the present disclosure.
Figure 3 shows an example of a method for identifying abnormal sensing data by comparing data received from a plurality of heterogeneous sensors according to an embodiment of the present disclosure.
Figure 4 is a diagram illustrating an example of a method for determining the current status of a driver (passenger) according to an embodiment of the present disclosure.
Figure 5 is a flowchart of an autonomous driving control method based on a plurality of sensors according to an embodiment of the present disclosure.
Figure 6 is a flowchart of an autonomous driving control method based on a plurality of sensors according to another embodiment of the present disclosure.
Figure 7 is a flowchart of an autonomous driving control method based on a plurality of sensors according to another embodiment of the present disclosure.

이하, 본 개시의 실시를 위한 구체적인 내용을 첨부된 도면을 참조하여 상세히 설명한다. 다만, 이하의 설명에서는 본 개시의 요지를 불필요하게 흐릴 우려가 있는 경우, 널리 알려진 기능이나 구성에 관한 구체적 설명은 생략하기로 한다. Hereinafter, specific details for implementing the present disclosure will be described in detail with reference to the attached drawings. However, in the following description, detailed descriptions of well-known functions or configurations will be omitted if there is a risk of unnecessarily obscuring the gist of the present disclosure.

첨부된 도면에서, 동일하거나 대응하는 구성요소에는 동일한 참조부호가 부여되어 있다. 또한, 이하의 실시예들의 설명에 있어서, 동일하거나 대응하는 구성요소를 중복하여 기술하는 것이 생략될 수 있다. 그러나 구성요소에 관한 기술이 생략되어도, 그러한 구성요소가 어떤 실시예에 포함되지 않는 것으로 의도되지는 않는다. In the accompanying drawings, identical or corresponding components are given the same reference numerals. Additionally, in the description of the following embodiments, overlapping descriptions of identical or corresponding components may be omitted. However, even if descriptions of components are omitted, it is not intended that such components are not included in any embodiment.

개시된 실시예의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 개시는 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 개시가 완전하도록 하고, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것일 뿐이다.Advantages and features of the disclosed embodiments and methods for achieving them will become clear by referring to the embodiments described below in conjunction with the accompanying drawings. However, the present disclosure is not limited to the embodiments disclosed below and may be implemented in various different forms. The present embodiments are merely provided to ensure that the present disclosure is complete and to those skilled in the art to which the present disclosure pertains. It is provided only to fully inform the user of the scope of the invention.

본 개시에서 사용되는 용어에 대해 간략히 설명하고, 개시된 실시예에 대해 구체적으로 설명하기로 한다. Terms used in the present disclosure will be briefly described, and the disclosed embodiments will be described in detail.

본 개시에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 관련 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다. The terminology used in this disclosure selects general terms that are currently widely used as much as possible while considering the functions in this disclosure, but this may vary depending on the intention or precedent of a technician working in the related field, the emergence of new technology, etc. In addition, in certain cases, there are terms arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the relevant invention. Therefore, the terms used in this disclosure should be defined based on the meaning of the term and the overall content of this disclosure, rather than simply the name of the term.

본 개시에서의 단수의 표현은 문맥상 명백하게 단수인 것으로 특정하지 않는 한, 복수의 표현을 포함한다. 또한 복수의 표현은 문맥상 명백하게 복수인 것으로 특정하지 않는 한, 단수의 표현을 포함한다.In this disclosure, singular expressions include plural expressions, unless the context clearly specifies the singular. Additionally, plural expressions include singular expressions, unless the context clearly specifies plural expressions.

본 개시의 전체에서 어떤 부분이 어떤 구성요소를 '포함'한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. When it is said that a part 'includes' a certain element throughout the present disclosure, this means that other elements may be further included rather than excluding other elements, unless specifically stated to the contrary.

명세서에서 사용되는 '부' 또는 '모듈'이라는 용어는 소프트웨어 또는 하드웨어 구성요소를 의미하며, '부' 또는 '모듈'은 어떤 역할들을 수행한다. 그렇지만, '부' 또는 '모듈'은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '부' 또는 '모듈'은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서, '부' 또는 '모듈'은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 또는 변수들 중 적어도 하나를 포함할 수 있다. 구성요소들과 '부' 또는 '모듈'들은 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '부' 또는 '모듈'들로 결합되거나 추가적인 구성요소들과 '부' 또는 '모듈'들로 더 분리될 수 있다.The term 'unit' or 'module' used in the specification refers to a software or hardware component, and the 'unit' or 'module' performs certain roles. However, 'part' or 'module' is not limited to software or hardware. A 'unit' or 'module' may be configured to reside on an addressable storage medium and may be configured to run on one or more processors. Thus, as an example, 'part' or 'module' refers to components such as software components, object-oriented software components, class components and task components, processes, functions, properties, etc. , procedures, subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, or variables. Components and 'parts' or 'modules' can be combined into smaller numbers of components and 'parts' or 'modules' or into additional components and 'parts' or 'modules'. Could be further separated.

본 개시의 일 실시예에 따르면, '부' 또는 '모듈'은 프로세서 및 메모리로 구현될 수 있다. 용어 "프로세서" 는 범용 프로세서, 중앙 처리 장치 (CPU), 마이크로프로세서, 디지털 신호 프로세서 (DSP), 제어기, 마이크로제어기, 상태 머신 등을 포함하도록 넓게 해석되어야 한다. 몇몇 환경에서는, "프로세서" 는 주문형 반도체 (ASIC), 프로그램가능 로직 디바이스 (PLD), 필드 프로그램가능 게이트 어레이 (FPGA) 등을 지칭할 수도 있다. 용어 "프로세서"는, 예를 들어, DSP 와 마이크로프로세서의 조합, 복수의 마이크로프로세서들의 조합, DSP 코어와 결합한 하나 이상의 마이크로프로세서들의 조합, 또는 임의의 다른 그러한 구성들의 조합과 같은 처리 디바이스들의 조합을 지칭할 수도 있다.According to an embodiment of the present disclosure, a 'unit' or 'module' may be implemented with a processor and memory. The term “processor” should be interpreted broadly to include general purpose processors, central processing units (CPUs), microprocessors, digital signal processors (DSPs), controllers, microcontrollers, state machines, etc. In some contexts, “processor” may refer to an application-specific integrated circuit (ASIC), programmable logic device (PLD), field programmable gate array (FPGA), etc. The term “processor” refers to a combination of processing devices, for example, a combination of a DSP and a microprocessor, a combination of a plurality of microprocessors, a combination of one or more microprocessors in combination with a DSP core, or any other such combination of configurations. It may also refer to

본 개시에서, '시스템'은 하나 이상의 서버, 컴퓨팅 장치, 본 개시에 기술된 기능을 실행하는 소프트웨어 모듈 또는 구성요소들, 또는 이들이 결합된 형태를 포함하는 구성을 지칭할 수 있으며, 예를 들어, 하나 이상의 컴퓨팅 장치, 서버 장치, 또는 클라우드 서비스를 제공하는 분산된 컴퓨팅 장치를 지칭할 수 있으나, 이에 한정되는 것은 아니다. 이하 입력에 오류가 있는 센서를 검출하는 기능을 포함하는 자율주행 시스템의 실시예들을 설명하는 경우, 시스템은 입력에 오류가 있는 센서를 검출하는 자율주행 시스템을 구현하는 소프트웨어 구조(software architecture), 운영 체제, 라이브러리, 드라이버 또는 이들과 프로세서, 메모리 등과 같은 하드웨어 모듈의 하나 이상의 구성요소들이 결합된 것을 의미할 수 있다.In this disclosure, 'system' may refer to a configuration that includes one or more servers, computing devices, software modules or components that execute the functions described in this disclosure, or a combination thereof, for example, It may refer to, but is not limited to, one or more computing devices, server devices, or distributed computing devices that provide cloud services. Hereinafter, when describing embodiments of an autonomous driving system that includes a function for detecting a sensor with an error in the input, the system includes a software architecture and operation that implements an autonomous driving system that detects a sensor with an error in the input. It may mean a system, library, driver, or a combination of these and one or more components of a hardware module such as a processor, memory, etc.

도 1은 본 개시의 일 실시예에 따른 자율주행 시스템의 구성 및 외부의 장해 요소에 따른 센서 데이터 입력 오류의 예시를 나타내는 도면이다.1 is a diagram illustrating the configuration of an autonomous driving system according to an embodiment of the present disclosure and an example of sensor data input error due to external obstacles.

도시된 바와 같이, 자율주행 차량(110)은, 차량의 주변 상황에 관한 센서 데이터 처리하여 자율주행 제어 신호를 생성하는 자율주행 모듈(120)을 포함할 수 있다. 자율주행 모듈(120)은, 카메라 센서(130), 레이더(140), 라이다(LiDAR)(150) 등을 포함하는 복수의 이종 센서로부터 데이터(이하 '센싱 데이터')를 수신할 수 있으며, 수신된 센싱 데이터에 기초하여 자율주행 제어 신호를 생성할 수 있다. 도 1에서는, 카메라, 레이더, 라이다와 같은 3가지 종류의 센서를 예시로서 도시하고 있으나, 센서들의 종류나 수는 이에 한정되지 않으며, 적외선 센서, 음파 센서 등과 같은 다른 종류의 센서를 더 포함할 수 있다. 또한, 자율주행 모듈(120)은, 하나 이상의 센싱 데이터를 처리할 수 있는 하나 이상의 프로세서, 센싱 데이터를 저장할 수 있는 메모리, 복수의 센서와 프로세서 및 메모리를 연결할 수 있는 데이터 버스 또는 입출력 인터페이스 등을 포함하는 컴퓨팅 장치일 수 있다.As shown, the autonomous vehicle 110 may include an autonomous driving module 120 that generates an autonomous driving control signal by processing sensor data related to surrounding conditions of the vehicle. The autonomous driving module 120 can receive data (hereinafter referred to as ‘sensing data’) from a plurality of heterogeneous sensors including a camera sensor 130, radar 140, LiDAR 150, etc., An autonomous driving control signal can be generated based on the received sensing data. In Figure 1, three types of sensors such as cameras, radars, and lidar are shown as examples, but the type or number of sensors is not limited to this and may further include other types of sensors such as infrared sensors, sound wave sensors, etc. You can. In addition, the autonomous driving module 120 includes one or more processors capable of processing one or more sensing data, a memory capable of storing sensing data, and a data bus or input/output interface capable of connecting a plurality of sensors, processors, and memories. It may be a computing device that

도 1은, 입력 오류 발생 상황(100)으로서, 카메라 센서(130)가 장해요소(160)(예를 들어, 나뭇잎과 같은 이물질)로 인해 비정상적인 데이터를 입력 받는 상황의 예시를 도시한다. 카메라 센서(130)에 의해 입력되는 정상적인 센싱 데이터(170)는 자율주행 모듈(120)이 자율주행 제어 신호를 생성하는데 있어 적합한 데이터로 활용할 수 있지만, 비정상 센싱 데이터(180)는 자율주행 제어 신호 생성에 있어서 적합한 데이터로 활용할 수 없다. FIG. 1 shows an example of an input error occurrence situation 100 in which the camera sensor 130 receives abnormal data due to an obstacle 160 (for example, a foreign substance such as a leaf). Normal sensing data 170 input by the camera sensor 130 can be used as suitable data for the autonomous driving module 120 to generate an autonomous driving control signal, but abnormal sensing data 180 is used to generate an autonomous driving control signal. cannot be used as appropriate data.

비정상 센싱 데이터(180)는 카메라(130) 뿐만 아니라 레이더(140) 또는 라이다(150)와 같은 다른 유형의 센서들에 대한 장해요소(160)로 인해 발생할 수 있다. 자율주행 모듈(120)은 각 센서로부터 수신한 센싱 데이터를 비교하여, 비정상 센싱 데이터(180)를 검출할 수 있다. 비정상 센싱 데이터(180) 검출 시, 자율주행 모듈(120)은 센싱 데이터(180)의 오류가 외부 장해요소(160) 또는 열악한 도로환경(예를 들어, 악천후, 직사광선, 야간 상황 등)에 의한 것인지 또는 센서 자체의 결함에 의한 것인지를 구분하여 판단할 수 있다. Abnormal sensing data 180 may occur due to an obstacle 160 not only to the camera 130 but also to other types of sensors such as radar 140 or lidar 150. The autonomous driving module 120 may detect abnormal sensing data 180 by comparing the sensing data received from each sensor. When detecting abnormal sensing data 180, the autonomous driving module 120 determines whether the error in the sensing data 180 is caused by an external obstacle 160 or a poor road environment (e.g., bad weather, direct sunlight, night situation, etc.). Alternatively, it can be determined whether it is due to a defect in the sensor itself.

일 실시예에서, 자율주행 모듈(120)은 복수의 센서(130, 140, 150)에 대한 BIST(Built-In Self-Test)를 실행하여, 복수의 센서(130, 140, 150) 중에서 자체 하드웨어 또는 소프트웨어의 결함이 있는지 여부를 판단할 수 있다. 자율주행 모듈(120)은, BIST에 따른 센서 결함이 발견되지 않는 경우, 센싱 데이터(180)의 오류가 외부 장해요소(160) 또는 열악한 도로환경(예를 들어, 악천후, 직사광선, 야간 상황 등)에 의한 것으로 판단하고, 이하 상세히 설명하는 방법에 따라 비정상 센싱 데이터(180)를 생성하는 센서를 감지할 수 있다. 다른 실시예에서, 자율주행 모듈은, 복수의 센서(130, 140, 150) 중에서 자체 하드웨어 또는 소프트웨어의 결함이 있는지 여부를 판단하는 절차를 실행하지 않고, 이하 상세히 설명하는 방법에 따라 비정상 센싱 데이터(180)를 생성하는 센서를 감지할 수 있다.In one embodiment, the autonomous driving module 120 executes a Built-In Self-Test (BIST) on a plurality of sensors 130, 140, and 150 to determine its own hardware among the plurality of sensors 130, 140, and 150. Alternatively, it can be determined whether there is a defect in the software. If a sensor defect according to BIST is not found, the autonomous driving module 120 detects an error in the sensing data 180 due to an external obstacle 160 or a poor road environment (e.g., bad weather, direct sunlight, night situation, etc.). It is determined that this is caused by, and the sensor generating abnormal sensing data 180 can be detected according to a method described in detail below. In another embodiment, the autonomous driving module does not execute a procedure to determine whether there is a defect in its own hardware or software among the plurality of sensors 130, 140, and 150, but generates abnormal sensing data ( 180) can be detected.

일 실시예에서, 자율주행 모듈(120)은, 복수의 센서 복수의 센서(130, 140, 150)로부터 수신한 센싱 데이터(이하, '제1 센싱 데이터)의 도메인을 변환하여 복수의 제2 센싱 데이터를 생성할 수 있다. 예를 들어, 자율주행 모듈(120)은, 레이저 센서(140) 및 라이다 센서(150)로부터 수신한 센싱 데이터를 2차원 이미지 데이터(또는 제2 센싱 데이터)로 변환함으로써, 카메라 센서(130)로부터 수신한 센싱 데이터인 2차원 이미지 데이터(또는 제2 센싱 데이터)와 동일한 도메인을 갖도록 할 수 있다. 자율주행 모듈(120)은, 복수의 제2 센싱 데이터의 비교 결과에 기초하여, 복수의 센서(130, 140, 150) 중에서 비정상적인 센싱 데이터를 생성하는 센서를 감지할 수 있다.In one embodiment, the autonomous driving module 120 converts the domain of the sensing data (hereinafter referred to as 'first sensing data') received from a plurality of sensors 130, 140, and 150 to a plurality of second sensing data. Data can be generated. For example, the autonomous driving module 120 converts the sensing data received from the laser sensor 140 and the lidar sensor 150 into two-dimensional image data (or second sensing data), so that the camera sensor 130 It can have the same domain as the two-dimensional image data (or second sensing data) that is the sensing data received from. The autonomous driving module 120 may detect a sensor that generates abnormal sensing data among the plurality of sensors 130, 140, and 150, based on a comparison result of the plurality of second sensing data.

도 1에 도시된 예에서, 레이저 센서(140) 및 라이다 센서(150)의 주변에는 외부 장해요소가 존재하지 않기 때문에, 해당 센서들로부터 수신된 제1 센싱 데이터를 제2 센싱 데이터로 도메인 변환하는 경우, 제2 센싱 데이터는 정상 센싱 데이터(170)와 유사한 특징을 가질 수 있다. 이에 반해, 카메라 센서(160) 주변에는 외부 장해요소(160)가 존재하기 때문에, 해당 센서로부터 수신된 제1 센싱 데이터를 도메인 변환한 제2 센싱 데이터는 비정상 센싱 데이터(180)와 유사한 특징을 가질 수 있다. 자율주행 모듈(120)은, 복수의 센서(140, 150, 160)로부터 수신된 복수의 제1 센싱 데이터의 도메인을 변환하여 생성된 복수의 제2 센싱 데이터 중 다른 센싱 데이터와의 유사도가 가장 낮은 센싱 데이터를 비정상으로 판단할 수 있다. 이에 따라, 자율주행 모듈(120)은, 해당 비정상 센싱 데이터를 생성한 센서(예를 들어, 카메라 센서(130))에 대해 장해요소(160)에 의한 입력 오류가 발생했음을 결정할 수 있다. In the example shown in FIG. 1, since there are no external obstacles around the laser sensor 140 and the lidar sensor 150, the first sensing data received from the corresponding sensors is converted into the domain of the second sensing data. In this case, the second sensing data may have similar characteristics to the normal sensing data 170. On the other hand, since there is an external obstacle 160 around the camera sensor 160, the second sensing data obtained by domain converting the first sensing data received from the sensor has similar characteristics to the abnormal sensing data 180. You can. The autonomous driving module 120 converts the domain of a plurality of first sensing data received from a plurality of sensors 140, 150, and 160 to select a plurality of second sensing data with the lowest similarity with other sensing data. Sensing data may be judged to be abnormal. Accordingly, the autonomous driving module 120 may determine that an input error due to the obstacle 160 has occurred with respect to the sensor (eg, camera sensor 130) that generated the abnormal sensing data.

일 실시예에서, 비정상 센싱 데이터를 생성한 센서가 감지된 경우, 자율주행 모듈(120)은 운전자에게 제공될 경고 메시지를 출력할 수 있다. 여기서, 경고 메시지는, 자율주행 모듈(120)이 출력하는 경고 메시지는, 소리, 진동 또는 빛에 의한 경고 신호일 수 있다. 또한, 경고 메시지는, 비정상적인 센싱 데이터가 자율주행 차량의 환경 요인에 따른 것인지를 확인 요청하는 경고 메시지일 수 있다. 추가적으로, 자율주행 모듈(120)은, 비정상적인 센싱 데이터를 생성하는 센서가 감지된 경우, 자율주행 차량(110)의 운전 모드를 반자율 주행 모드 또는 수동 주행 모드로 전환하는 자율주행 제어 신호를 생성할 수 있다. 대안적으로, 자율주행 모듈(120)은, 비정상적인 센싱 데이터를 생성하는 센서가 감지된 경우, 자율주행 차량(110)이 비상 주행 경로로 주행하도록 하는 자율주행 제어 신호를 생성할 수 있다.In one embodiment, when a sensor that generates abnormal sensing data is detected, the autonomous driving module 120 may output a warning message to be provided to the driver. Here, the warning message output by the autonomous driving module 120 may be a warning signal by sound, vibration, or light. Additionally, the warning message may be a warning message requesting confirmation whether abnormal sensing data is due to environmental factors of the autonomous vehicle. Additionally, when a sensor generating abnormal sensing data is detected, the autonomous driving module 120 generates an autonomous driving control signal that switches the driving mode of the autonomous vehicle 110 to a semi-autonomous driving mode or a manual driving mode. You can. Alternatively, the autonomous driving module 120 may generate an autonomous driving control signal that causes the autonomous vehicle 110 to travel on an emergency driving path when a sensor generating abnormal sensing data is detected.

추가적으로, 자율주행 모듈(120)은, 운전자의 현재 상태를 파악하고, 파악된 운전자의 상태에 따른 경고 메시지 및/또는 자율주행 제어 신호를 생성할 수 있다. 자율주행 모듈(120)은, 자율주행 차량(110)의 내부에 설치된 카메라 또는 적외선 센서(미도시)를 이용하여 운전자의 현재 상태를 파악할 수 있다.Additionally, the autonomous driving module 120 may determine the driver's current state and generate a warning message and/or autonomous driving control signal according to the identified driver's state. The autonomous driving module 120 can determine the driver's current state using a camera or an infrared sensor (not shown) installed inside the autonomous vehicle 110.

일 실시예에서, 운전자의 현재 상태가 수면, 졸음 또는 음주 상태인 경우, 자율주행 모듈(120)은 경고 메시지를 출력하고, 비상주행 모드를 실행할 수 있다. 비상주행 모드에서, 자율주행 모듈(120)은 비상주행 경로를 생성하고, 생성된 비상주행 경로를 따라 차량(110)을 주행하도록 하는 자율주행 제어 신호를 생성할 수 있다. 예를 들어, 비상주행 경로는 차량의 현재 위치 및 주변 상황(차량, 갓길 유무)등을 고려하여 생성될 수 있다. In one embodiment, if the driver's current state is sleeping, drowsy, or drunk, the autonomous driving module 120 may output a warning message and execute an emergency driving mode. In the emergency driving mode, the autonomous driving module 120 may generate an emergency driving path and generate an autonomous driving control signal to drive the vehicle 110 along the generated emergency driving path. For example, an emergency driving route can be created considering the current location of the vehicle and surrounding conditions (vehicle, presence of shoulder), etc.

다른 실시예에서, 운전자의 현재 상태가 경각 상태인 경우, 자율주행 모듈(120)은 경고 메시지를 출력하고, 반자율 주행 모드 또는 수동 주행 모드를 실행할 수 있다. 반자율 주행 모드에서, 자율주행 모듈(120)은, 복수의 센서(130, 140, 150) 중 정상 센싱 데이터를 생성하는 일부 센서를 이용하여 자율주행을 수행할 수 있다. In another embodiment, when the driver's current state is an alert state, the autonomous driving module 120 may output a warning message and execute a semi-autonomous driving mode or a manual driving mode. In the semi-autonomous driving mode, the autonomous driving module 120 may perform autonomous driving using some sensors that generate normal sensing data among the plurality of sensors 130, 140, and 150.

이상 실시예들에 따르면, 자율주행 차량에 설치된 다양한 센서들의 입력에 오류를 발생시키는 갑작스러운 외부 장해요소(160)의 발생 여부를 효과적으로 감지함으로써, 센싱 데이터 오류에 대응하여 안전하고 신뢰성 있는 자율주행을 실행할 수 있다.According to the above embodiments, safe and reliable autonomous driving is achieved in response to sensing data errors by effectively detecting the occurrence of a sudden external obstacle 160 that causes errors in the input of various sensors installed in the autonomous vehicle. It can be run.

도 2는 본 개시의 일 실시예에 따른 자율주행 제어 시스템의 구성을 나타내는 블록도이다.Figure 2 is a block diagram showing the configuration of an autonomous driving control system according to an embodiment of the present disclosure.

도 2에 도시된 자율주행 제어 시스템(200)은, 예를 들어 도 1에 도시된 자율주행 차량(110) 또는 자율주행 모듈(120)에 포함된 시스템일수 있다. 도시된 바와 같이, 자율주행 제어 시스템(200)은, 복수의 이종 센서(130, 140, 150)를 포함하는 센서부(210), 센서부(210) 수신된 센싱 데이터를 처리하여 자율주행 알고리즘을 수행하는 처리부(220), 수신된 센싱 데이터를 비교하는 비교부(230), 비정상 센싱 데이터 또는 이를 생성하는 센서의 검출에 대응하는 비정상 대응부(240)를 포함할 수 있다. 예를 들어, 처리부(220), 비교부(230) 및 비정상 대응부(240)는, 도 1에 도시된 자율주행 모듈(120)에 포함될 수 있다.The autonomous driving control system 200 shown in FIG. 2 may be, for example, a system included in the autonomous vehicle 110 or the autonomous driving module 120 shown in FIG. 1 . As shown, the autonomous driving control system 200 processes the sensor unit 210, which includes a plurality of heterogeneous sensors 130, 140, and 150, and the sensing data received from the sensor unit 210 to perform an autonomous driving algorithm. It may include a processing unit 220 that performs processing, a comparison unit 230 that compares received sensing data, and an abnormal response unit 240 that responds to detection of abnormal sensing data or a sensor that generates it. For example, the processing unit 220, the comparison unit 230, and the abnormal response unit 240 may be included in the autonomous driving module 120 shown in FIG. 1.

일 실시예에서, 센서부(210)는 자율주행에 필요한 복수의 이종 센서들, 즉, 카메라(130), 레이더(140), 라이다(150)를 포함할 수 있다. 센서부(210)에서 생성된 복수의 센싱 데이터는 센서 버스(BUS)(260)를 통해 처리부(220)에 전송될 수 있다.In one embodiment, the sensor unit 210 may include a plurality of heterogeneous sensors necessary for autonomous driving, that is, a camera 130, a radar 140, and a lidar 150. A plurality of sensing data generated by the sensor unit 210 may be transmitted to the processing unit 220 through the sensor bus (BUS) 260.

일 실시예에서, 처리부(220)는, 센서 버스 인터페이스(222), 연산부(224)를 포함할 수 있다. 센서 버스 인터페이스(222)는 BUS(260)를 통해 센서부(210)로부터 송신된 복수의 센싱 데이터들을 수신할 수 있다. 연산부(224)는 주행제어부(226) 및 주변감시부(228)를 포함할 수 있다. 주행 제어부(226)는 수신된 센싱 데이터에 기초하여 자율주행 제어 신호를 생성할 수 있다. 또한, 주변 감시부(228)는, 수신된 센싱 데이터에 기초하여 차량 주변 상황에 관한 주변 정보 데이터를 생성할 수 있다.In one embodiment, the processing unit 220 may include a sensor bus interface 222 and a calculation unit 224. The sensor bus interface 222 may receive a plurality of sensing data transmitted from the sensor unit 210 through the BUS 260. The calculation unit 224 may include a travel control unit 226 and a surrounding monitoring unit 228. The driving control unit 226 may generate an autonomous driving control signal based on the received sensing data. Additionally, the surrounding monitoring unit 228 may generate surrounding information data about the situation around the vehicle based on the received sensing data.

일 실시예에서, 비교부(230)는 도메인 변환부(232), 이미지 매칭부(234), 및 메모리(236)를 포함할 수 있다. 도메인 변환부(232)는 처리부(220)로부터 수신된 센싱 데이터의 도메인을 변환함으로써, 센싱 데이터의 도메인을 일치시킨다. 예를 들어, 도메인 변환부(232)는 수신된 센싱 데이터의 도메인을 2차원 이미지 도메인으로 변환할 수 있다. 이미지 매칭부(234)는 도메인이 일치된 센싱 데이터를 비교함으로써, 비정상 센싱 데이터를 식별할 수 있다.In one embodiment, the comparison unit 230 may include a domain conversion unit 232, an image matching unit 234, and a memory 236. The domain conversion unit 232 converts the domain of the sensing data received from the processing unit 220 to match the domain of the sensing data. For example, the domain converter 232 may convert the domain of the received sensing data into a two-dimensional image domain. The image matching unit 234 can identify abnormal sensing data by comparing sensing data with matched domains.

일 실시예에서, 이미지 매칭부(234)는, 도메인이 일치된 센싱 데이터를 비교한 결과, 일정 임계치 이상의 유사도 차이를 보이는 센싱 데이터를 출력하는 센서를 비정상으로 판단할 수 있다.In one embodiment, the image matching unit 234 may determine that a sensor that outputs sensing data showing a similarity difference greater than or equal to a certain threshold as a result of comparing sensing data with matched domains is abnormal.

일 실시예에서, 비교부(230)의 메모리(236)는 도메인 변환 알고리즘, 이미지 매칭 알고리즘 및 유사도 임계치 데이터 등을 저장할 수 있다. 메모리(236)는 도메인 변환부(232) 및 이미지 매칭부(234) 외부에 배치되어 있는 것으로 도시되어 있으나, 이에 한정되지 않으며, 구현예에 따라서 도메인 변환부(232) 및 이미지 매칭부(234) 각각의 내부에 구현될 수 있다.In one embodiment, the memory 236 of the comparison unit 230 may store a domain conversion algorithm, an image matching algorithm, and similarity threshold data. The memory 236 is shown as being disposed outside the domain conversion unit 232 and the image matching unit 234, but is not limited thereto, and depending on the implementation, the memory 236 may be disposed outside the domain conversion unit 232 and the image matching unit 234. It can be implemented inside each.

일 실시예에서, 비정상 대응부(240)는, 경고부(242), 운전 모드 결정부(244), 비상 주행 경로 생성부(246)를 포함할 수 있다. 비정상 대응부(240)은, 비교부(230)로부터 수신되는 비정상 센싱 데이터 여부 또는 비정상 센싱 데이터를 생성하는 센서 정보에 기초하여 대응 절차를 실행할 수 있다.In one embodiment, the abnormality response unit 240 may include a warning unit 242, a driving mode determination unit 244, and an emergency travel path creation unit 246. The abnormality response unit 240 may execute a response procedure based on whether there is abnormal sensing data received from the comparison unit 230 or sensor information that generates abnormal sensing data.

일 실시예에서, 비정상 대응부(240)의 경고부(242)는, 비교부(230)로부터 비정상 센싱 데이터를 생성하는 센서 정보를 수신한 경우, 운전자(또는 탑승자)에게 제공될 경고 메세지를 생성할 수 있다. 예를 들어, 경고 메시지는, 소리, 진동, 빛에 의한 경고 신호일수 있다. 운전 모드 결정부(244)는, 비교부(230)로부터 비정상 센싱 데이터를 생성하는 센서 정보를 수신한 경우, 자율주행 차량의 운전 모드를 반자율 주행 모드 또는 수동 주행 모드로 전환하는 제어 신호를 생성할 수 있다. In one embodiment, the warning unit 242 of the abnormal response unit 240 generates a warning message to be provided to the driver (or passenger) when receiving sensor information generating abnormal sensing data from the comparison unit 230. can do. For example, a warning message may be a warning signal by sound, vibration, or light. When receiving sensor information that generates abnormal sensing data from the comparison unit 230, the driving mode determination unit 244 generates a control signal to change the driving mode of the autonomous vehicle to semi-autonomous driving mode or manual driving mode. can do.

일 실시예에서, 운전 모드 결정부(244)는, 운전자의 현재 상태를 식별하고, 식별된 운전자의 상태에 따라 자율주행 차량의 운전 모드를 반자율 주행 모드 또는 수동 주행 모드로 전환하는 제어 신호를 생성할 수 있다. 운전 모드 결정부(244)가 운전자의 상태를 파악함에 있어, 예를 들어, 차량 내부에 설치된 카메라 센서에 의해 촬영된 운전자의 영상 중 눈 영역 의 깜박임을 식별함으로써, 운전자가 졸음 상태인지 판단할 수 있다. 운전 모드 결정부(244)에서 운전자의 현재 상태가 졸음 상태로 판단한 경우, 현재 운전 모드를 비상 주행 모드로 전환하는 제어 신호를 생성하여 처리부(220)로 전송할 수 있다.In one embodiment, the driving mode determination unit 244 identifies the current state of the driver and sends a control signal to switch the driving mode of the autonomous vehicle to a semi-autonomous driving mode or a manual driving mode according to the identified driver's state. can be created. When the driving mode determination unit 244 determines the driver's state, for example, it can determine whether the driver is drowsy by identifying blinking in the eye area among the driver's image captured by a camera sensor installed inside the vehicle. there is. If the driving mode determination unit 244 determines that the driver's current state is drowsy, a control signal for switching the current driving mode to the emergency driving mode may be generated and transmitted to the processing unit 220.

일 실시예에서, 운전 모드 결정부(244)는, 운전자의 현재 상태가 경각상태로 판단한 경우, 경고부(242)를 통해 경고 메세지를 출력하고, 운전 모드를 반자율주행 모드 또는 수동주행모드로 전환하는 제어 신호를 생성하여 처리부(220)로 전송할 수 있다. 이에 응답하여, 처리부(220)의 주행 제어부(226)는, 정상 동작하며 비정상 입력 신호를 수신하지 않는, 복수의 센서 중 일부를 사용하여 반자율주행 모드를 실행할 수 있다. In one embodiment, when the driving mode determination unit 244 determines that the driver's current state is an alarm state, the driving mode determination unit 244 outputs a warning message through the warning unit 242 and changes the driving mode to a semi-autonomous driving mode or a manual driving mode. A switching control signal can be generated and transmitted to the processing unit 220. In response, the driving control unit 226 of the processing unit 220 may execute a semi-autonomous driving mode using some of the plurality of sensors that operate normally and do not receive abnormal input signals.

일 실시예에서, 운전 모드 결정부(244)는, 운전자의 현재 상태가 수면, 졸음, 음주 상태로 판단한 경우, 경고부(242)를 통해 경고 메세지를 출력하고, 비상 주행 경로 생성부(246)에서 생성된 경로를 바탕으로 비상주행모드를 수행할 수 있다. 비상 주행 경로 생성부(246)는, 차량의 현재 위치 및 주변 상황(차량, 갓길 유무 등)을 고려하여 비상주행경로를 생성할 수 있다. 비상 주행 경로 생성부(246)에서 생성된 비상주행경로는 자율주행 차량의 현재 위치에서 주차장, 졸음쉼터, 휴게소 등과 같은 안전한 위치까지의 경로를 의미할 수 있다.In one embodiment, when the driving mode determination unit 244 determines that the driver's current state is sleeping, drowsy, or drunk, it outputs a warning message through the warning unit 242 and the emergency driving path creation unit 246. You can perform emergency driving mode based on the path created in . The emergency travel route generator 246 may generate an emergency travel route by considering the current location of the vehicle and surrounding conditions (vehicles, presence of a shoulder, etc.). The emergency driving path generated by the emergency driving path generator 246 may mean a path from the current location of the autonomous vehicle to a safe location such as a parking lot, a sleepy rest area, a rest area, etc.

도 3은 본 개시의 일 실시예에 따른 복수의 이종 센서로부터 수신된 데이터를 비교하여 비정상 센싱 데이터를 식별하는 방법의 예시를 도시한다.Figure 3 shows an example of a method for identifying abnormal sensing data by comparing data received from a plurality of heterogeneous sensors according to an embodiment of the present disclosure.

도 3에 도시된 이미지 데이터(310, 320, 330, 340)는, 복수의 센서에 의해 감지된 자율주행 차량의 주변 환경(예를 들어, 보행자 우선도로)를 나타내는 것으로, 처리부(220)에서 2차원 도메인의 이미지로 변환된 상태를 나타낸다. 처리부(220)는 센서 버스 인터페이스(222)를 통해 센싱 데이터를 수신하고, 수신된 센싱 데이터를 비교하기 위하여 도메인 변환부(232)에서 각 센싱 데이터의 도메인을 변환하여 일치시킨다. 예를 들어, 도메인 변환부(232)는 복수의 센싱 데이터의 도메인을 2차원 도메인 이미지로 변환할 수 있다. The image data 310, 320, 330, and 340 shown in FIG. 3 represents the surrounding environment (e.g., pedestrian priority road) of the autonomous vehicle detected by a plurality of sensors, and is processed by the processing unit 220 into 2 Indicates the state converted into an image of the dimensional domain. The processing unit 220 receives sensing data through the sensor bus interface 222, and in order to compare the received sensing data, the domain conversion unit 232 converts the domains of each sensing data to match them. For example, the domain converter 232 may convert the domains of a plurality of sensing data into a two-dimensional domain image.

도시된 바와 같이, 도메인 변환부(232)는, 라이다 센서, 제1 카메라, 레이더 센서, 제2 카메라로부터 수신된 센싱 데이터의 도메인을 변환하여 2차원 이미지 데이터(310, 320, 330, 340)를 생성할 수 있다. As shown, the domain converter 232 converts the domain of the sensing data received from the lidar sensor, the first camera, the radar sensor, and the second camera into two-dimensional image data 310, 320, 330, and 340. can be created.

일 실시예에서, 이미지 매칭부(234)는, 2차원 이미지데이터(310, 320, 330, 340)를 비교하여 입력에 오류가 있는 센서를 검출할 수 있다. 도시된 바와 같이, 도메인이 변환된 라이다 데이터(310), 제1 카메라 데이터(320) 및 레이더 데이터(330)에서는 한 대의 차량(312, 322, 332) 및 두명의 보행자(314, 324, 334)가 유사하게 식별될 수 있다. 이에 반해, 도메인이 변환된 제2 카메라 데이터(340)에는, 다른 데이터(310, 320, 330)과 다르게, 장해요인(나뭇잎, 눈 등)에 의해 차량 또는 보행자가 식별되지 않기 때문에, 해당 데이터가 입력된 센서에 오류가 발생했음을 검출할 수 있다. In one embodiment, the image matching unit 234 may compare the two-dimensional image data 310, 320, 330, and 340 to detect a sensor with an input error. As shown, in the domain-converted lidar data 310, first camera data 320, and radar data 330, one vehicle (312, 322, 332) and two pedestrians (314, 324, 334) ) can be identified similarly. On the other hand, unlike the other data 310, 320, and 330, the domain-converted second camera data 340 does not identify vehicles or pedestrians due to obstacles (leaves, snow, etc.), so the data is It can be detected that an error has occurred in the input sensor.

이미지 매칭부(234)는, 이미지 데이터(310, 320, 330, 340) 중 이미지 데이터(310, 320, 330)는 서로 유사도가 임계치를 초과하지 않는 것으로 결정할 수 있다. 이에 반해, 이미지 매칭부(234)는, 이미지 데이터(340)와 다른 이미지 데이터(310, 320, 330)의 유사도가 임계치를 초과하여, 이미지 데이터(340)를 비정상 이미지 데이터로 분류할 수 있다.The image matching unit 234 may determine that the similarity between the image data 310, 320, and 330 among the image data 310, 320, 330, and 340 does not exceed a threshold. On the other hand, the image matching unit 234 may classify the image data 340 as abnormal image data because the similarity between the image data 340 and the other image data 310, 320, and 330 exceeds a threshold.

도 4는 본 개시의 일 실시예에 따른 운전자(탑승자)의 현재 상태를 파악하는 방법의 예시를 나타내는 도면이다.Figure 4 is a diagram illustrating an example of a method for determining the current status of a driver (passenger) according to an embodiment of the present disclosure.

일 실시예에서, 운전자(탑승자) 상태 파악 방법(400)은, 운전 모드 결정부에 의해, 운전자의 안구 및 안구주위를 촬영한 영상으로부터 눈의 깜빡임 여부에 따라 졸음 여부 또는 경각 상태 여부를 판단함으로써 실행될 수 있다.In one embodiment, the driver (passenger) state determination method 400 determines whether the driver is drowsy or alert according to whether the driver's eyes blink from images taken of the driver's eyes and the area around the eyes, by the driving mode determination unit. It can be executed.

일 실시예에서, 운전 모드 결정부가 운전자가 경각 상태(410)인 것으로 판단한 경우, 경고부를 통해 경고 메시지를 출력하고, 반자율주행 또는 수동주행로 전환하는 제어 신호를 생성할 수 있다. 한편, 운전 모드 결정부가 운전자가 졸음 상태(420)인 것으로 판단한 경우, 비상주행모드로 전환하는 제어 신호를 생성할 수 있다.In one embodiment, when the driving mode determination unit determines that the driver is in an alert state 410, a warning message may be output through the warning unit and a control signal may be generated to switch to semi-autonomous driving or manual driving. Meanwhile, if the driving mode determination unit determines that the driver is drowsy (420), it may generate a control signal to switch to the emergency driving mode.

도 5는 본 개시의 일 실시예에 따른 복수의 센서에 기반한 자율주행 제어 방법의 흐름도이다.Figure 5 is a flowchart of an autonomous driving control method based on a plurality of sensors according to an embodiment of the present disclosure.

도시된 바와 같이, 복수의 센서에 기반한 자율주행 제어 방법(500)은, 단계 510에서, 복수의 센서로부터 복수의 제1 센싱 데이터를 수신하는 것으로 개시될 수 있다. 일 실시예에서, 도 1 내지 도 4를 참조하면, 처리부(220)는 센서부(210)에서 복수의 센서, 즉, 카메라 센서(130), 레이더(140), 라이다(150)에 의해 복수의 센싱 데이터를 수신할 수 있다.As shown, the autonomous driving control method 500 based on a plurality of sensors may begin by receiving a plurality of first sensing data from a plurality of sensors in step 510. In one embodiment, referring to FIGS. 1 to 4, the processing unit 220 uses a plurality of sensors in the sensor unit 210, that is, a camera sensor 130, a radar 140, and a lidar 150. Sensing data can be received.

다음으로, 복수의 제1 센싱 데이터의 도메인을 변환하여 복수의 제2 센싱 데이터를 생성할 수 있다(단계 520). 일 실시예에서, 도 1 내지 도 4를 참조하면, 도메인 변환부(232)는 처리부(220)에서 수신된 제1 센싱 데이터의 도메인을 변환하여 제2 센싱 데이터인 2차원 이미지 데이터(310, 320, 330, 340)를 생성할 수 있다.Next, the domains of the first plurality of sensing data may be converted to generate a plurality of second sensing data (step 520). In one embodiment, referring to FIGS. 1 to 4, the domain conversion unit 232 converts the domain of the first sensing data received from the processing unit 220 into two-dimensional image data 310 and 320, which are the second sensing data. , 330, 340) can be generated.

단계 530에서, 복수의 제2 센싱 데이터의 비교 결과에 기초하여, 복수의 센서중 비정상적인 데이터를 생성하는 센서를 감지할 수 있다. 일 실시예에서, 도 1 내지 도 4를 참조하면, 비교부(230)는 복수의 제2 센싱 데이터를 비교하고, 비교 결과에 기초하여 복수의 센서 중 비정상적인 데이터를 생성하는 센서를 감지한다. In step 530, based on the comparison result of the plurality of second sensing data, the sensor generating abnormal data among the plurality of sensors may be detected. In one embodiment, referring to FIGS. 1 to 4 , the comparator 230 compares a plurality of second sensing data and detects a sensor generating abnormal data among the plurality of sensors based on the comparison result.

마지막으로, 비정상 센서 감지 시, 경고 메세지를 출력할 수 있다(540). 일 실시예에서, 도 1 내지 도 4를 참조하면, 비교부(230)에 의해 비정상 센서 감지 시, 경고부(242)는 경고 메시지를 출력할 수 있고, 예를 들어 경고 메시지는 소리, 진동 또는 빛에 의한 경고 메시지일 수 있다.Finally, when an abnormal sensor is detected, a warning message can be output (540). In one embodiment, referring to FIGS. 1 to 4, when an abnormal sensor is detected by the comparison unit 230, the warning unit 242 may output a warning message. For example, the warning message may include sound, vibration, or It may be a warning message by light.

도 6은 본 개시의 다른 실시예에 따른 복수의 센서에 기반한 자율주행 제어 방법의 흐름도이다.Figure 6 is a flowchart of an autonomous driving control method based on a plurality of sensors according to another embodiment of the present disclosure.

도시된 바와 같이, 복수의 센서에 기반한 자율주행 제어 방법(600)은, 복수의 센서로부터 복수의 제1 센싱 데이터를 수신하는 단계(610)로 개시될 수 있다.As shown, the autonomous driving control method 600 based on a plurality of sensors may begin with a step 610 of receiving a plurality of first sensing data from a plurality of sensors.

다음으로, 복수의 제1 센싱 데이터의 도메인을 변환하여 복수의 제2 센싱 데이터를 생성하는 단계(620), 복수의 제2 센싱 데이터들의 센싱 데이터와 비교 결과, 다른 센싱 데이터와 유사도가 가장 낮은 센싱 데이터를 생성하는 센서를 검출하는 단계(630)가 실행될 수 있다. Next, converting the domain of the plurality of first sensing data to generate a plurality of second sensing data (620). As a result of comparing the plurality of second sensing data with the sensing data, the sensing data with the lowest similarity to other sensing data is selected. Step 630 of detecting a sensor generating data may be performed.

단계(640)에서, 센싱 데이터의 유사도 차이가 임계치를 초과하는 경우, 단계(650)에서 경고 메세지를 출력하고, 비상주행 경로를 생성하여 비상주행 경로를 따라 이동할 수 있다(660).In step 640, if the similarity difference between the sensed data exceeds the threshold, a warning message is output in step 650, an emergency driving path is created, and the vehicle can move along the emergency driving path (660).

도 7은 본 개시의 또 다른 실시예에 따른 복수의 센서에 기반한 자율주행 제어 방법의 흐름도이다.Figure 7 is a flowchart of an autonomous driving control method based on a plurality of sensors according to another embodiment of the present disclosure.

도시된 바와 같이, 복수의 센서에 기반한 자율주행 제어 방법(700)은, 복수의 센서로부터 복수의 제1 센싱 데이터를 수신하는 단계(710)로 개시될 수 있다.As shown, the autonomous driving control method 700 based on a plurality of sensors may begin with a step 710 of receiving a plurality of first sensing data from a plurality of sensors.

다음으로, 복수의 제1 센싱 데이터의 도메인을 2차원 도메인의 이미지 데이터로 변환하여 복수의 제2 센싱 데이터를 생성하는 단계(720), 및 복수의 제2 센싱 데이터들의 센싱 데이터와 비교 결과, 다른 센싱 데이터와 유사도가 가장 낮은 센싱 데이터를 생성하는 센서를 검출하는 단계(730)가 실행될 수 있다.Next, converting the domain of the plurality of first sensing data into image data of a two-dimensional domain to generate a plurality of second sensing data (720), and as a result of comparing the plurality of second sensing data with the sensing data, another A step 730 of detecting a sensor that generates sensing data with the lowest similarity to the sensing data may be performed.

단계(740)에서, 데이터의 유사도 차이가 임계치를 초과하는 것으로 판단된 경우, 경고 메시지를 출력하는 단계(750)메시지가 실행될 수 있다.In step 740, if it is determined that the difference in data similarity exceeds the threshold, a message in step 750 that outputs a warning message may be executed.

또한, 단계(760)에서, 운전자가 운전이 가능한 상태(예를 들어, 경각 상태)로 판단된 경우, 반자율 주행 모드 또는 수동주행 모드로 전환하는 단계(770)가 실행될 수 있다. 반면, 단계(760)에서, 운전자가 운전이 불가능한 상태(예를 들어, 졸음 상태)로 판단된 경우, 비상주행 경로를 생성하여 비상주행 경로를 따라 이동하는 단계(780)가 실행될 수 있다.Additionally, in step 760, if it is determined that the driver is in a driving state (for example, in an alert state), step 770 of switching to the semi-autonomous driving mode or manual driving mode may be executed. On the other hand, if it is determined in step 760 that the driver is unable to drive (eg, drowsy), step 780 of creating an emergency driving path and moving along the emergency driving path may be performed.

상술한 방법은 컴퓨터에서 실행하기 위해 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램으로 제공될 수 있다. 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수개 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD 와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 애플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.The above-described method may be provided as a computer program stored in a computer-readable recording medium for execution on a computer. The medium may continuously store a computer-executable program, or may temporarily store it for execution or download. In addition, the medium may be a variety of recording or storage means in the form of a single or several pieces of hardware combined. It is not limited to a medium directly connected to a computer system and may be distributed over a network. Examples of media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, And there may be something configured to store program instructions, including ROM, RAM, flash memory, etc. Additionally, examples of other media include recording or storage media managed by app stores that distribute applications, sites or servers that supply or distribute various other software, etc.

본 개시의 방법, 동작 또는 기법들은 다양한 수단에 의해 구현될 수도 있다. 예를 들어, 이러한 기법들은 하드웨어, 펌웨어, 소프트웨어, 또는 이들의 조합으로 구현될 수도 있다. 본원의 개시와 연계하여 설명된 다양한 예시적인 논리적 블록들, 모듈들, 회로들, 및 알고리즘 단계들은 전자 하드웨어, 컴퓨터 소프트웨어, 또는 양자의 조합들로 구현될 수도 있음을 통상의 기술자들은 이해할 것이다. 하드웨어 및 소프트웨어의 이러한 상호 대체를 명확하게 설명하기 위해, 다양한 예시적인 구성요소들, 블록들, 모듈들, 회로들, 및 단계들이 그들의 기능적 관점에서 일반적으로 위에서 설명되었다. 그러한 기능이 하드웨어로서 구현되는지 또는 소프트웨어로서 구현되는지의 여부는, 특정 애플리케이션 및 전체 시스템에 부과되는 설계 요구사항들에 따라 달라진다. 통상의 기술자들은 각각의 특정 애플리케이션을 위해 다양한 방식들로 설명된 기능을 구현할 수도 있으나, 그러한 구현들은 본 개시의 범위로부터 벗어나게 하는 것으로 해석되어서는 안된다.The methods, operations, or techniques of this disclosure may be implemented by various means. For example, these techniques may be implemented in hardware, firmware, software, or a combination thereof. Those skilled in the art will understand that the various illustrative logical blocks, modules, circuits, and algorithm steps described in connection with the disclosure herein may be implemented in electronic hardware, computer software, or combinations of both. To clearly illustrate this interchange of hardware and software, various illustrative components, blocks, modules, circuits, and steps have been described above generally in terms of their functionality. Whether such functionality is implemented as hardware or software depends on the specific application and design requirements imposed on the overall system. Skilled artisans may implement the described functionality in varying ways for each particular application, but such implementations should not be interpreted as causing a departure from the scope of the present disclosure.

하드웨어 구현에서, 기법들을 수행하는 데 이용되는 프로세싱 유닛들은, 하나 이상의 ASIC들, DSP들, 디지털 신호 프로세싱 디바이스들(digital signal processing devices; DSPD들), 프로그램가능 논리 디바이스들(programmable logic devices; PLD들), 필드 프로그램가능 게이트 어레이들(field programmable gate arrays; FPGA들), 프로세서들, 제어기들, 마이크로제어기들, 마이크로프로세서들, 전자 디바이스들, 본 개시에 설명된 기능들을 수행하도록 설계된 다른 전자 유닛들, 컴퓨터, 또는 이들의 조합 내에서 구현될 수도 있다.In a hardware implementation, the processing units used to perform the techniques may include one or more ASICs, DSPs, digital signal processing devices (DSPDs), programmable logic devices (PLDs). ), field programmable gate arrays (FPGAs), processors, controllers, microcontrollers, microprocessors, electronic devices, and other electronic units designed to perform the functions described in this disclosure. , a computer, or a combination thereof.

따라서, 본 개시와 연계하여 설명된 다양한 예시적인 논리 블록들, 모듈들, 및 회로들은 범용 프로세서, DSP, ASIC, FPGA나 다른 프로그램 가능 논리 디바이스, 이산 게이트나 트랜지스터 로직, 이산 하드웨어 컴포넌트들, 또는 본원에 설명된 기능들을 수행하도록 설계된 것들의 임의의 조합으로 구현되거나 수행될 수도 있다. 범용 프로세서는 마이크로프로세서일 수도 있지만, 대안으로, 프로세서는 임의의 종래의 프로세서, 제어기, 마이크로제어기, 또는 상태 머신일 수도 있다. 프로세서는 또한, 컴퓨팅 디바이스들의 조합, 예를 들면, DSP와 마이크로프로세서, 복수의 마이크로프로세서들, DSP 코어와 연계한 하나 이상의 마이크로프로세서들, 또는 임의의 다른 구성의 조합으로서 구현될 수도 있다.Accordingly, the various illustrative logical blocks, modules, and circuits described in connection with this disclosure may be general-purpose processors, DSPs, ASICs, FPGAs or other programmable logic devices, discrete gate or transistor logic, discrete hardware components, or It may be implemented or performed as any combination of those designed to perform the functions described in. A general-purpose processor may be a microprocessor, but in the alternative, the processor may be any conventional processor, controller, microcontroller, or state machine. A processor may also be implemented as a combination of computing devices, such as a DSP and a microprocessor, a plurality of microprocessors, one or more microprocessors in conjunction with a DSP core, or any other configuration.

펌웨어 및/또는 소프트웨어 구현에 있어서, 기법들은 랜덤 액세스 메모리(random access memory; RAM), 판독 전용 메모리(read-only memory; ROM), 비휘발성 RAM(non-volatile random access memory; NVRAM), PROM(programmable read-only memory), EPROM(erasable programmable read-only memory), EEPROM(electrically erasable PROM), 플래시 메모리, 컴팩트 디스크(compact disc; CD), 자기 또는 광학 데이터 스토리지 디바이스 등과 같은 컴퓨터 판독가능 매체 상에 저장된 명령들로서 구현될 수도 있다. 명령들은 하나 이상의 프로세서들에 의해 실행 가능할 수도 있고, 프로세서(들)로 하여금 본 개시에 설명된 기능의 특정 양태들을 수행하게 할 수도 있다.For firmware and/or software implementations, techniques include random access memory (RAM), read-only memory (ROM), non-volatile random access memory (NVRAM), and PROM ( on computer-readable media such as programmable read-only memory (EPROM), electrically erasable PROM (EEPROM), flash memory, compact disc (CD), magnetic or optical data storage devices, etc. It may also be implemented as stored instructions. Instructions may be executable by one or more processors and may cause the processor(s) to perform certain aspects of the functionality described in this disclosure.

이상 설명된 실시예들이 하나 이상의 독립형 컴퓨터 시스템에서 현재 개시된 주제의 양태들을 활용하는 것으로 기술되었으나, 본 개시는 이에 한정되지 않고, 네트워크나 분산 컴퓨팅 환경과 같은 임의의 컴퓨팅 환경과 연계하여 구현될 수도 있다. 또 나아가, 본 개시에서 주제의 양상들은 복수의 프로세싱 칩들이나 장치들에서 구현될 수도 있고, 스토리지는 복수의 장치들에 걸쳐 유사하게 영향을 받게 될 수도 있다. 이러한 장치들은 PC들, 네트워크 서버들, 및 휴대용 장치들을 포함할 수도 있다.Although the above-described embodiments have been described as utilizing aspects of the presently disclosed subject matter in one or more standalone computer systems, the disclosure is not limited thereto and may also be implemented in conjunction with any computing environment, such as a network or distributed computing environment. . Furthermore, aspects of the subject matter of this disclosure may be implemented in multiple processing chips or devices, and storage may be similarly effected across the multiple devices. These devices may include PCs, network servers, and portable devices.

본 명세서에서는 본 개시가 일부 실시예들과 관련하여 설명되었지만, 본 발명이 속하는 기술분야의 통상의 기술자가 이해할 수 있는 본 개시의 범위를 벗어나지 않는 범위에서 다양한 변형 및 변경이 이루어질 수 있다는 점을 알아야 할 것이다. 또한, 그러한 변형 및 변경은 본 명세서에 첨부된 특허청구의 범위 내에 속하는 것으로 생각되어야 한다.Although the present disclosure has been described in relation to some embodiments in the specification, it should be understood that various modifications and changes may be made without departing from the scope of the present disclosure as understood by those skilled in the art. something to do. Additionally, such modifications and changes should be considered to fall within the scope of the claims appended hereto.

110: 자율주행 차량 120: 모듈
130: 카메라 140: 레이더
150: 라이다 160: 장해요소
200: 자율주행 제어 시스템 210: 센서부
220: 처리부 222: 센서버스인터페이스
224: 연산부 226: 주행 제어부
228: 주변 감시부 230: 비교부
232: 도메인 변환부 234: 이미지 매칭부
236: 메모리 240: 비정상 대응부
242: 경고부 244: 운전 모드 결정부
246: 비상 주행 경로 생성부 310: 라이다 데이터
320: 제1 카메라 데이터 330: 레이더 데이터
340: 제2 카메라 데이터 400: 상태 파악 단계
110: autonomous vehicle 120: module
130: Camera 140: Radar
150: Lidar 160: Obstacle
200: Autonomous driving control system 210: Sensor unit
220: Processing unit 222: Sensor bus interface
224: calculation unit 226: driving control unit
228: Perimeter monitoring unit 230: Comparison unit
232: Domain conversion unit 234: Image matching unit
236: memory 240: abnormal response unit
242: warning unit 244: driving mode decision unit
246: Emergency driving path creation unit 310: LiDAR data
320: first camera data 330: radar data
340: Second camera data 400: Status identification step

Claims (10)

적어도 하나의 프로세서에 의해 실행되는, 복수의 센서 데이터에 기반한 자율주행 제어 방법에 있어서,
복수의 센서로부터 복수의 제1 센싱 데이터를 수신하는 단계;
상기 복수의 제1 센싱 데이터의 도메인을 변환하여 복수의 제2 센싱 데이터를 생성하는 단계;
상기 복수의 제2 센싱 데이터의 비교 결과에 기초하여, 상기 복수의 센서 중에서 비정상적인 센싱 데이터를 생성하는 센서를 감지하는 단계; 및
상기 비정상적인 센싱 데이터를 생성하는 센서가 감지된 경우, 경고 메시지를 출력하는 단계;를 포함하되,
상기 복수의 제1 센싱 데이터의 도메인을 변환하여 복수의 제2 센싱 데이터를 생성하는 단계는,
상기 복수의 제1 센싱 데이터를 2차원 도메인의 이미지 데이터로 변환하여 상기 복수의 제2 센싱 데이터를 생성하는 단계;를 포함하되,
상기 복수의 제2 센싱 데이터의 비교 결과에 기초하여, 상기 복수의 센서 중에서 비정상적인 센싱 데이터를 생성하는 센서를 감지하는 단계는,
상기 복수의 제2 센싱 데이터 중 다른 센싱 데이터와의 유사도가 가장 낮은 센싱 데이터를 생성하는 센서를 검출하는 단계; 및
상기 유사도가 가장 낮은 센싱 데이터를 생성하는 센서를 검출하는 단계에서 검출된 센서의 상기 복수의 제2 센싱 데이터 중 다른 센싱 데이터와의 유사도 차이가 임계치를 초과하는 지 여부를 판단하는 단계;를 포함하는, 자율주행 제어 방법.
In an autonomous driving control method based on a plurality of sensor data, executed by at least one processor,
Receiving a plurality of first sensing data from a plurality of sensors;
converting domains of the plurality of first sensing data to generate a plurality of second sensing data;
Detecting a sensor generating abnormal sensing data among the plurality of sensors based on a comparison result of the plurality of second sensing data; and
Including, outputting a warning message when a sensor generating the abnormal sensing data is detected,
The step of generating a plurality of second sensing data by converting the domain of the plurality of first sensing data,
Converting the plurality of first sensing data into two-dimensional domain image data to generate the plurality of second sensing data,
The step of detecting a sensor generating abnormal sensing data among the plurality of sensors based on a comparison result of the plurality of second sensing data includes:
Detecting a sensor that generates sensing data having the lowest similarity with other sensing data among the plurality of second sensing data; and
Comprising: determining whether a difference in similarity with other sensing data among the plurality of second sensing data of the sensor detected in the step of detecting the sensor generating sensing data with the lowest similarity exceeds a threshold; , Autonomous driving control method.
삭제delete 삭제delete 제1항에 있어서,
상기 비정상적인 센싱 데이터를 생성하는 센서가 감지된 경우, 경고 메시지를 출력하는 단계는,
상기 비정상적인 센싱 데이터가 자율주행 차량의 환경 요인에 따른 것인지를 확인 요청하는 경고 메시지를 출력하는 단계를 포함하는, 자율주행 제어 방법.
According to paragraph 1,
When a sensor generating abnormal sensing data is detected, the step of outputting a warning message is:
An autonomous driving control method comprising outputting a warning message requesting confirmation whether the abnormal sensing data is due to environmental factors of the autonomous vehicle.
제1항에 있어서,
상기 비정상적인 센싱 데이터를 생성하는 센서가 감지된 경우, 자율주행 차량의 운전 모드를 반자율 주행 모드 또는 수동 주행 모드로 전환하는 단계를 더 포함하는, 자율주행 제어 방법.
According to paragraph 1,
An autonomous driving control method further comprising switching the driving mode of the autonomous vehicle to a semi-autonomous driving mode or a manual driving mode when a sensor generating the abnormal sensing data is detected.
제1항에 있어서,
상기 비정상적인 센싱 데이터를 생성하는 센서가 감지된 경우, 자율주행 차량이 비상 주행 경로로 주행하도록 제어하는 단계를 더 포함하는, 자율주행 제어 방법.
According to paragraph 1,
An autonomous driving control method further comprising controlling the autonomous vehicle to travel on an emergency driving path when a sensor generating the abnormal sensing data is detected.
제1항에 있어서,
상기 복수의 센서는, 레이더 센서, 라이다(LiDAR) 센서, 적외선 센서 및 카메라 중 적어도 하나를 포함하는, 자율주행 제어 방법.
According to paragraph 1,
The plurality of sensors include at least one of a radar sensor, a LiDAR sensor, an infrared sensor, and a camera.
삭제delete 제1항, 제4항, 제5항, 제6항 및 제7항 중 어느 한 항에 따른 방법을 컴퓨터에서 실행하기 위해 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램.A computer program stored in a computer-readable recording medium for executing the method according to any one of claims 1, 4, 5, 6, and 7 on a computer. 삭제delete
KR1020210178446A 2021-12-14 2021-12-14 System and method for controlling autonomous driving vehicle based on multiple sensor data KR102656811B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210178446A KR102656811B1 (en) 2021-12-14 2021-12-14 System and method for controlling autonomous driving vehicle based on multiple sensor data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210178446A KR102656811B1 (en) 2021-12-14 2021-12-14 System and method for controlling autonomous driving vehicle based on multiple sensor data

Publications (2)

Publication Number Publication Date
KR20230089772A KR20230089772A (en) 2023-06-21
KR102656811B1 true KR102656811B1 (en) 2024-04-12

Family

ID=86990051

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210178446A KR102656811B1 (en) 2021-12-14 2021-12-14 System and method for controlling autonomous driving vehicle based on multiple sensor data

Country Status (1)

Country Link
KR (1) KR102656811B1 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5812064B2 (en) * 2012-11-22 2015-11-11 株式会社デンソー Target detection device
KR101644370B1 (en) * 2014-10-23 2016-08-01 현대모비스 주식회사 Object detecting apparatus, and method for operating the same
KR101967315B1 (en) * 2017-06-05 2019-04-10 현대오트론 주식회사 Apparatus for detecting forward object of vehicle and method thereof
KR102109941B1 (en) * 2018-01-23 2020-05-12 충북대학교 산학협력단 Method and Apparatus for Vehicle Detection Using Lidar Sensor and Camera
KR20210073705A (en) * 2019-12-10 2021-06-21 현대모비스 주식회사 Vehicle control system according to failure of autonomous driving vehicle and method thereof
KR102371749B1 (en) * 2020-01-31 2022-03-10 경북대학교 산학협력단 Device for acquriing vehicle position information and controlling mmthod thereof

Also Published As

Publication number Publication date
KR20230089772A (en) 2023-06-21

Similar Documents

Publication Publication Date Title
US11254333B2 (en) Electronic control device, vehicle control method, and vehicle control program product
CN106840242B (en) Sensor self-checking system and multi-sensor fusion system of intelligent driving automobile
CN110271559B (en) Improved control system and improved control method for autonomously controlling a motor vehicle
US20210046944A1 (en) Determination of reliability of vehicle control commands via redundancy
US10532740B2 (en) Method and arrangement for monitoring and adapting the performance of a fusion system of an autonomous vehicle
US11010229B2 (en) Abnormality determination apparatus, abnormality determination method, and computer readable medium
CN110682877A (en) Autonomous vehicle critical load backup
KR20130094997A (en) Apparatus and method detectinc obstacle and alerting collision
CN111665849B (en) Automatic driving system
US20110093163A1 (en) Method and apparatus for detecting steering angle sensor initialization fault
JP6865572B2 (en) Automotive risk-based control
JP2017174244A (en) Information provision device
US20190033859A1 (en) Sensor failure compensation system for an automated vehicle
US20210339764A1 (en) System and method for detecting and/or preventing automation expectation mismatch in vehicle
US20200148202A1 (en) Method for selecting and accelerated execution of reactive actions
KR102656811B1 (en) System and method for controlling autonomous driving vehicle based on multiple sensor data
CN110427014B (en) Fault vehicle control method and device and chassis control instruction execution method and device
CN112118991A (en) Sensor detection method and vehicle-mounted control terminal
KR102155072B1 (en) Vehicle longitudinal control apparatus and method
KR102656802B1 (en) Autonomous driving computing platform based on redundant architecture
KR20130136113A (en) Method and apparatus for collision warning
US11914027B2 (en) Method and system for identifying hazard objects around a vehicle
CN113168774B (en) Method for determining the current value of an occupancy parameter in relation to a portion of a space located in the vicinity of a land motor vehicle
US20240109539A1 (en) Vehicle For Performing Minimal Risk Maneuver And Method For Operating The Same
KR20240048166A (en) Apparatus and method of detecting failure of sensor for vehicle

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant