KR20210076139A - 자동차 제어 설정들을 생성하는 방법 - Google Patents
자동차 제어 설정들을 생성하는 방법 Download PDFInfo
- Publication number
- KR20210076139A KR20210076139A KR1020217015636A KR20217015636A KR20210076139A KR 20210076139 A KR20210076139 A KR 20210076139A KR 1020217015636 A KR1020217015636 A KR 1020217015636A KR 20217015636 A KR20217015636 A KR 20217015636A KR 20210076139 A KR20210076139 A KR 20210076139A
- Authority
- KR
- South Korea
- Prior art keywords
- vehicle
- raw data
- sensor
- sensors
- computing unit
- Prior art date
Links
- 238000000034 method Methods 0.000 claims abstract description 39
- 238000012545 processing Methods 0.000 claims abstract description 14
- 230000004927 fusion Effects 0.000 claims description 8
- 238000005259 measurement Methods 0.000 claims description 4
- 230000007613 environmental effect Effects 0.000 description 14
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000007921 spray Substances 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 231100001261 hazardous Toxicity 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012067 mathematical method Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000002994 raw material Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/02—Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
- B60W50/0225—Failure correction strategy
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/02—Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
- B60W50/023—Avoiding failures by using redundant parts
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/04—Monitoring the functioning of the control system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0002—Automatic control, details of type of controller or control system architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0002—Automatic control, details of type of controller or control system architecture
- B60W2050/0004—In digital systems, e.g. discrete-time systems involving sampling
- B60W2050/0005—Processor details or data handling, e.g. memory registers or chip architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0002—Automatic control, details of type of controller or control system architecture
- B60W2050/0016—State machine analysis
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/02—Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
- B60W50/0205—Diagnosing or detecting failures; Failure detection models
- B60W2050/0215—Sensor drifts or sensor failures
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B60W2420/42—
-
- B60W2420/52—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2555/00—Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
- B60W2555/20—Ambient conditions, e.g. wind or rain
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2400/00—Special features of vehicle units
- B60Y2400/30—Sensors
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Traffic Control Systems (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Control Of Electric Motors In General (AREA)
Abstract
본 발명은 컴퓨팅 유닛(20) 및 자동차의 환경에 관련된 원시 데이터를 획득하도록 구성된 복수 개의 센서들(10, 11, 12)을 포함하는 자동차를 제어하는 방법으로서, 상기 컴퓨팅 유닛(20)은 상기 센서들에 의해 획득된 원시 데이터를 수신하도록 구성된, 자동차의 제어 방법에 관한 것이며, 상기 자동차의 제어 방법은, - 상기 컴퓨팅 유닛이 상기 센서들에 의해 획득된 원시 데이터를 수신하는 단계; - 상기 컴퓨팅 유닛은 자동차의 환경에 관련된 정보(S1, S2, S3) 및 각각의 항목의 정보를 획득하는데 오류가 있을 확률에 관련된 확률 계수들(P1, P2, P3)을 상기 원시 데이터로부터 획득하도록 상기 원시 데이터를 처리하는 단계; 및 - 상기 정보 및 상기 확률 계수들에 따라 자동차의 제어 명령(C1)을 조성하는 단계; 를 포함한다. 본 발명에 의하면, 상기 자동차의 제어 방법은, - 상기 센서들 중 적어도 하나의 센서에 대해, 이러한 센서에 의해 송신된 원시 데이터의 품질에 관련된 품질 계수를 결정하는 단계; - 상기 품질 계수들 및 상기 확률 계수들에 따라 상기 제어 명령의 신뢰도를 추정하는 단계; 및 - 상기 제어 명령의 추정된 신뢰도에 따라 상기 제어 명령을 수정할지 말지를 결정하는 단계; 를 또 포함한다.
Description
본 발명은 일반적으로 자동차들의 운전자 지원에 관한 것이다.
더 구체적으로 기술하면, 본 발명은 스티어링 시스템, 제동 시스템 또는 파워트레인과 같은 자동차의 하나 이상의 구동 부재들에 대한 제어 명령을 조성(造成)하는 방법에 관한 것이다.
본 발명은 또한 자동차의 환경에 관련된 원시 데이터를 획득하기에 적합한 복수 개의 센서들 및 컴퓨팅 유닛을 포함하는 자동차에 관한 것이다.
본 발명은 더 구체적으로 기술하면 자율 주행 모드를 갖춘 차량에 적용된다. 따라서, 본 발명은 자동차, 항공 및 항공 우주 분야에 적용될 수 있을 것이다.
자동차의 주행을 용이하게 하고 더 안전하게 하기 위해, 자동차에 운전자 지원 시스템들을 장착하는 것은 공지된 관행이다. 상기 운전자 지원 시스템들은 (인간의 개입 없이) 자동차의 자율 주행을 허용하는 시스템들, 또는 자동차의 부분 자율 주행을 허용하는 시스템들(일반적으로는 예를 들어 비상 제동을 적용하거나 자동차 차선 중심에 자동차를 복귀시키도록 자동차를 일시적으로 제어하는 데 적합한 시스템들)일 수 있다.
이러한 시스템들이 자동차 주변 환경을 파악할 수 있게 하기 위해, 카메라 및 RADAR, LIDAR, SONAR 센서들 등과 같은 수많은 센서가 자동차 상에 배치된다.
각각의 센서에는 각각의 센서의 특성과 단점이 있다. 환경 검출 오류들을 가장 잘 줄이기 위해, "데이터 융합(data fusion)"을 수행하는 것, 다시 말하면 단일 항목의 환경 데이터를 서로 다른 센서들로부터 획득하기 위해 서로 다른 센서들에 의해 송신된 데이터를 고려하는 것은 공지된 관행이다. 따라서, 각각의 센서의 특성을 활용하는 것이 가능하다.
공교롭게, 그러함에 불구하고, 자동차가 여전히 실수를 범하는 일, 다시 말하면 자동차가 상황을 잘못 파악하는 일이 벌어질 수 있다. 예를 들어, 자동차는 위험한 객체를 무해한 장애물로 잘못 간주하고 결과적으로는 비상 제동 커맨드를 실행하지 않을 수 있다.
그러므로 이러한 오류들을 줄이는 것이 필요하다.
본 발명은 표준 ISO26262에 의해 정의된 바와 같은 기능 안전 레벨 ASIL D("Automotive Safety Integrity Level D"의 약어)를 충족시키는 새로운 방법 및 새로운 시스템을 제공한다.
더 구체적으로는, 본 발명에 따라 자동차를 제어하는 방법이 제안되며, 자동차의 제어 방법은,
- 자동차의 컴퓨팅 유닛이 자동차의 센서들에 의해 획득되고 자동차의 환경에 관련된 원시 데이터를 수신하는 단계;
- 상기 컴퓨팅 유닛은 자동차의 환경에 관련된 정보 및 각각의 항목의 정보를 획득하는데 오류가 있을 확률에 관련된 확률 계수를 상기 원시 데이터로부터 획득하도록 상기 원시 데이터를 처리하는 단계;
- 상기 정보 및 상기 확률 계수에 따라 자동차의 제어 명령을 조성하는 단계;
- 상기 센서들 중 적어도 제1 센서에 대해, 상기 제1 센서가 획득하는 상기 원시 데이터의 품질에 관련된 품질 계수를 결정하는 단계;
- 상기 품질 계수 및 상기 확률 계수에 따라 상기 제어 명령의 신뢰도를 추정하는 단계;
- 상기 제어 명령의 추정된 신뢰도에 따라 상기 제어 명령을 수정할지 말지를 결정하는 단계;
를 포함한다.
따라서, 본 발명에 의하면, 자동차의 제어 명령이 완전히 안전하게 그대로 사용될 수 있는지 여부를 결정하기 위해 상기 센서들의 작동 조건들을 (이러한 센서들의 품질 계수들을 결정함으로써) 고려하는 것이 가능하다.
예를 들어, 카메라에 의해 획득된 데이터가 고품질임을 고려할 수 있을 만큼 밝기가 양호한지 여부를 결정하는 것이 가능하다. 또한, LIDAR 센서에 의해 획득된 데이터가 고품질의 데이터인지 여부를 알기 위해, 자동차가 스프레이(spray)를 통과하고 있는지 여부를 결정하는 것이 가능하다.
본 발명에 따른 제어 방법의 다른 유리하고 비-제한적인 특징들은 다음과 같다:
- 상기 결정하는 단계에서, 상기 센서들 중 적어도 제1 센서의 품질 계수는 상기 센서들 중 적어도 하나의 다른 센서에 의해 획득된 원시 데이터에 따라 그리고/또는 제3자의 검출기에 의해 획득되고 상기 제1 센서에 의해 획득된 원시 데이터의 측정 조건들에 관련된 제3자의 데이터에 따라 결정되고;
- 상기 제3자의 검출기는 광 센서 또는 레인 센서 또는 자동차가 주행하고 있는 도로의 상태를 검출하기에 적합한 센서이며;
- 상기 센서들 중 적어도 하나의 센서는 이미지 센서 또는 RADAR 센서 또는 LIDAR 센서이고;
- 상기 처리하는 단계에서, 각각의 센서에 의해 송신된 원시 데이터는 자동차의 환경 내 객체들을 검출하고 상기 객체들을 분류하기 위해 다른 센서들에 의해 송신된 원시 데이터와는 별도로 처리되며, 각각의 확률 계수는 분류된 객체와 상기 센서에 연관되어 있고;
- 상기 처리하는 단계에서, 상기 원시 데이터를 처리한 후에, 상기 처리된 데이터는 각각의 확률 계수를 고려하여 융합되며;
- 상기 처리하는 단계에서, 상기 원시 데이터를 처리한 후에, 상기 처리된 데이터는 각각의 품질 계수를 고려하여 융합되고;
- 상기 추정하는 단계에서, 상기 제어 명령의 신뢰도는 또한 상기 처리된 데이터의 융합 결과에 따라 추정되며; 그리고
- 상기 제어 명령을 수정할지 말지에 대한 결정은 또한 상기 센서들과는 다른 센서들로부터 획득된 중복 정보(redundancy information)에 따라 내려진다.
본 발명은 또한 자동차의 환경에 관련된 원시 데이터를 획득하기에 적합한 복수 개의 센서들 및 위에서 언급한 바와 같은 제어 방법을 구현하기에 적합한 컴퓨팅 유닛을 포함하는 자동차에 관한 것이다.
비-제한적인 예들로 제공된 첨부 도면들을 참조한 이하의 설명을 통해 본 발명의 내용 및 본 발명이 구현될 수 있는 방법을 이해할 수 있을 것이다.
도 1은 본 발명에 따른 방법을 구현하기에 적합한 제어 시스템을 보여주는 도면이다.
본 발명은 특히 자동차의 자율 주행, 다시 말하면 인간의 개입이 없는 차량의 자율 주행을 허용하는 제어 시스템이 장착된 자동차에 적용된다.
더 구체적으로, 본 발명은 자동차의 적어도 하나의 구동 부재를 제어하는 방법에 관한 것이다.
이러한 구동 부재는 예를 들어 자동차의 파워트레인에 의해서나, 또는 스티어링 장치 또는 제동 장치에 의해 형성될 수 있다. 본 설명의 나머지 부분에서는, 이러한 모든 구동 부재들 모두가 자동차의 컴퓨팅 유닛에 의해 제어되는 것으로 간주될 것이다.
도 1의 일부에 도시된 이러한 컴퓨팅 유닛(20)은 프로세서, 메모리 및 여러 입력 및 출력 인터페이스들을 포함한다.
이는 여기서 블록들의 형태로 표현된, 별개이지만 상호 의존적인 알고리즘들을 구현하는 데 적합하다.
상기 컴퓨팅 유닛(20)의 메모리를 통해, 상기 컴퓨팅 유닛(20)은 상기 프로세서에 의한 실행으로 이하에서 설명될 방법의 구현이 허용되는 명령어들을 포함하는 컴퓨터 프로그램들로 이루어진 컴퓨터 애플리케이션을 저장한다.
상기 컴퓨팅 유닛(20)의 출력 인터페이스들을 통해, 상기 컴퓨팅 유닛(20)은 상기 컴퓨팅 유닛(20)이 제어 명령(C1)을 상기 구동 부재들(30)에 송신할 수 있도록 상기 구동 부재들(30)에 접속되어 있다.
상기 컴퓨팅 유닛(20)의 입력 인터페이스들을 통해, 상기 컴퓨팅 유닛(20)은 여러 센서(10, 11, 12, 13)(적어도 2개의 센서이지만, 바람직하게는 그 이상임)에 접속되어 있다.
이들은 임의 유형의 센서일 수 있다.
예를 들어, 자동차에는 자동차 주위의 모든 방향(다시 말하면, 360도)을 커버하도록 배향된 디지털 카메라(10), RADAR 센서(11), LIDAR 센서(12) 및 광 센서(13)가 장착될 수 있다.
상기 광 센서(13)는 자동차의 조명을 자동으로 스위치 온하는 종래의 기능을 제공하는 것을 가능하도록 존재한다.
이하 환경 센서들이라고 하는 다른 센서들(10, 11, 12)은 자동차를 자율적으로 제어하는 기능을 보장하도록 상기 환경 센서들(10, 11, 12)의 일부에 대해 존재한다.
이러한 환경 센서들(10, 11, 12) 각각에는 특성과 단점이 있다. 예를 들어, 카메라는 맑은 날씨에 장애물을 잘 검출할 수 있지만 어둡거나 지나치게 밝은 빛에서는 검출이 불량하게 된다. 이와는 반대로, RADAR 또는 LIDAR 센서는 빛에 상관없이 장애물을 잘 검출할 수 있지만 스프레이나 악천후(비, 안개, 눈)가 있는 경우 부정확한 데이터를 제공하게 된다.
여기서 상기 구동 부재들에 송신되는 제어 명령(C1)은 주로 상기 환경 센서들(10, 11, 12)에 의해 송신된 원시 데이터에 따라 조성될 것이다.
이때, 도 1을 참조하여 이러한 제어 명령(C1)이 조성되는 방식을 구체적으로 설명하는 것이 가능하다.
실제로, 상기 컴퓨팅 유닛(20)은 반복적인 방식으로 다시 말하면 규칙적인 시간 간격으로 이하에서 설명되는 방법을 구현하도록 프로그램된다.
이러한 방법은 7개의 주요 단계를 포함한다.
제1 단계에서는, 상기 컴퓨팅 유닛(20)이 상기 센서들(10, 11, 12, 13) 모두에 의해 획득된 원시 데이터를 판독한다.
여기서 고려된 예에서는, 상기 컴퓨팅 유닛(20)이 상기 카메라(10)에 의해, 상기 RADAR 센서(11)에 의해, 상기 LIDAR 센서(12)에 의해 그리고 상기 광 센서(13)에 의해 송신된 원시 데이터를 판독한다.
예를 들어, 상기 카메라(10)의 경우, 상기 원시 데이터는 상기 카메라의 감광 센서의 각각 픽셀의 컬러 및 밝기 특성에 의해 형성된다. 상기 광 센서(13)의 경우, 상기 원시 데이터는 시간에 걸쳐 측정된 광 레벨들에 의해 형성된다.
제2 단계에서는, 상기 획득된 원시 데이터가 자동차의 환경에 관련된 정보를 상기 획득된 원시 데이터로부터 획득하도록 처리된다.
실제로, 상기 환경 센서들(10, 11, 12)에 의해 송신된 원시 데이터는 서로 별도로 처리된다.
그러한 목적은 상기 원시 데이터를 기반으로 자동차의 환경 내에 있는 객체들(장애물, 교통 표지, 제3자의 차량, 보행자 등)을 검출하고 이러한 객체들을 분류하며 각각 분류된 객체(S1, S2, S3)에, 이러한 객체의 검출 및 분류에서 오류가 있을 확률에 관련된 확률 계수(P1, P2, P3)를 할당하기 위한 것이다.
이러한 단계를 구현하기 위해, "CNN"("convolutional neural network") 기법들과 같은 기계 학습 기법들을 기반으로 하는 분류 방법들을 사용하는 것이 가능하다.
일 변형 예로서나 또는 추가로, 필터들 또는 임의의 다른 유형의 적절한 처리가 사용될 수 있다.
요약하면, 도 1에 도시된 바와 같이, 상기 컴퓨팅 유닛(20)은, 입력으로서 상기 카메라(10)로부터, 상기 RADAR 센서(11)로부터 그리고 상기 LIDAR 센서(12)로부터 원시 데이터를 입력으로서 제각기 수신하고 검출 및 분류되어 확률 계수(P1, P2, P3)에 연관된 각각의 객체의 설명(S1, S2, S3)을 출력으로서 별도로 전달하는 3개의 블록(B10, B11, B12)을 포함한다.
제3 단계에서는, 상기 컴퓨팅 유닛(20)이 상기 환경 센서들(10, 11, 12) 각각에 대한 품질 계수(Q1, Q2, Q3)를 결정한다. 이러한 품질 계수(Q1, Q2, Q3)는 해당 센서에 의해 획득된 원시 데이터의 품질에 관련된 것이다.
실제로, 이러한 품질 계수(Q1, Q2, Q3)을 통해 해당 센서의 올바른 작동을 허용하기에 적합한 외부 조건들을 어느 정도 알 수 있는 것이 가능하다.
다시 말하면, 이러한 품질 계수들(Q1, Q2, Q3)을 통해 이하의 사항을 결정하는 것이 가능하다:
- 상기 카메라(10)가 예를 들어 주변 광을 고려해 객체들을 정확하게 검출할 수 있는지 여부; 그리고
- 상기 RADAR 센서(11) 및 상기 LIDAR 센서(12)가 예를 들어 날씨를 고려해 객체들을 정확하게 검출할 수 있는지 여부.
각각의 품질 계수(Q1, Q2, Q3)는 (실선 화살표로 표시된 바와 같은) 해당 센서에 의해 획득된 원시 데이터에 따라 결정되지만 (점선 화살표로 표시된 바와 같은) 다른 센서들에 의해 획득된 원시 데이터에 따라서도 결정된다.
따라서, 날씨는 상기 카메라(10)에 의해 획득된 이미지들에 따라 결정될 수 있고, 주변 광은 상기 광 센서(13)에 의해 획득될 수 있다.
물론, 특히 날씨를 결정하기 위해 다른 센서들이 사용될 수 있다. 따라서, 자동차의 바퀴들에 위치하게 되고 자동차가 주행하고 있는 도로의 상태를 검출하기에 적합한 레인 센서(rain sensor) 및/또는 가속도계들을 사용하는 것이 가능할 것이다.
상기 센서들(10, 11, 12, 13)로부터 획득된 원시 데이터는 이하의 방법들에 적용함으로써 각각의 품질 계수(Q1, Q2, Q3)를 결정하는 데 사용된다:
- 통계적 방법들(상기 카메라(10)로부터 획득된 원시 데이터의 경우, 특히 "브리크(BRIQUE)" 또는 "니크(NIQUE)" 방법들을 사용하는 것이 가능함); 및/또는
- 주파수 방법들(상기 카메라(10)로부터 획득된 원시 데이터의 경우 이미지들의 선명도를 결정하도록 "선명도/블러(Sharpness/Blur)" 또는 "고-저 주파수 인덱스(High-Low Frequency Index)" 방법들을 사용하는 것도 가능하며, 상기 LIDAR 센서로부터 획득된 원시 데이터의 경우, "참조가 있는 RMSE(RMSE with reference), "HDMAP 및 GPS" 또는 "공분산 행렬/엔트로피 측정(covariance matrix/entropy measurement)" 방법들을 사용하는 것이 가능함).
요약하면, 도 1에 도시된 바와 같이, 상기 컴퓨팅 유닛(20)은 3개의 블록(B10', B11', B12')을 포함하며, 3개의 블록(B10', B11', B12')은 상기 카메라(10)로부터 그리고/또는 상기 RADAR 센서(11)로부터 그리고/또는 상기 LIDAR 센서(12)로부터 그리고/또는 상기 광 센서(13)로부터 원시 데이터를 입력으로서 수신하고 그리고 상기 환경 센서들(10, 11, 12) 중 하나에 연관되고 주행 조건들을 고려해 이러한 센서에 의해 취해진 측정들의 정밀도 레벨에 관련된 품질 계수(Q1, Q2, Q3)를 출력으로서 각각 전달한다.
이하에서 자명해지겠지만, 각각의 환경 센서(10, 11, 12)에 대한 품질 계수를 추정하면 작동 조건들이 최선의 것으로 추정되고 결과적으로는 가장 신뢰할 수 있는 원시 데이터를 전달하는 하나 이상의 센서들을 선호하는 것이 가능하다.
제4 단계에서는, 여러 환경 센서(10, 11, 12)로부터 획득된 데이터를 융합하는 것이 제공된다.
이를 위해서는, 한편으로는 상기 센서들에 의해 획득된 원시 데이터와 다른 한편으로는 블록들(B10, B11, B12)로부터 획득된 데이터를 융합하는 것이 가능할 것이다.
그러나 여기에서는 블록들(B10, B11, B12)로부터 획득된 데이터(다시 말하면, 설명들(S1, S2, S3))만이 융합되는 것으로 간주될 것이다.
이러한 데이터가 여기에서는 각각의 확률 계수(P1, P2, P3)를 고려하고 잠재적으로는 각각의 품질 계수(Q1, Q2, Q3)에 따라 융합된다.
"데이터 융합"이 의미하는 것은 이종 센서들(heterogeneous sensors)로부터 획득된 여러 데이터에 적용되고 자동차 주변에 있는 객체들의 검출 및 분류를 세분화하는 것을 가능하게 하는 수학적 방법이다.
예를 들어, 상기 카메라(10)에 의해 획득된 이미지들로부터의 데이터는 상기 카메라(10)에 의해 획득된 이미지에서 검출된 객체들의 정확한 위치와 동역학(속도 및 가속도)을 양호하게 추정하기 위해 상기 RADAR 센서(11) 및 상기 LIDAR 센서(12)로부터의 데이터와 융합될 수 있다.
그리고 나서, 상기 확률(P1, P2, P3) 및 상기 품질 계수들(Q1, Q2, Q3)은 객체들의 검출 및 분류를 위해 각각의 환경 센서(10, 11, 12)의 가중치들을 동적으로 조정하는 데 사용된다.
요약하면, 도 1에 도시된 바와 같이, 상기 컴퓨팅 유닛(20)은 상기 검출된 객체들의 설명들(S1, S2, S3) 뿐 아니라 상기 확률(P1, P2, P3) 및 상기 품질 계수들(Q1, Q2, Q3)을 입력으로서 수신하며 여러 환경 센서에 의해 검출되고 상기 데이터 융합 알고리즘들에 의해 검사된 각각의 객체의 설명들(카테고리, 위치 및 동역학)을 포함하는 결과(D2)를 출력으로서 전달하는 블록(B1)을 포함한다.
이러한 결과(D2)에 의해, 제5 단계에서는, 상기 컴퓨팅 유닛(20)이 자동차의 여러 구동 부재(30)에 대한 제어 명령(C1)을 조성한다.
이를 위해서는, 도 1에 도시된 바와 같이, 상기 컴퓨팅 유닛(20)이 상기 블록(B1)으로부터의 결과(D2)를 입력으로서 수신하고 상기 제어 명령(C1)을 출력으로서 전달하는 블록(B2)을 포함한다.
이러한 제어 명령(C1)은 결과적으로 자동차 환경의 컴퓨팅 유닛(20)에 의한 평가를 고려해 생성된다.
이러한 평가에서의 임의의 오류가 자동차의 탑승자에 대해 위험한 결과들을 초래하는 것을 방지하기 위해, 상기 방법을 안전하게 하도록 2개의 추가 단계가 또한 제공된다.
제6 단계에서는, 상기 컴퓨팅 유닛(20)이 상기 품질(Q1, Q2, Q3) 및 확률 계수들(P1, P2, P3)에 따라 상기 제어 명령(C1)의 신뢰도를 추정한다.
실제로, 상기 제어 명령(C1)의 신뢰도는 신뢰도 계수(D3)에 의해 추정된다.
이러한 신뢰도 계수(D3)를 계산하기 위한 알고리즘은 예를 들어 상기 품질 계수(Q1, Q2, Q3) 및 상기 확률 계수들(P1, P2, P3)을 상관시키는 방법에 기초하여 이루어질 수 있다.
바람직하게는, 상기 신뢰도 계수(D3)는 주로 상기 품질 계수들(Q1, Q2, Q3)에 따라 결정될 것이다.
특히, 이러한 품질 계수들(Q1, Q2, Q3)이 상기 환경 센서들(10, 11, 12) 대다수가 자동차가 자동차 환경을 양호하게 파악할 수 없는 조건들에서 작동하고 있음을 나타내면, 이러한 정보는 (상기 확률 계수들의 값들에 관계없이) 신뢰도 계수(D3)를 결정하는데 고려될 것이다.
다시 말하면, 상기 확률 계수들(P1, P2, P3)은 상기 품질 계수들(Q1, Q2, Q3)보다 낮은 통계적 가중치를 지닌다.
더욱이, 주어진 센서의 품질 계수를 결정하는 데 사용되는 센서들의 갯수가 많을수록 신뢰도 계수(D3)의 계산에서 이러한 품질 계수의 가중치가 커지게 된다.
신뢰성 계수(D3)를 계산하는 알고리즘은 다른 데이터를 고려할 수 있을 것이다. 따라서, 바람직하게는 상기 융합의 결과(D2)에 따라서도 신뢰도 계수(D3)가 추정될 것이다. 이런 방식으로, 상기 융합의 결과(D2)가 일치하지 않으면, 이러한 불일치는 신뢰도 계수(D3)를 계산하는데 고려될 수 있을 것이다.
요약하면, 도 1에 도시된 바와 같이, 상기 컴퓨팅 유닛(20)은 상기 확률 계수들(P1, P2, P3) 및 상기 품질 계수들(Q1, Q2, Q3)과 아울러, 상기 융합의 결과(D2)를 입력으로서 수신하고 신뢰도 계수(D3)를 출력으로서 전달하는 블록(B3)을 포함한다.
제7 단계에서는, 상기 컴퓨팅 유닛(20)이 이때 상기 제어 명령(C1)을 수정할지 말지에 대한 결정을 (이러한 결정을 상기 구동 부재(30)에 송신하기 전에) 내리게 된다.
이러한 결정은 주로 상기 신뢰도 계수(D3)를 고려하여 내려진다.
바람직하게는, 이러한 결정은 이때까지 고려된 센서들(10, 11, 12)과는 구별되는 센서로부터 획득된 중복 정보(D1)에 따라서 내려질 수 있을 것이다.
실제로, 상기 신뢰도 계수(D3)가 임계치 미만일 경우 그리고/또는 상기 중복 정보(D1)가 고려된 데이터 간 불일치를 나타낼 경우, 상기 컴퓨팅 유닛(20)은 상기 제어 명령(C1)의 수정을 요청할 것으로 예상된다.
이러한 수정으로 인한 동작은 예를 들어 자동차의 자율 주행 모드를 해제하거나 또는 하나 이상의 사전에 식별된 센서들로부터의 원시 데이터를 고려해 정지하는 것일 수 있다.
요약하면, 도 1에 도시된 바와 같이, 상기 컴퓨팅 유닛(20)은 상기 신뢰도 계수(D3)와 아울러 상기 중복 정보(D1)를 입력으로서 수신하고 상기 제어 명령(C1)을 수정하도록 하는 명령을 출력으로서 잠재적으로 전달하는 블록(B4)을 포함한다.
이러한 블록(B4)은 ISO26262 표준의 의미 내에서 ASIL-D 안전 레벨을 보장하는 것이 목적인 알고리즘으로 형성된다.
Claims (10)
- 컴퓨팅 유닛(20) 및 자동차의 환경에 관련된 원시 데이터를 획득하도록 구성된 복수 개의 센서들(10, 11, 12)을 포함하는 자동차를 제어하는 방법으로서,
상기 자동차의 제어 방법은,
- 상기 컴퓨팅 유닛(20)이 상기 센서들(10, 11, 12)에 의해 획득된 원시 데이터를 수신하는 단계;
- 상기 컴퓨팅 유닛(20)은 자동차의 환경에 관련된 정보(S1, S2, S3) 및 각각의 항목의 정보(S1, S2, S3)를 획득하는데 오류가 있을 확률에 관련된 확률 계수들(P1, P2, P3)을 상기 원시 데이터로부터 획득하도록 상기 원시 데이터를 처리하는 단계; 및
- 상기 정보(S1, S2, S3) 및 상기 확률 계수들(P1, P2, P3)에 따라 자동차의 제어 명령(C1)을 조성하는 단계;
를 포함하며,
상기 자동차의 제어 방법은,
- 상기 센서들(10, 11, 12) 중 적어도 제1 센서에 대해, 상기 제1 센서(10, 11, 12)가 획득하는 상기 원시 데이터의 품질에 관련된 품질 계수(Q1, Q2, Q3)를 결정하는 단계;
- 상기 품질 계수들(Q1, Q2, Q3) 및 상기 확률 계수들(P1, P2, P3)에 따라 상기 제어 명령(C1)의 신뢰도를 추정하는 단계; 및
- 상기 제어 명령(C1)의 추정된 신뢰도에 따라 상기 제어 명령(C1)을 수정할지 말지를 결정하는 단계;
를 또 포함하는 것을 특징으로 하는, 자동차의 제어 방법. - 제1항에 있어서,
상기 결정하는 단계에서, 상기 센서들(10, 11, 12) 중 적어도 제1 센서의 품질 계수(Q1, Q2, Q3)는 상기 센서들(10, 11, 12) 중 적어도 하나의 다른 센서에 의해 획득된 원시 데이터에 따라 그리고/또는 제3자 검출기(13)에 의해 획득되고 상기 제1 센서(10, 11, 12)에 의해 획득된 원시 데이터의 측정 조건들에 관련된 제3자의 데이터에 따라 결정되는, 자동차의 제어 방법. - 제1항 또는 제2항에 있어서,
상기 제3자의 검출기(13)는 광 센서 또는 레인 센서 또는 자동차가 주행하고 있는 도로의 상태를 검출하도록 구성된 센서인, 자동차의 제어 방법. - 제1항 내지 제3항 중 한 항에 있어서,
상기 센서들(10, 11, 12) 중 적어도 하나의 센서는 이미지 센서 또는 RADAR 센서 또는 LIDAR 센서인, 자동차의 제어 방법. - 제1항 내지 제4항 중 한 항에 있어서,
상기 처리하는 단계에서, 각각의 센서(10, 11, 12)에 의해 송신된 원시 데이터는 자동차의 환경 내 객체들을 검출하고 상기 객체들을 분류하기 위해 다른 센서들(10, 11, 12)에 의해 송신된 원시 데이터와는 별도로 처리되며, 각각의 확률 계수(P1, P2, P3)는 분류된 객체와 상기 센서(10, 11, 12)에 연관되어 있는, 자동차의 제어 방법. - 제1항 내지 제5항 중 한 항에 있어서,
상기 처리하는 단계에서, 상기 원시 데이터를 처리한 후에, 상기 처리된 데이터는 각각의 확률 계수(P1, P2, P3)를 고려하여 융합되는, 자동차의 제어 방법. - 제1항 내지 제6항 중 한 항에 있어서,
상기 처리하는 단계에서, 상기 원시 데이터를 처리한 후에, 상기 처리된 데이터는 각각의 품질 계수(Q1, Q2, Q3)를 고려하여 융합되는, 자동차의 제어 방법. - 제1항 내지 제7항 중 한 항에 있어서,
상기 추정하는 단계에서, 상기 제어 명령(C1)의 신뢰도는 또한 상기 처리된 데이터의 융합 결과에 따라 추정되는, 자동차의 제어 방법. - 제1항 내지 제8항 중 한 항에 있어서,
상기 제어 명령(C1)을 수정할지 말지에 대한 결정은 또한 상기 센서들(10, 11, 12)과는 다른 센서들로부터 획득된 중복 정보(redundancy information)에 따라 내려지는, 자동차의 제어 방법. - 자동차의 환경에 관련된 원시 데이터를 획득하도록 구성된 복수 개의 센서들(10, 11, 12) 및 컴퓨팅 유닛(20)을 포함하는 자동차에 있어서, 상기 컴퓨팅 유닛(20)은 제1항 내지 제9항 중 한 항에 기재된 제어 방법을 구현하도록 구성되는 것을 특징으로 하는, 자동차.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1860137A FR3088041B1 (fr) | 2018-11-02 | 2018-11-02 | Procede d’elaboration d’une consigne de pilotage d’un vehicule automobile |
FR1860137 | 2018-11-02 | ||
PCT/EP2019/079531 WO2020089230A1 (fr) | 2018-11-02 | 2019-10-29 | Procédé d'élaboration d'une consigne de pilotage d'un véhicule automobile |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210076139A true KR20210076139A (ko) | 2021-06-23 |
Family
ID=65951653
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020217015636A KR20210076139A (ko) | 2018-11-02 | 2019-10-29 | 자동차 제어 설정들을 생성하는 방법 |
Country Status (7)
Country | Link |
---|---|
US (1) | US11657621B2 (ko) |
EP (1) | EP3873786A1 (ko) |
JP (1) | JP7439079B2 (ko) |
KR (1) | KR20210076139A (ko) |
CN (1) | CN112930290A (ko) |
FR (1) | FR3088041B1 (ko) |
WO (1) | WO2020089230A1 (ko) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102020203829A1 (de) * | 2020-03-25 | 2021-09-30 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren zum Überwachen eines Fahrzeugsystems zum Erkennen einer Umgebung eines Fahrzeugs |
FR3113317B1 (fr) * | 2020-08-10 | 2023-09-29 | Valeo Systemes Dessuyage | Procédé d’exploitation de données provenant d’une sélection de capteurs d’assistance à la conduite dans un véhicule |
FR3116252B1 (fr) * | 2020-11-19 | 2023-03-24 | Renault Sas | Système et procédé de contrôle adapté à la perception |
FR3120837A1 (fr) * | 2021-03-16 | 2022-09-23 | Psa Automobiles Sa | Véhicule avec détection de changement de luminosité dans le scénario de conduite |
CN113515845A (zh) * | 2021-04-29 | 2021-10-19 | 北京大学(天津滨海)新一代信息技术研究院 | 原子钟的可靠性预测方法及装置 |
CN116229425B (zh) * | 2023-05-08 | 2023-09-19 | 珠海骏驰智联科技有限公司 | 基于大数据的无人驾驶车辆障碍物检测方法及系统 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2900737B2 (ja) * | 1993-02-01 | 1999-06-02 | トヨタ自動車株式会社 | 車間距離検出装置 |
JP2002099906A (ja) | 2000-09-22 | 2002-04-05 | Mazda Motor Corp | 物体認識装置 |
JP3931879B2 (ja) * | 2003-11-28 | 2007-06-20 | 株式会社デンソー | センサフュージョンシステム及びそれを用いた車両制御装置 |
JP4857840B2 (ja) | 2006-03-22 | 2012-01-18 | 日産自動車株式会社 | 物体検出方法および物体検出装置 |
JP2008299787A (ja) | 2007-06-04 | 2008-12-11 | Mitsubishi Electric Corp | 車両検知装置 |
JP2010132056A (ja) | 2008-12-03 | 2010-06-17 | Fujitsu Ten Ltd | 検知装置、検知方法および車両制御装置 |
DE102009019792A1 (de) * | 2009-05-02 | 2010-11-04 | Leopold Kostal Gmbh & Co. Kg | Steuersystem zum sicheren Betreiben von mindestens einer Funktionskomponente |
SG184520A1 (en) * | 2010-03-26 | 2012-11-29 | Fortem Solutions Inc | Effortless navigation across cameras and cooperative control of cameras |
US10207719B2 (en) * | 2010-07-19 | 2019-02-19 | Nxp Usa, Inc. | Use of multiple internal sensors for measurements validation |
US9221396B1 (en) * | 2012-09-27 | 2015-12-29 | Google Inc. | Cross-validating sensors of an autonomous vehicle |
JP5842862B2 (ja) * | 2013-05-14 | 2016-01-13 | 株式会社デンソー | 衝突緩和装置 |
DE102013212710A1 (de) * | 2013-05-16 | 2014-11-20 | Siemens Aktiengesellschaft | Sensorprodukt, Simulator und Verfahren zur Simulation von Sensormessungen, zur Fusion von Sensormessungen, zur Validierung eines Sensormodells und zum Entwurf eines Fahrerassistenzsystems |
DE102014205180A1 (de) * | 2014-03-20 | 2015-09-24 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Betreiben eines Fahrzeugs |
JP6326985B2 (ja) * | 2014-06-04 | 2018-05-23 | 住友電気工業株式会社 | 自律運転制御装置、車両、コンピュータプログラム、及び自律運転制御方法 |
KR101610502B1 (ko) * | 2014-09-02 | 2016-04-07 | 현대자동차주식회사 | 자율주행차량의 주행환경 인식장치 및 방법 |
DE102016202805A1 (de) * | 2016-02-24 | 2017-08-24 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Vorrichtung zum Betreiben eines Umfeldsensors eines Fahrzeugs |
CN114627664A (zh) * | 2016-08-26 | 2022-06-14 | 松下电器(美国)知识产权公司 | 三维信息处理方法以及三维信息处理装置 |
US10315649B2 (en) | 2016-11-29 | 2019-06-11 | Ford Global Technologies, Llc | Multi-sensor probabilistic object detection and automated braking |
-
2018
- 2018-11-02 FR FR1860137A patent/FR3088041B1/fr active Active
-
2019
- 2019-10-29 KR KR1020217015636A patent/KR20210076139A/ko unknown
- 2019-10-29 WO PCT/EP2019/079531 patent/WO2020089230A1/fr unknown
- 2019-10-29 JP JP2021523483A patent/JP7439079B2/ja active Active
- 2019-10-29 CN CN201980071677.5A patent/CN112930290A/zh active Pending
- 2019-10-29 US US17/289,447 patent/US11657621B2/en active Active
- 2019-10-29 EP EP19800946.6A patent/EP3873786A1/fr active Pending
Also Published As
Publication number | Publication date |
---|---|
WO2020089230A1 (fr) | 2020-05-07 |
FR3088041A1 (fr) | 2020-05-08 |
EP3873786A1 (fr) | 2021-09-08 |
FR3088041B1 (fr) | 2020-10-16 |
JP2022506262A (ja) | 2022-01-17 |
JP7439079B2 (ja) | 2024-02-27 |
US20220004782A1 (en) | 2022-01-06 |
US11657621B2 (en) | 2023-05-23 |
CN112930290A (zh) | 2021-06-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20210076139A (ko) | 자동차 제어 설정들을 생성하는 방법 | |
CN110103984B (zh) | 使用感知系统措施管理前进路径的自动驾驶复杂度 | |
US20230079730A1 (en) | Control device, scanning system, control method, and program | |
EP3366539B1 (en) | Information processing apparatus and information processing method | |
US11273835B2 (en) | System for a vehicle | |
US20170297571A1 (en) | Method and arrangement for monitoring and adapting the performance of a fusion system of an autonomous vehicle | |
US20180297609A1 (en) | Substitution of sensor measurement data | |
US11256251B2 (en) | Enabling remote control of a vehicle | |
US20200168094A1 (en) | Control device, control method, and program | |
CN111507162B (zh) | 基于车辆间通信的协作的盲点警告方法及装置 | |
KR20190040550A (ko) | 차량에서의 장애물 검출장치 및 그 제어방법 | |
CN108960083B (zh) | 基于多传感器信息融合的自动驾驶目标分类方法及系统 | |
CN112693472A (zh) | 车辆的adas或自动驾驶特征的性能监控和评估 | |
US20210016779A1 (en) | Automated driving system and method of autonomously driving a vehicle | |
GB2576206A (en) | Sensor degradation | |
CN110869865B (zh) | 用于运行较高程度自动化的车辆(haf)、尤其高度自动化车辆的方法 | |
US20230202520A1 (en) | Travel controller and method for travel control | |
US11807238B2 (en) | Driving assistance system for a vehicle, vehicle having same and driving assistance method for a vehicle | |
CN113243017A (zh) | 确定图像数据是否在图像分析软件被配置以分析的预定范围内 | |
JP5103722B2 (ja) | 停止車両判別装置 | |
US11852497B2 (en) | Method for detecting false positives of an image-processing device of a camera | |
US20220306161A1 (en) | Method for detecting inconsistencies in the outputs of perception systems of autonomous vehicles | |
KR20200116495A (ko) | 자동차에 대한 주변 환경 정보를 융합하기 위한 융합 시스템 | |
US20230009269A1 (en) | Lidar enhanced polynomial generation for lane centering | |
US11577753B2 (en) | Safety architecture for control of autonomous vehicle |