KR20240021695A - Virtual fields driving related operations - Google Patents

Virtual fields driving related operations Download PDF

Info

Publication number
KR20240021695A
KR20240021695A KR1020230089678A KR20230089678A KR20240021695A KR 20240021695 A KR20240021695 A KR 20240021695A KR 1020230089678 A KR1020230089678 A KR 1020230089678A KR 20230089678 A KR20230089678 A KR 20230089678A KR 20240021695 A KR20240021695 A KR 20240021695A
Authority
KR
South Korea
Prior art keywords
vehicle
driver
virtual
determining
force
Prior art date
Application number
KR1020230089678A
Other languages
Korean (ko)
Inventor
비에스 아르민
미스리 아이작
엔겔쏘이 율리우스
라이헬가우즈 이갈
Original Assignee
오토브레인즈 테크놀로지스 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US17/823,069 external-priority patent/US20230064387A1/en
Application filed by 오토브레인즈 테크놀로지스 리미티드 filed Critical 오토브레인즈 테크놀로지스 리미티드
Publication of KR20240021695A publication Critical patent/KR20240021695A/en

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/087Interaction between the driver and the control system where the control system corrects or modifies a request from the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

차량의 운전자와 통신하는 방법으로서, 상기 방법은 (i) 차량의 환경 내에 위치된 하나 이상의 물체에 관한 물체 정보를 획득하는 단계; (ii) 상기 물체 정보를 분석하는 단계; (iii) 하나 이상의 신경망(NN)을 사용하고, 상기 물체 정보에 기초하여 물리적 모델과 관련되며 차량의 거동에 대한 하나 이상의 물체의 영향을 나타내는 가상 힘을 결정하는 단계; 및 (iv) 적어도 가상 힘에 기초하여, 차량을 사용하는 운전자에 의해 이루어진 운전자 동작과 관련하여 적용될 물리적 억제력을 제공하는 데 사용하기 위한 힘 피드백을 결정하는 단계를 포함한다.A method of communicating with a driver of a vehicle, the method comprising: (i) obtaining object information regarding one or more objects located within the environment of the vehicle; (ii) analyzing the object information; (iii) using one or more neural networks (NN), based on the object information, determining virtual forces that are associated with a physical model and that represent the influence of one or more objects on the behavior of the vehicle; and (iv) determining, based at least on the virtual forces, force feedback for use in providing a physical restraint to be applied in connection with driver movements made by the driver using the vehicle.

Description

가상 필드 주행 관련 작동{VIRTUAL FIELDS DRIVING RELATED OPERATIONS}VIRTUAL FIELDS DRIVING RELATED OPERATIONS}

본 출원은 미국 가출원 63/260,839로부터 우선권을 주장하는 2022년 8월 29일에 출원된 미국 특허 출원 17/823,069의 일부의 연속 출원으로서, 이는 발명에 참조로 포함된다. 본 출원은 2022년 7월 11일에 출원된 미국 가출원 특허 번호 63/368,155의 우선권을 주장하며, 이는 이의 전체 내용이 본 발명에 포함된다.This application is a continuation-in-part of U.S. Patent Application No. 17/823,069, filed Aug. 29, 2022, which claims priority from U.S. Provisional Application No. 63/260,839, which is incorporated herein by reference. This application claims priority from U.S. Provisional Application No. 63/368,155, filed July 11, 2022, the entire contents of which are hereby incorporated by reference.

본 발명은 차량의 운전자와 통신하기 위한 방법에 관한 것이다.The present invention relates to a method for communicating with a driver of a vehicle.

자율 주행 차량(AV)은 교통사고의 수와 CO2 배출을 크게 줄이는데 도움이 될 뿐만 아니라, 보다 효율적인 이송 시스템에 기여할 수 있다. 그러나, 오늘날의 후보 AV 기술은 다음 세가지 방식에서 확장될 수 없다:Autonomous vehicles (AVs) can help significantly reduce the number of traffic accidents and CO2 emissions, as well as contribute to more efficient transport systems. However, today's candidate AV technologies cannot scale in three ways:

제한된 시야, 조명(lighting)과 날씨 문제, 및 어클루전(occlusion)은 모두 감지 오류 및 잡음이 많은 국부화/운동학으로 이어진다. 이러한 열악한 현실 세계 지각 출력을 처리하기 위해, AV 기술에 대한 한 가지 접근법은 값비싼 센서에 투자 및/또는 특수 인프라를 도로 네트워크에 통합하는 것이다. 그러나, 이러한 노력은 비용이 많이 들고 인프라의 경우 지리적으로 제한되므로, 일반적으로 접근 가능한 AV 기술로 이어질 수 없다.Limited field of view, lighting and weather issues, and occlusion all lead to detection errors and noisy localization/kinematics. To deal with this poor real-world perceptual output, one approach for AV technology is to invest in expensive sensors and/or integrate specialized infrastructure into road networks. However, these efforts are expensive and geographically limited in terms of infrastructure, so they cannot lead to generally accessible AV technology.

고가의 하드웨어 및 인프라를 기반으로 하지 않는 AV 기술은 머신 러닝(machine learning)에 전적으로 의존하므로 현실 세계의 상황을 처리하는 데이터에 의존한다. 감지 오류를 처리하고 복잡한 주행 작업을 위한 우수하고 충분한 운전 정책을 학습하기 위해서는, 방대한 양의 데이터와 계산 리소스(resource)가 필요하지만 여전히 정확하게 처리되지 않는 극단적 경우(edge case)가 있다. 이들 극단적 경우에서 공통 분모는 머신 러닝 모델이 보이지 않거나 혼란스러운 상황에 대해 잘 일반화되지 않으며 딥 신경망(deep neural network)의 블랙박스 특성으로 인해 잘못된 동작(behavior)을 분석하기 어렵다는 것이다.AV technology, which is not based on expensive hardware and infrastructure, relies entirely on machine learning and thus relies on data to process real-world situations. In order to handle detection errors and learn good and sufficient driving policies for complex driving tasks, a huge amount of data and computational resources are required, but there are still edge cases that are not handled accurately. The common denominator in these extreme cases is that machine learning models do not generalize well to invisible or confusing situations, and the black box nature of deep neural networks makes it difficult to analyze incorrect behavior.

현재 도로 준비가 된 자율 주행은 ACC, AEB, LCA와 같은 별도의 ADAS 기능 형태로 구현된다. 완전 자율 주행에 도달하려면 기존 ADAS 기능을 원활하게 결합하고 이러한 기능들(예를 들어, 차선 변경, 교차로 처리 등)을 더 추가하여 현재 자동화되지 않은 간격을 메워야 한다. 요컨대, 현재의 자율 주행은 완전한 자율 주행을 구현하기 위해 쉽게 확장될 수 있는 전체론적 접근법을 기반으로 하지 않는다.Currently, road-ready autonomous driving is implemented in the form of separate ADAS functions such as ACC, AEB, and LCA. Reaching fully autonomous driving requires seamlessly combining existing ADAS functions and adding more of these functions (e.g. lane changes, intersection handling, etc.) to fill the gaps that are currently not automated. In short, current autonomous driving is not based on a holistic approach that can be easily expanded to implement fully autonomous driving.

따라서, 본 발명은 차량의 운전자와 통신하기 위한 방법으로서, 차량의 환경 내에 위치된 하나 이상의 물체에 관한 물체 정보를 획득하는 단계; 상기 물체 정보를 분석하는 단계; 하나 이상의 신경망(NN)을 사용함으로써, 그리고 상기 물체 정보에 기초하여, 물리적 모델과 관련되고 차량의 동작에 대한 하나 이상의 물체의 영향을 나타내는 가상 힘을 결정하는 단계; 및 적어도 가상 힘에 기초하여, 차량을 사용하는 운전자에 의해 이루어진 운전자 조치와 관련하여 적용될 물리적인 저항력을 제공하는데 사용하기 위한 힘 피드백을 결정하는 단계를 포함하는 방법을 제공한다.Accordingly, the present invention provides a method for communicating with a driver of a vehicle, comprising: obtaining object information regarding one or more objects located within the environment of the vehicle; analyzing the object information; determining, by using one or more neural networks (NN) and based on the object information, virtual forces that are associated with a physical model and that represent the influence of one or more objects on the operation of the vehicle; and determining, based at least on the virtual forces, force feedback for use in providing a physical resistance force to be applied in connection with driver actions made by a driver using the vehicle.

또한, 본 발명은 차량의 운전자와 통신하기 위한 비일시적 컴퓨터 판독 가능 매체로서, 상기 비일시적 컴퓨터 판독 가능 매체는 하기를 위한 명령어를 저장하는 비일시적 컴퓨터 판독 가능 매체를 제공한다: 차량의 환경 내에 위치된 하나 이상의 물체에 관한 물체 정보를 획득하고; 상기 물체 정보를 분석하며; 하나 이상의 신경망(NN)을 사용함으로써, 그리고 상기 물체 정보에 기초하여, 물리적 모델과 관련되고 차량의 동작에 대한 하나 이상의 물체의 영향을 나타내는 가상 힘을 결정하며; 그리고 적어도 가상 힘에 기초하여, 차량을 사용하는 운전자에 의해 이루어진 운전자 조치과 관련하여 적용될 물리적인 저항력을 제공하는데 사용하기 위한 힘 피드백을 결정함.The present invention also provides a non-transitory computer-readable medium for communicating with a driver of a vehicle, the non-transitory computer-readable medium storing instructions for: being located within the environment of the vehicle; Obtain object information about one or more objects that have been identified; Analyzing the object information; determine, by using one or more neural networks (NN) and based on the object information, virtual forces that are associated with a physical model and represent the influence of one or more objects on the motion of the vehicle; and determining, at least based on the virtual forces, force feedback for use in providing a physical resistance force to be applied in connection with driver actions made by the driver using the vehicle.

본 개시물의 실시 형태들은 도면들과 함께 취해진 하기의 상세한 설명으로부터 더 완전하게 이해되고 인식지될 것이다:
도 1은 방법의 일 실시예를 도시한다.
도 2는 방법의 일 실시예를 도시한다.
도 3은 방법의 일 실시예를 도시한다.
도 4는 방법의 일 실시예를 도시한다.
도 5는 차량의 일 실시예이다.
도 6-9는 상황과 지각 필드(perception field)의 실시예들을 도시한다.
도 10은 방법의 일 실시예를 도시한다.
도 11은 장면의 일 실시예를 도시한다.
Embodiments of the disclosure will be more fully understood and appreciated from the following detailed description taken in conjunction with the drawings:
Figure 1 shows one embodiment of the method.
Figure 2 shows one embodiment of the method.
Figure 3 shows one embodiment of the method.
Figure 4 shows one embodiment of the method.
5 shows an embodiment of a vehicle.
Figures 6-9 illustrate embodiments of context and perception fields.
Figure 10 shows one embodiment of the method.
Figure 11 shows one embodiment of a scene.

다음의 상세한 설명에서, 본 발명의 완전한 이해를 제공하기 위해 다수의 구체적인 세부사항이 제시된다. 그러나, 본 발명이 이들 특정 세부사항 없이 실시될 수 있다는 것이 당업자에 의해 이해될 것이다. 다른 경우들에서, 잘 알려진 방법, 절차 및 구성 요소들은 본 발명을 가리지 않기 위해 자세히 설명되지는 않는다.In the following detailed description, numerous specific details are set forth to provide a thorough understanding of the invention. However, it will be understood by those skilled in the art that the present invention may be practiced without these specific details. In other instances, well-known methods, procedures and components are not described in detail so as not to obscure the invention.

발명으로 간주되는 요지는 상세한 설명의 결론 부분에서 특별히 지적되고 명확하게 주장된다. 그러나, 본 발명의 목적들, 특징들 및 이점들과 함께 구성 및 작동 방법에 관해 첨부된 도면들과 함께 읽을 때 하기의 상세한 설명을 참조함으로써 가장 잘 이해될 수 있다.The subject matter considered to be the invention is specifically pointed out and clearly asserted in the conclusion of the detailed description. However, the objects, features and advantages of the present invention, together with its construction and method of operation, may be best understood by reference to the following detailed description when read in conjunction with the accompanying drawings.

설명의 단순함과 명확성을 위해 도면들에 도시된 요소는 반드시 축척에 맞게 그려지지는 않았다. 예를 들어 일부 요소들의 치수는 명확성을 위해 다른 요소들에 비해 과장될 수 있다. 또한, 적절한 것으로 간주되는 경우, 참조 번호는 대응하거나 유사한 요소들을 나타내기 위해 도면들 중에서 반복될 수 있다.For simplicity and clarity of explanation, elements shown in the drawings are not necessarily drawn to scale. For example, the dimensions of some elements may be exaggerated relative to others for clarity. Additionally, where deemed appropriate, reference numerals may be repeated among the drawings to indicate corresponding or similar elements.

본 발명의 도시된 실시 형태들은 대부분 당업자에게 공지된 전기적 구성 요소들 및 회로를 사용하여 구현될 수 있기 때문에, 세부사항은 본 발명의 근본 개념의 이해 및 인식을 위해 그리고 본 발명의 교시를 혼란하게 하거나 산만하게 하지 않기 위해 전술한 바와 같이 필요한 것으로 간주되는 것보다 많게 설명되지는 않을 것이다. Since the illustrated embodiments of the present invention can be implemented using mostly electrical components and circuits known to those skilled in the art, the details are provided to facilitate understanding and appreciation of the underlying concepts of the present invention and to avoid confusing the teachings of the present invention. In order not to be confusing or distracting, no more will be explained than is deemed necessary as aforesaid.

방법에 대한 상세한 설명에서의 임의의 참조는 방법을 실행할 수 있는 장치 또는 시스템 및/또는 방법을 실행하기 위한 명령어를 저장하는 비일시적 컴퓨터 판독 가능 매체에 준용하여 적용되어야 한다.Any reference in the detailed description of the method shall apply mutatis mutandis to a device or system capable of executing the method and/or a non-transitory computer-readable medium storing instructions for executing the method.

시스템 또는 장치에 대한 상세한 설명의 임의의 참조는 시스템에 의해 실행될 수 있는 방법에 준용하여 적용되어야 하며 및/또는 시스템에 의해 실행 가능한 명령어를 저장하는 비일시적 컴퓨터 판독 가능 매체에 준용하여 적용될 수 있다.Any reference in the detailed description to a system or device should apply mutatis mutandis to a method executable by the system and/or may apply mutatis mutandis to a non-transitory computer-readable medium storing instructions executable by the system.

비일시적 컴퓨터 판독 가능 매체에 대한 상세한 설명에서의 임의의 참조는 비일시적 컴퓨터 판독 가능 매체에 저장된 명령어들을 실행할 수 있는 장치 또는 시스템에 준용되어야 하며 및/또는 명령어들을 실행하기 위한 방법에 준용하여 적용될 수 있다. Any reference in the detailed description to a non-transitory computer-readable medium shall apply mutatis mutandis to a device or system capable of executing instructions stored on the non-transitory computer-readable medium and/or may apply mutatis mutandis to a method for executing the instructions. there is.

임의의 도면, 상세한 설명 및/또는 청구 범위에 나열된 임의의 모듈 또는 유닛의 조합이 제공될 수 있다.Any combination of modules or units listed in any of the drawings, detailed description, and/or claims may be provided.

적용에서 예시된 유닛 및/또는 모듈 중 임의의 하나는 하드웨어 및/또는 코드에서 구현될 수 있고, 비일시적 컴퓨터 판독 가능 매체에 저장된 명령어들 및/또는 명령은 차량, 차량 외부, 모바일 장치, 서버 등에 포함될 수 있다.Any one of the units and/or modules illustrated in the application may be implemented in hardware and/or code, and instructions and/or instructions stored in a non-transitory computer-readable medium may be stored in a vehicle, outside the vehicle, mobile device, server, etc. may be included.

차량은 지상 수송 차량, 항공 차량 및 수상 선박인 임의의 유형의 차량일 수 있다.The vehicle may be any type of vehicle, including ground transport vehicles, air vehicles, and watercraft.

본 상세한 설명 및/또는 도면은 이미지를 참조할 수 있다. 이미지는 미디어 단위의 예이다. 이미지에 대한 임의의 참조는 미디어 유닛에 준용하여 적용될 수 있다. 미디어 유닛은 감지된 정보 유닛(Sensed Information Unit; SIU)의 예일 수 있다. 미디어 단위에 대한 임의의 참조는 자연에 의해 발생된 신호와 같은 임의의 유형의 자연 신호, 인간 행동을 나타내는 신호, 주식 시장과 관련된 작동을 나타내는 신호, 의료 신호, 금융 시리즈, 측지 신호(geodetic signal), 지구 물리학, 화학, 분자, 텍스트 및 숫자 신호, 시계열 등과 관련된 작동을 나타내는 신호에 준용하여 적용될 수 있으나 이에 제한되는 것은 아니다. 미디어 유닛에 대한 임의의 참조는 감지된 정보 유닛(SIU)에 준용하여 적용될 수 있다. SIU는 임의의 종류일 수 있으며 가시광 카메라, 오디오 센서, 적외선을 감지할 수 있는 센서, 레이더 이미지, 초음파, 전기 광학, 라디오그래피, LIDAR(광 감지 및 거리 측정)를 감지할 수 있는 센서, 열 센서, 수동 센서, 능동 센서 등과 같은 임의의 종류에 의해 감지될 수 있다. 감지는 전송된 신호를 나타내는 샘플(예를 들어, 픽셀, 오디오 신호)을 생성하거나, 그렇지 않으면 센서에 도달하는 것이 포함될 수 있다. SIU는 하나 이상의 이미지, 하나 이상의 비디오 클립, 하나 이상의 이미지에 관한 텍스트 정보, 물체에 대한 운동학적 정보를 설명하는 텍스트 등일 수 있다.This detailed description and/or drawings may refer to images. An image is an example of a media unit. Any reference to an image may apply mutatis mutandis to a media unit. A media unit may be an example of a Sensed Information Unit (SIU). Any reference to a media unit may include any type of natural signal, such as a signal generated by nature, a signal representing human behavior, a signal representing operations related to the stock market, a medical signal, a financial series, or a geodetic signal. , may be applied mutatis mutandis to signals representing operations related to geophysics, chemistry, molecules, text and numeric signals, time series, etc., but is not limited thereto. Any reference to a media unit may apply mutatis mutandis to a sensed information unit (SIU). SIUs can be of any type and include visible light cameras, audio sensors, sensors capable of detecting infrared, radar images, sensors capable of detecting ultrasound, electro-optics, radiography, LIDAR (light detection and ranging), and thermal sensors. , can be sensed by any type, such as passive sensors, active sensors, etc. Sensing may involve generating samples (e.g., pixels, audio signals) that represent the transmitted signal or otherwise reaching the sensor. An SIU may be one or more images, one or more video clips, text information about one or more images, text describing kinematic information about an object, etc.

물체 정보는 물체의 위치, 물체의 동작, 물체의 속도, 물체의 가속도, 물체의 전파 방향, 물체의 유형, 물체의 하나 이상의 치수 등과 같은 물체와 관련된 임의의 유형의 정보를 포함할 수 있지만 이에 제한되지 않는다. 물체 정보는 원시 SIU, 처리된 SIU, 텍스트 정보, SIU로부터 파생된 정보 등일 수 있다.Object information may include, but is not limited to, any type of information related to an object, such as the location of the object, the motion of the object, the speed of the object, the acceleration of the object, the direction of propagation of the object, the type of object, one or more dimensions of the object, etc. It doesn't work. Object information may be raw SIU, processed SIU, text information, information derived from SIU, etc.

물체 정보를 획득하는 단계는 물체 정보를 수신하는 것, 물체 정보를 생성하는 것, 물체 정보의 처리에 참여하는 것, 물체 정보의 일부만을 처리하는 것 및/또는 물체 정보의 다른 부분만을 수신하는 것을 포함할 수 있다.Obtaining object information includes receiving object information, generating object information, participating in processing of object information, processing only part of object information, and/or receiving only other parts of object information. It can be included.

물체 정보를 획득하는 단계는 물체 검출을 포함할 수도 있거나 물체 검출을 수행하지 않고 실행될 수도 있다.Obtaining object information may include object detection or may be performed without performing object detection.

물체 정보의 처리는 물체 검출, 노이즈 감소, 신호 대 잡음비 개선, 바운딩 박스의 정의 등 중 적어도 하나를 포함할 수 있다.Processing of object information may include at least one of object detection, noise reduction, signal-to-noise ratio improvement, and definition of a bounding box.

물체 정보는 하나 이상의 센서, 하나 이상의 통신 유닛, 하나 이상의 메모리 유닛, 하나 이상의 이미지 프로세서 등과 같은 하나 이상의 소스(source)로부터 수신될 수 있다.Object information may be received from one or more sources, such as one or more sensors, one or more communication units, one or more memory units, one or more image processors, etc.

물체 정보는 하나 이상의 방식으로 - 예를 들어 절대적 방식으로(예를 들어 - 물체 위치의 좌표 제공) 또는 상대적 방식으로 - 예를 들어 차량과 관련하여(예를 들어 물체는 차량과 관련하여 특정 거리와 특정 각도에 있음) 제공될 수 있다.Object information can be shared in one or more ways - for example in an absolute way (for example - giving coordinates of the object's position) or in a relative way - for example in relation to a vehicle (for example - an object is stored at a certain distance in relation to the vehicle). (at a certain angle) can be provided.

차량은 자아-차량(ego-vehicle)이라고도 한다.The vehicle is also called an ego-vehicle.

상세한 설명 및/또는 도면들은 프로세서 또는 처리 회로를 나타낼 수 있다. 프로세서는 처리 회로일 수 있다. 처리 회로는 중앙 처리 장치(CPU) 및/또는 주문형 집적 회로(ASIC), 필드 프로그램 가능한 게이트 어레이(FPGA), 완전 맞춤형 집적 회로 등과 같은 하나 이상의 다른 집적 회로, 또는 이러한 집적 회로의 조합으로 구현될 수 있다.The detailed description and/or drawings may represent a processor or processing circuitry. A processor may be a processing circuit. The processing circuitry may be implemented as a central processing unit (CPU) and/or one or more other integrated circuits, such as an application-specific integrated circuit (ASIC), a field programmable gate array (FPGA), a fully custom integrated circuit, etc., or a combination of these integrated circuits. there is.

상세한 설명 및/또는 도면들에 도시된 임의의 방법의 임의의 단계의 임의의 조합이 제공될 수 있다.Any combination of any steps of any method shown in the description and/or drawings may be provided.

청구항 범위 중 임의의 요지의 임의의 조합이 제공될 수 있다.Any combination of any of the subject matter of the claims may be provided.

상세한 설명 및/또는 도면들에 예시된 시스템, 유닛, 구성 요소, 프로세서, 센서의 임의의 조합이 제공될 수 있다.Any combination of systems, units, components, processors, and sensors illustrated in the description and/or drawings may be provided.

물체에 대한 임의의 참조는 패턴에 적용될 수 있다. 따라서 물체 검출에 대한 임의의 참조는 패턴 검출에 준용하여 적용될 수 있다.Any reference to an object can be applied to the pattern. Therefore, any reference to object detection can be applied mutatis mutandis to pattern detection.

성공적인 주행은 이들의 위치와 움직임(movement)을 기반으로 주변 도로 물체를 우회하는데 달려 있지만, 인간은 운동학을 추정하는 것에 능숙하지 못하다. 본 발명자는 인간이 행동을 즉시 암시하는 가상 역장(virtual force field)의 형태로 주변 물체의 내부 표현을 사용하여, 운동학 추정의 필요성을 회피한다고 의심한다. 자아 차량이 한 차선에서 운전하고 인접한 차선에서 대각선 전방에 있는 차량이 자아 차선으로 방향을 틀기 시작하는 시나리오를 고려한다. 브레이크 또는 방향 전환에 대한 인간의 반응은 즉각적이고 본능적이며 방향을 바꾸는 차량에서 자아를 밀어내는 가상의 힘으로 경험할 수 있다. 이러한 가상 힘 표현은 학습되고 특정 도로 물체와 관련된다.Successful driving depends on circumventing surrounding road objects based on their positions and movements, but humans are not good at estimating their kinematics. The inventor suspects that humans circumvent the need for kinematic estimation by using internal representations of surrounding objects in the form of virtual force fields that immediately imply action. Consider a scenario where your vehicle is driving in one lane and a vehicle diagonally ahead in an adjacent lane begins to swerve into your lane. The human response to braking or turning is immediate and instinctive and can be experienced as a virtual force pushing the ego away from the turning vehicle. These virtual force representations are learned and associated with specific road objects.

위의 고려 사항에서 영감을 받아 본 발명자는 지각 필드(perception field)의 신규한 개념을 제안한다. 지각 필드는 ADAS 및/또는 AV 소프트웨어의 형태로 자아 차량의 제어 시스템을 통해 "감지"되는 가상 역장의 형태로 도로 물체의 학습된 표현이다. 본 발명에서 필드는 공간 위치(또는 유사한 수량)에 따라 달라지는 수학적 함수로 정의된다.Inspired by the above considerations, the present inventor proposes a novel concept of perception field. The perceptual field is a learned representation of road objects in the form of a virtual force field that is “sensed” through the ego vehicle's control system in the form of ADAS and/or AV software. In the present invention, a field is defined as a mathematical function that varies depending on spatial location (or similar quantity).

추론 방법(100)의 일 실시예는 도 1에 도시되며 하기를 포함한다:One embodiment of inference method 100 is shown in Figure 1 and includes:

방법(100)은 차량 환경의 하나 이상의 프레임마다 실행될 수 있다.Method 100 may be executed for each one or more frames of the vehicle environment.

방법(100)의 단계 110은 하나 이상의 물체(예를 들어, 하나 이상의 도로 사용자를 포함)를 검출 및/또는 추적하는 것을 포함할 수 있다. 검출 및/또는 추적은 임의의 방식으로 수행될 수 있다. 하나 이상의 물체는 차량의 동작에 영향을 미칠 수 있는 임의의 물체일 수 있다. 예를 들어 - 도로 사용자(보행자, 다른 차량), 차량이 진행 중인 도로 및/또는 경로(예를 들어, 도로 또는 경로의 상태, 도로의 모양 - 예를 들어, 곡선, 직선 도로 세그먼트), 교통 표지판, 신호등, 도로 건널목, 학교, 유치원 등이다. 단계 110은 하나 이상의 물체에 관련된 운동학적 및 상황적(contextual) 변수와 같은 추가 정보를 획득하는 것을 포함할 수 있다. 획득은 수신 또는 생성을 포함할 수 있다. 획득은 하나 이상의 프레임을 처리하여 운동학적 및 상황적 변수를 생성하는 것을 포함할 수 있다.Step 110 of method 100 may include detecting and/or tracking one or more objects (eg, including one or more road users). Detection and/or tracking may be performed in any manner. The one or more objects may be any object that can affect the operation of the vehicle. For example - road users (pedestrians, other vehicles), the road and/or path on which the vehicle is traveling (e.g. the condition of the road or path, the shape of the road - e.g. curved, straight road segments), traffic signs. , traffic lights, road crossings, schools, kindergartens, etc. Step 110 may include obtaining additional information, such as kinematic and contextual variables related to one or more objects. Acquiring can include receiving or generating. Acquisition may include processing one or more frames to generate kinematic and contextual variables.

단계 110은 (하나 이상의 프레임을 획득하지 않고서도) 운동학적 변수를 획득하는 것을 포함할 수 있다는 점에 유의해야 한다.It should be noted that step 110 may include acquiring kinematic variables (without acquiring one or more frames).

방법(100)은 또한 하나 이상의 물체에 관련된 각각의 지각 필드를 획득하는 단계 120를 포함할 수 있다. 단계 120은 물체들 간의 어떤 매핑을 검색 및/또는 사용되어야 하는지 등을 결정하는 것을 포함할 수 있다.Method 100 may also include step 120 of obtaining respective perceptual fields associated with one or more objects. Step 120 may include determining which mapping between objects should be retrieved and/or used, etc.

단계 110(및 심지어 단계 120)는 지각 필드(및 하나 이상의 가상 물리적 모델 함수), 운동학적 및 상황적 변수와 같은 관련 입력 변수를 전달함으로써 하나 이상의 물체와 관련된 하나 이상의 가상 힘을 결정하는 단계 130가 뒤따를 수 있다.Step 110 (and even step 120) includes step 130 determining one or more virtual forces associated with one or more objects by passing relevant input variables such as perceptual fields (and one or more pseudo-physical model functions), kinematic and contextual variables. It can follow.

단계 130 다음에는 하나 이상의 물체와 관련된 하나 이상의 가상 힘에 기초하여 차량에 적용되는 총 가상 힘을 결정하는 단계 140가 뒤따를 수 있다. 예를 들어, 단계 140는 하나 이상의 물체와 관련된 하나 이상의 가상 힘에 대해 벡터 가중 합(또는 다른 함수)을 수행하는 것을 포함할 수 있다.Step 130 may be followed by step 140 of determining a total virtual force applied to the vehicle based on one or more virtual forces associated with one or more objects. For example, step 140 may include performing a vector weighted sum (or other function) on one or more virtual forces associated with one or more objects.

단계 140 다음에는 총 가상 힘에 기초하여, 원하는(또는 목표) 가상 가속도 - 예를 들어 뉴턴의 제2 법칙의 등가물(equivalent)에 기초하여 결정하는 단계 150가 뒤따를 수 있다. 원하는 가상 가속도는 벡터일 수도 있고 - 또는 그렇지 않으면 방향을 가질 수 있다.Step 140 may be followed by step 150 of determining, based on the total virtual force, a desired (or target) virtual acceleration - for example, based on an equivalent of Newton's second law. The desired virtual acceleration may be vector - or otherwise have a direction.

단계 150 다음에는 차량이 원하는 가상 가속도를 따라 전파하게 할 하나 이상의 차량 주행 작동으로 원하는 가상 가속도를 변환하는 단계 160가 뒤따를 수 있다.Step 150 may be followed by step 160 of converting the desired virtual acceleration into one or more vehicle driving operations that will cause the vehicle to propagate along the desired virtual acceleration.

예를 들어, 단계 160는 가스 페달 움직임, 브레이크 페달 움직임 및/또는 스티어링 휠 각도를 사용하여 원하는 가속도를 가속 또는 감속으로 병진 이동하거나 차량의 진행 방향을 변경하는 것을 포함할 수 있다. 병진 이동(translation)은 특정 제어 방식을 갖는 차량의 동역학 모델을 기반으로 할 수 있다.For example, step 160 may include translating a desired acceleration to acceleration or deceleration or changing the direction of travel of the vehicle using gas pedal movement, brake pedal movement, and/or steering wheel angle. The translation may be based on a dynamic model of the vehicle with a specific control scheme.

지각 필드의 이점은 예를 들어 설명 가능성(explainability), 일반화 가능성(generalizability) 및 잡음 입력에 대한 견고성(robustness to noisy input)을 포함한다.Advantages of perceptual fields include, for example, explainability, generalizability, and robustness to noisy input.

설명 가능성. 자아 움직임을 개별 지각 필드의 구성으로 표현하는 것은 행동을 보다 근본적인 구성 요소로 분해하는 것을 의미하며 그 자체로 설명 가능성을 향한 중요한 단계이다. 자아 움직임을 예측하기 위해 이러한 필드를 시각화하고 물리학으로부터 직관을 적용할 수 있는 가능성은 일반적인 종단간(end to end) 블랙박스 딥 러닝 접근법과 비교함에 따라 추가 설명 가능성을 나타낸다. 이러한 향상된 투명성은 또한 승객과 운전자가 AV 또는 ADAS 기술을 더 신뢰할 수 있게 한다.Explainability. Representing ego movements as configurations of individual perceptual fields means decomposing behavior into its more fundamental components and is itself an important step towards explainability. The possibility to visualize these fields and apply intuitions from physics to predict ego movements represents additional explanatory potential as compared to typical end-to-end black-box deep learning approaches. This increased transparency also allows passengers and drivers to trust AV or ADAS technology more.

일반화 가능성. 알 수 없는 도로 물체에 대한 자아 반응을 혐오스러운 가상 역장으로 표현하는 것은 보이지 않는 상황에서 귀납 편향(inductive bias)을 구성한다. 적은 훈련으로 안전한 방식으로 극단적 경우를 처리할 수 있다는 점에서 이러한 표현에는 잠재적인 이점이 있다. 또한, 지각 필드 모델은 주행 정책의 모든 측면에 대해 동일한 접근법을 사용할 수 있다는 점에서 총체적이다. 또한 ACC, AEB, LCA 등과 같은 ADAS에서 사용되는 좁은 주행 기능으로 나눌 수 있다. 마지막으로, 지각 필드의 복합적 특성으로 인해 모델이 원자 시나리오에서 훈련될 수 있으며 여전히 더 복잡한 시나리오를 적절하게 처리할 수 있다.Generalizability. Representing one's reaction to an unknown road object as an aversive virtual force field constitutes an inductive bias in an unseen situation. There is a potential advantage to this representation in that it allows edge cases to be handled in a safe manner with little training. Additionally, perceptual field models are holistic in the sense that the same approach can be used for all aspects of driving policy. It can also be divided into narrow driving functions used in ADAS such as ACC, AEB, LCA, etc. Finally, the complex nature of the perceptual field allows the model to be trained on atomic scenarios and still be able to adequately handle more complex scenarios.

잡음의 입력에 대한 견고성: 입력의 잠재적인 필터링과 조합하여 지각 필드의 시간 진화에 대한 물리적 제약은 국부화 및 운동학적 데이터의 순수 필터링과 비교하여 입력 데이터에서 잡음을 더 잘 처리할 수 있다.Robustness to noisy inputs: Physical constraints on the time evolution of the perceptual field in combination with potential filtering of the input can better handle noise in the input data compared to pure filtering of localization and kinematic data.

물리적 또는 가상 힘은 예를 들어 소위 동적 시스템을 포함하는 2차 상미분 방정식(ordinary differential equation)의 관점에서 수학적 공식화를 허용한다. 이와 같이 제어 정책을 나타내는 이점은 동적 시스템 이론의 직관에 민감하고 입력/출력의 예측, 탐색 및 필터링과 같은 외부 모듈을 통합하는 것이 간단하다는 것이다.Physical or virtual forces allow for mathematical formulation, for example in terms of second-order ordinary differential equations involving so-called dynamical systems. The advantage of representing the control policy in this way is that it is sensitive to the intuitions of dynamical systems theory and that it is simple to integrate external modules such as prediction, exploration and filtering of inputs/outputs.

지각 필드 접근법의 또 다른 이점은 임의의 특정 하드웨어에 의존하지 않고 기존 방법보다 계산적으로 더 비싸지 않다는 것이다.Another advantage of the perceptual field approach is that it does not rely on any specific hardware and is not computationally more expensive than existing methods.

훈련 프로세스training process

지각 필드를 학습하는 프로세스는 행동 복제(BC)와 강화 학습(RL)의 두 가지 유형 중 하나 또는 조합일 수 있다. BC는 관찰된 인간 상태-행동 쌍에 신경망을 피팅하여 제어 정책을 근사화하는 반면 RL은 전문가 데모(expert demonstration)를 참조하지 않고 시뮬레이션 환경에서 시행 착오를 통한 학습을 수반한다.The process of learning a perceptual field can be one or a combination of two types: behavioral replication (BC) and reinforcement learning (RL). BC approximates a control policy by fitting a neural network to observed human state-action pairs, whereas RL involves learning through trial and error in a simulated environment without reference to expert demonstration.

RL을 사용하여 미세 조정될 초기 정책으로 사용하기 위해 먼저 BC를 통해 정책을 학습함으로써 이들 두 클래스(class)의 학습 알고리즘을 결합할 수 있다. 두 가지 접근법을 결합하는 또 다른 방법은 인간에게 바람직한 행동을 구성하는 것이 무엇인지 추론하기 위해 행동 복제를 통해 소위 보상 함수(reward function)(RL에서 사용됨)를 먼저 학습하고, 나중에 일반 RL을 사용하여 시행 착오를 통해 훈련하는 것이다. 이러한 후자의 접근법은 역 RL(IRL)이라는 이름으로 사용된다.We can combine the learning algorithms of these two classes by first learning a policy through BC to use it as an initial policy to be fine-tuned using RL. Another way to combine the two approaches is to first learn a so-called reward function (used in RL) through behavioral replication to infer what constitutes desirable behavior for humans, and later use regular RL to Training is done through trial and error. This latter approach goes by the name of inverse RL (IRL).

도 2는 BC를 통한 학습을 위해 이용된 훈련 방법(200)의 일 실시예이다.Figure 2 is an example of a training method 200 used for learning through BC.

방법(200)은 시나리오를 처리하는 방법에 대한 전문가 데모(demonstration)로 간주되는 인간 데이터를 수집하는 단계 210에서 시작할 수 있다.Method 200 may begin at step 210 by collecting human data that is considered an expert demonstration of how to handle a scenario.

단계 210 다음에는 지각 필드 모델로부터 기인한 운동학적 변수와 인간 데모의 상응하는 운동학적 변수 사이의 차이를 구하는 손실 함수를 구성하는 단계(220)가 뒤따를 수 있다.Step 210 may be followed by step 220 of constructing a loss function that finds the difference between the kinematic variables resulting from the perceptual field model and the corresponding kinematic variables of the human demonstration.

단계 220 다음에는 경사 하강법(gradient descent)과 같은 일부 최적화 알고리즘에 의해 손실 함수를 최소화하기 위해 지각 필드 및 보조 함수(지각 필드와 다른 가상 물리적 모델 함수일 수 있음)의 파라미터를 업데이트하는 단계 230이 뒤따를 수 있다.Step 220 is followed by step 230 of updating the parameters of the perceptual field and the auxiliary function (which may be a cyber-physical model function different from the perceptual field) to minimize the loss function by some optimization algorithm such as gradient descent. You can.

도 3은 강화 학습을 위해 사용되는 훈련 방법 250의 일 실시예이다.Figure 3 is an example of a training method 250 used for reinforcement learning.

방법 250은 현실적인 시뮬레이션 환경을 구축하는 단계 260에서 시작할 수 있다.Method 250 may begin at step 260 of building a realistic simulation environment.

단계 260 다음에는 전문가 데모 또는 수동 설계를 통해 학습하여, 보상 함수를 구성하는 단계 270이 뒤따를 수 있다.Step 260 may be followed by step 270, where the reward function is constructed by learning from an expert demonstration or manual design.

단계 270 다음에는 시뮬레이션 환경에서 에피소드를 실행하는 단계 280이 뒤따를 수 있고 근접 정책 최적화와 같은 일부 알고리즘에 의해 예상 누적 보상을 최대화하기 위해 지각 필드 및 보조 함수의 파라미터를 계속 업데이트할 수 있다.Step 270 may be followed by step 280 of executing the episode in a simulation environment and continuing to update the parameters of the perceptual field and auxiliary function to maximize the expected cumulative reward by some algorithm such as proximity policy optimization.

도 4는 방법(400)의 일 실시예를 도시한다.Figure 4 shows one embodiment of method 400.

방법 400은 지각 필드 주행 관련 작동을 위한 것일 수 있다. Method 400 may be for perceptual field navigation related operations.

방법 400은 단계 410를 초기화함으로써 시작할 수 있다.Method 400 may begin by initializing step 410.

초기화 단계 410는 방법 400의 단계 440를 실행하도록 훈련된 NN 그룹을 수신하는 것을 포함할 수 있다.Initialization step 410 may include receiving a group of NNs trained to execute step 440 of method 400.

대안으로, 단계 410는 방법 400의 단계 440를 실행할 NN 그룹을 훈련시키는 것을 포함할 수 있다.Alternatively, step 410 may include training a group of NNs to perform step 440 of method 400.

NN 그룹을 훈련하는 다양한 실시예가 하기에 제공된다. Various embodiments of training NN groups are provided below.

● NN 그룹은 행동 복제(hehavioral cloning)를 사용하여 물체 정보를 하나 이상의 가상 힘에 맵핑(map)하도록 훈련될 수 있다.● A group of NNs can be trained to map object information to one or more virtual forces using behavioral cloning.

● NN 그룹은 강화 학습을 사용하여 물체 정보를 하나 이상의 가상 힘에 맵핑하도록 훈련될 수 있다.● A group of NNs can be trained to map object information to one or more virtual forces using reinforcement learning.

● NN 그룹은 강화 학습과 행동 복제의 조합을 사용하여 물체 정보를 하나 이상의 가상 힘에 맵핑하도록 훈련될 수 있다.● A group of NNs can be trained to map object information to one or more virtual forces using a combination of reinforcement learning and action replication.

● NN 그룹은 행동 복제를 사용하여 정의된 보상 함수를 갖는 강화 학습을 사용하여 물체 정보를 하나 이상의 가상 힘에 맵핑하도록 훈련될 수 있다.● A group of NNs can be trained to map object information to one or more virtual forces using reinforcement learning with a reward function defined using behavioral replication.

● NN 그룹은 행동 복제를 사용하여 정의된 초기 정책을 갖는 강화 학습을 사용하여 물체 정보를 하나 이상의 가상 힘에 맵핑하도록 훈련될 수 있다.● A group of NNs can be trained to map object information to one or more virtual forces using reinforcement learning with an initial policy defined using behavioral replication.

● NN 그룹은 물체 정보를 하나 이상의 가상 힘 및 지각 필드와 상이한 하나 이상의 가상 물리적 모델 함수에 맵핑하도록 훈련될 수 있다.● A group of NNs may be trained to map object information to one or more virtual force and perceptual fields and one or more different virtual physical model functions.

● NN 그룹은 제1 NN과 제2 NN을 포함할 수 있으며, 여기서 제1 NN은 물체 정보를 하나 이상의 지각 필드에 맵핑하도록 훈련되고 제2 NN은 물체 정보를 하나 이상의 가상 물리적 모델 함수로 맵핑하도록 훈련된다.● The NN group may include a first NN and a second NN, where the first NN is trained to map object information to one or more perceptual fields and the second NN is trained to map object information to one or more virtual physical model functions. trained.

초기화 단계 410는 차량의 환경 내에 위치된 하나 이상의 물체에 관한 물체 정보를 획득하는 단계 420로 이어질 수 있다. 단계 410은 여러 번 반복될 수 있으며 - 다음 단계도 여러 번 반복될 수 있다. 물체 정보는 비디오, 이미지, 오디오 또는 다른 감지된 정보를 포함할 수 있다.The initialization step 410 may lead to a step 420 of obtaining object information about one or more objects located within the vehicle's environment. Step 410 may be repeated multiple times - and the following steps may be repeated multiple times. Object information may include video, images, audio, or other sensed information.

단계 420 다음에는 하나 이상의 신경망(NN)을 사용하여, 차량에 적용되는 하나 이상의 가상 힘을 결정하는 단계 440이 뒤따를 수 있다.Step 420 may be followed by step 440, which determines one or more virtual forces applied to the vehicle, using one or more neural networks (NNs).

하나 이상의 NN은 전체 NN 그룹(초기화 단계 410으로부터)일 수 있거나 NN 그룹의 일부일 수 있으며 그룹의 하나 이상의 선택되지 않은 NN을 남긴다.One or more NNs may be an entire NN group (from initialization step 410) or may be part of a NN group, leaving one or more unselected NNs in the group.

하나 이상의 가상 힘은 차량의 동작에 대한 하나 이상의 물체의 하나 이상의 영향을 나타낸다. 그 영향은 미래의 영향일 수도 있고 현재의 영향일 수도 있다. 충격으로 인해 차량의 진행 상황이 변경될 수 있다.One or more virtual forces represent one or more influences of one or more objects on the motion of the vehicle. The impact may be a future impact or a present impact. Impacts can change the vehicle's progress.

하나 이상의 가상 힘은 가상 물리적 모델에 속한다. 가상 물리적 모델은 차량 및/또는 물체에 대한 물리적 규칙(예를 들어, 기계적 규칙, 전자기적 규칙, 광학적 규칙)을 가상으로 적용할 수 있는 가상 모델이다.One or more virtual forces belong to a virtual physical model. A virtual physical model is a virtual model that can virtually apply physical rules (eg, mechanical rules, electromagnetic rules, optical rules) for vehicles and/or objects.

단계 440은 다음 단계 중 적어도 하나를 포함할 수 있다:Step 440 may include at least one of the following steps:

● 차량에 가해지는 하나 이상의 가상 힘을 기준으로, 차량에 가해지는 총 가상 힘을 계산하는 단계.● Calculating the total virtual force acting on the vehicle, based on one or more virtual forces acting on the vehicle.

● 총 가상 힘에 의해 차량에 가해지는 총 가상 가속도를 기반으로 차량의 원하는 가상 가속도를 결정하는 단계. 원하는 가상 가속도는 총 가상 가속도와 같거나 다를 수 있다.● Determining the desired virtual acceleration of the vehicle based on the total virtual acceleration exerted on the vehicle by the total virtual force. The desired virtual acceleration may be the same as or different from the total virtual acceleration.

방법(400)은 또한 단계 431, 432, 433, 434, 435 및 436 중 적어도 하나를 포함할 수 있다.Method 400 may also include at least one of steps 431, 432, 433, 434, 435, and 436.

단계 431은 물체 정보에 기초하여, 차량의 상황을 결정하는 것을 포함할 수 있다.Step 431 may include determining the status of the vehicle based on the object information.

단계 431 다음에는 상황에 기초하여 하나 이상의 NN을 선택하는 단계 432가 뒤따를 수 있다.Step 431 may be followed by step 432, which selects one or more NNs based on the situation.

추가로 또는 대안으로, 단계 431 다음에는 하나 이상의 NN에 상황 메타데이터를 공급하는 단계 433가 뒤따를 수 있다.Additionally or alternatively, step 431 may be followed by step 433 of supplying context metadata to one or more NNs.

단계 434는 물체의 정보에 기초하여, 하나 이상의 물체 각각의 클래스(class)를 검출하는 것을 포함할 수 있다.Step 434 may include detecting the class of each of one or more objects based on the object information.

단계 434 다음에는 하나 이상의 물체 중 적어도 하나의 물체의 클래스에 기초하여 하나 이상의 NN을 선택하는 단계 435가 뒤따를 수 있다.Step 434 may be followed by step 435 of selecting one or more NNs based on the class of at least one of the one or more objects.

추가로 또는 대안으로, 단계 434 다음에 하나 이상의 NN를 하나 이상의 물체 중 적어도 하나의 물체의 클래스를 나타내는 클래스 메타데이터로 공급하는 단계 436가 뒤따를 수 있다.Additionally or alternatively, step 434 may be followed by step 436 of supplying one or more NNs with class metadata representing a class of at least one of the one or more objects.

단계 440 다음에는 하나 이상의 가상 힘에 기초하여 차량의 하나 이상의 주행 관련 작동을 수행하는 단계 450이 뒤따를 수 있다.Step 440 may be followed by step 450, which performs one or more driving-related operations of the vehicle based on one or more virtual forces.

단계 450은 인간 운전자 개입 없이 실행될 수 있고 차량의 속도 및/또는 가속도 및/또는 진행 방향을 변경하는 것을 포함할 수 있다. 이는 차량 및/또는 차량의 하나 이상의 주행 관련 유닛을 일시적으로 제어하는 것을 포함할 수 있는 자율 주행 또는 첨단 운전자 보조 시스템(ADAS)을 수행하는 것을 포함할 수 있다. 이는 인간 운전자의 개입 없이, 원하는 가상 가속도로 차량의 가속도를 설정하는 것이 포함될 수 있다.Step 450 may be executed without human driver intervention and may include changing the speed and/or acceleration and/or direction of travel of the vehicle. This may include performing autonomous driving or advanced driver assistance systems (ADAS), which may include temporarily controlling the vehicle and/or one or more drive-related units of the vehicle. This may include setting the vehicle's acceleration to a desired virtual acceleration, without human driver intervention.

단계 440는 차량의 가속도를 원하는 가상 가속도로 설정하도록 운전자에게 제안하는 것을 포함할 수 있다.Step 440 may include suggesting to the driver to set the acceleration of the vehicle to a desired virtual acceleration.

도 5는 차량의 일 실시예이다. 차량은 하나 이상의 감지 유닛(501), 하나 이상의 주행 관련 유닛(예컨대, 자율 주행 유닛, ADAS 유닛 등), 임의의 방법을 실행하도록 구성된 프로세서(560), 명령어 및/또는 방법 결과, 기능 등을 저장하기 위한 메모리 유닛(508) 및 통신 유닛(504)을 포함할 수 있다. 5 shows an embodiment of a vehicle. The vehicle includes one or more sensing units 501, one or more driving-related units (e.g., autonomous driving units, ADAS units, etc.), a processor 560 configured to execute any method, and storing instructions and/or method results, functions, etc. It may include a memory unit 508 and a communication unit 504 to do this.

도 6은 입력으로서 차선 샘플 포인트를 갖는 차선 센터링 RL에 대한 방법(600)의 실시예들을 도시한다. 차선 샘플 포인트는 차량의 환경 내에 위치된다.Figure 6 shows embodiments of a method 600 for suboptimal centering RL with suboptimal sample points as input. Lane sample points are located within the vehicle's environment.

RL은 에이전트(자아 차량)가 이의 학습된 정책(지각 필드)을 구현할 수 있는 입력 데이터를 생성한 시뮬레이션 환경을 가정한다.RL assumes a simulation environment in which an agent (self-vehicle) generates input data that can implement its learned policies (perceptual fields).

방법 600은 도로 샘플 포인트(XL,i,YL,i) 및 (XR,i,YR,i)의 가장 가까운 차선 또는 도로의 측면을 감지하는 단계 610에 의해 시작할 수 있으며, 여기서 L은 왼쪽이고 R은 오른쪽이며 인덱스 i는 샘플 포인트이다. 자아 차량(이전에는 차량이라고 함)의 속도는 Vego로 표시된다. Method 600 may begin by step 610 detecting the nearest lane or side of the road for road sample points (X L,i ,Y L,i ) and (X R,i ,Y R,i ), where L is the left, R is the right, and index i is the sample point. The speed of the ego vehicle (formerly called vehicle) is denoted by V ego .

단계 610 다음에는 왼쪽 차선 입력 벡터(XL,i,YL,i) 및 Vego를 XL에 집중시키고 오른쪽 차선 입력 벡터(XR,i,YR,i) 및 Vego를 XR에 집중시키는 단계 620가 뒤따를 수 있다.After step 610 , the left lane input vectors (X L,i , Y L,i ) and V ego are centered in A focusing step 620 may follow.

단계 620 다음에는 차선 지각 필드 fθ(XL) 및 fθ(XR)를 계산하는 단계 630이 뒤따를 수 있다. 이는 하나 이상의 NN에 의해 수행된다. Step 620 may be followed by step 630 that calculates the suboptimal perceptual fields f θ (X L ) and f θ (X R ). This is performed by one or more NNs.

단계 630 다음에 자아 차량에 적용된 자아 가속도를 기술하는 미분 방정식을 구성하는 단계 640가 뒤따를 수 있다: a = fθ(XL)+ fθ(XR).Step 630 may be followed by step 640 of constructing a differential equation describing the ego acceleration applied to the ego vehicle: a = f θ (X L ) + f θ (X R ).

이는 추론 프로세스의 출력일 수 있다. 단계 640 다음에 단계 450(미도시)이 뒤따를 수 있다.This may be the output of an inference process. Step 640 may be followed by step 450 (not shown).

방법은 하나 이상의 NN을 업데이트하는 것을 포함할 수 있다. 이러한 경우 RL은 전문가 데모를 기반으로 학습되거나 수작업으로 만들어진 보상 함수를 가정할 수 있다. 도 6의 실시예에서 보상 함수는 자아 차량이 이의 차선을 유지하는 모든 타임스탬프(timestamp)에 대해 증가될 수 있다.The method may include updating one or more NNs. In these cases, RL can assume a reward function that is learned based on expert demonstrations or created by hand. In the embodiment of Figure 6 the reward function may be incremented for every timestamp that the subject vehicle remains in its lane.

업데이트는 시뮬레이션 환경에서 구현하는 단계 670을 포함할 수 있으며 RL 학습 알고리즘은 획득 보상을 포함하여 다음 시간 단계에서 발생하는 것을 기록한다. The update may include step 670 of implementing in a simulation environment and the RL learning algorithm records what happens at the next time step, including the earned rewards.

단계 670은 평균 보상을 최대화하기 위해 네트워크 파라미터(θ)를 순차적으로 업데이트하기 위해 특정 RL 알고리즘(예를 들어, PPO, SAC, TTD3)을 사용하는 것을 포함할 수 있다.Step 670 may include using a particular RL algorithm (e.g., PPO, SAC, TTD3) to sequentially update the network parameter θ to maximize the average reward.

도 7은 시각적 입력을 갖는 다중 물체 RL에 대한 방법(700)을 도시한다.Figure 7 shows a method 700 for multi-object RL with visual input.

방법(700)의 단계 710는 개별 물체 Xrel,i에 대한 상대 거리인, 자아 관점(자아 차량에 의해 획득된 이미지)로부터 짧은 시간 윈도우에 걸쳐 파노라마적으로 분할된 이미지의 시퀀스를 수신하는 것을 포함할 수 있다.Step 710 of method 700 includes receiving a sequence of panoramicly segmented images over a short time window from the ego perspective (image acquired by the ego vehicle ), the relative distances to individual objects can do.

단계 710 다음에 개별 인스턴스(물체)에 시공간 CNN(spatio-temporal CNN)을 적용하여 높은 수준의 시공간 특징부(Xi)를 캡처하는 단계 720가 뒤따를 수 있다.Step 710 may be followed by step 720, which captures high-level spatio-temporal features (X i ) by applying a spatio-temporal CNN to individual instances (objects).

단계 720 다음에 개별 지각 필드 fθ(Xi,i) 및 합 Σfθ(Xrel,I,Xi,i)을 계산하는 단계 730가 뒤따를 수 있다.Step 720 may be followed by step 730 of calculating the individual perceptual fields f θ (X i ,i) and the sum Σf θ (X rel,I ,X i ,i).

단계 730는 자아 차량에 적용되는 자아 가속도를 기술하는 미분 방정식을 구성하는 단계 740가 뒤따를 수 있다: a = Σfθ(Xrel,I,Xi,i).Step 730 may be followed by step 740 of constructing a differential equation describing the ego acceleration applied to the ego vehicle: a = Σf θ (X rel,I ,X i ,i).

이는 추론 프로세스의 출력일 수 있다. 단계 740 다음에 단계 450(미도시)이 뒤따를 수 있다.This may be the output of an inference process. Step 740 may be followed by step 450 (not shown).

방법은 일부 RL 프로세스를 사용하여 하나 이상의 네트워크 파라미터(θ)를 업데이트하는 단계를 포함할 수 있다.The method may include updating one or more network parameters (θ) using some RL process.

방법은 시뮬레이션 환경에서 구현하는 단계 760을 포함할 수 있으며 RL 학습 알고리즘은 획득한 보상을 포함하여 다음 시간 단계에서 발생하는 것을 기록한다. The method may include step 760 of implementing in a simulation environment the RL learning algorithm recording what happens at the next time step, including the rewards obtained.

RL은 전문가 데모를 기반으로 학습되거나 수작업으로 만들어진 보상 함수를 가정할 수 있다.RL can assume reward functions that are learned based on expert demonstrations or created by hand.

단계 760 다음에는 PPO, SAC, TTD3와 같은 특정 RL 알고리즘을 사용하여 평균 보상을 최대화하기 위해 네트워크 파라미터(θ)를 순차적으로 업데이트하는 단계 770이 뒤따를 수 있다.Step 760 may be followed by step 770, which sequentially updates the network parameters θ to maximize the average reward using a specific RL algorithm such as PPO, SAC, or TTD3.

도 8은 운동학적 입력을 갖는 다중 물체 BC에 대한 방법(800)을 도시한다.Figure 8 shows a method 800 for multi-object BC with kinematic input.

방법(800)의 단계 810는 검출된 물체 상대 운동학(Xrel,i,Vrel,i)의 목록을 수신하는 것을 포함할 수 있으며, 여기서 Xrel,i는 자아 차량과 관련하여 검출된 물체 i의 상대적 위치이고 Vrel,i는 자아 차량과 관련하여 검출된 물체 i의 상대 속도이다. 또한 자아 차량 속도 Vego를 수신한다.Step 810 of method 800 may include receiving a list of detected object relative kinematics (X rel,i ,V rel,i ), where X rel,i is the detected object i relative to the ego vehicle. is the relative position of and V rel,i is the relative velocity of the detected object i with respect to the host vehicle. It also receives ego vehicle speed V ego .

단계 810 다음에 각각의 물체에 대해 지각 필드 fθ(Xrel,i,Vrel,i,Vego,i)를 계산하는 단계 820가 뒤따를 수 있다.Step 810 may be followed by step 820 of calculating the perceptual field f θ (X rel,i ,V rel,i ,V ego ,i) for each object.

단계 820 다음에 개별 지각 필드로부터 기여도(contribution)를 합산하는 단계 830가 뒤따를 수 있다. 단계 830는 또한 결과적인 2d 벡터의 크기가 개별 항의 최고 크기와 동일하도록 정규화하는 것을 포함할 수 있다: N*Σfθ(Xrel,i,Vrel,i,Vego,i).Step 820 may be followed by step 830, which sums contributions from individual perceptual fields. Step 830 may also include normalizing the magnitude of the resulting 2d vector so that it is equal to the highest magnitude of the individual terms: N*Σf θ (X rel,i ,V rel,i ,V ego ,i).

단계 830 다음에 자아 차량에 적용되는 자아 가속도를 기술하는 미분 방정식을 구성하는 단계 840가 뒤따를 수 있다: a = N*Σfθ(Xrel,i,Vrel,i,Vego,i).Step 830 may be followed by step 840 of constructing a differential equation describing the ego acceleration applied to the ego vehicle: a = N*Σf θ (X rel,i ,V rel,i ,V ego ,i).

이는 추론 프로세스의 결과일 수 있다. 단계 840 다음에 단계 450(미도시)이 뒤따를 수 있다.This may be the result of an inference process. Step 840 may be followed by step 450 (not shown).

방법은 하나 이상의 네트워크 파라미터를 업데이트하는 것을 포함할 수 있다.The method may include updating one or more network parameters.

방법은 초기 조건 (t;x0,v0)이 제공되면 자아 궤적을 계산하는 단계 860을 포함할 수 있다.The method initial conditions If (t;x 0 ,v 0 ) is provided, a step 860 of calculating the ego trajectory may be included.

단계 860 다음에 손실 함수 = Σ((t;x0,v0))-x(t;x0,v0))2를 계산하는 단계 870가 뒤따를 수 있다. 이에 따라 손실을 전파한다.Following step 860, loss function = Σ( Step 870 may follow to calculate (t;x 0 ,v 0 ))-x(t;x 0 ,v 0 )) 2 . This propagates the loss accordingly.

도 9는 운동학적 변수를 입력으로 하여 구현되는 적응형 순항 제어 모델에 대한 손실 함수를 추가한 추론의 방법(900)을 도시한다.Figure 9 shows an inference method 900 that adds a loss function to an adaptive cruise control model implemented with kinematic variables as input.

방법(900)의 단계 910은 자아 차량의 위치(Xego), 자아 차량의 속도(Vego), 자아 차량 앞의 가장 가까운 차량의 위치(XCIPV) 및 자아 차량 앞의 가장 가까운 차량의 속도(VdCIPV)를 수신하는 것을 포함할 수 있다. Step 910 of method 900 determines the position of the ego vehicle ( X ego ), the velocity of the ego vehicle (V ego ), the position of the nearest vehicle in front of the ego vehicle ( It may include receiving Vd CIPV ).

단계 910 다음에 상대 위치 Xrel = Xego - XCIPV 및 상대 속도 Vrel = Vego - VCIPV를 계산하는 단계 920가 뒤따를 수 있다.Step 910 may be followed by step 920 of calculating the relative position X rel = X ego - X CIPV and the relative velocity V rel = V ego - V CIPV .

단계 920 하기의 단계 930가 뒤따를 수 있다:Step 920 may be followed by step 930:

● 제1 NN에 의해, 지각 필드 함수 gθ(Xrel,VCIPV)를 계산하는 단계.● Calculating the perceptual field function g θ (X rel ,V CIPV ) by the first NN.

● 제2 NN에 의해, 보조 함수 hø(Vrel)를 계산하는 단계.● Calculating the auxiliary function h ø (V rel ) by the second NN.

● gθ(Xrel,VCIPV)에 hø(Vrel)을 곱하여 목표 가속도(목표 힘과 같음)를 제공하는 단계.● Multiplying g θ (X rel ,V CIPV ) by h ø (V rel ) to give the target acceleration (equal to the target force).

이는 추론 프로세스의 출력일 수 있다. 단계 930 다음에 단계 450(미도시)가 뒤따를 수 있다.This may be the output of an inference process. Step 930 may be followed by step 450 (not shown).

방법은 하나 이상의 NN 파라미터를 업데이트하는 것을 포함할 수 있다.The method may include updating one or more NN parameters.

방법은 초기 조건 (t;x0,v0)이 제공되면 자아 궤적을 계산하는 단계 960을 포함할 수 있다.The method initial conditions If (t;x 0 ,v 0 ) is provided, a step 960 of calculating the ego trajectory may be included.

단계 960 다음에 손실 함수 = Σ((t;x0,v0))-x(t;x0,v0))2를 계산하는 단계 970가 뒤따를 수 있다. 이에 따라 손실을 전파한다.Following step 960, loss function = Σ( Step 970 may follow to calculate (t;x 0 ,v 0 ))-x(t;x 0 ,v 0 )) 2 . This propagates the loss accordingly.

힘 피드백(force feedback)force feedback

인간 운전자(이하 운전자)는 문제가 있는 방식으로 차량을 조종할 수 있다. 운전자는 하나 이상의 교통 규칙을 위반하여 차량을 운전 및/또는 무모한 방식으로 차량을 운전 및/또는 위험한 방식으로 차량을 운전 및/또는 임의의 다른 부적절한 방식으로 차량을 운전할 수 있다.Human drivers (hereafter referred to as drivers) can steer the vehicle in problematic ways. The driver may drive the vehicle in violation of one or more traffic rules and/or drive the vehicle in a reckless manner and/or drive the vehicle in a dangerous manner and/or drive the vehicle in any other inappropriate manner.

문제가 되는 주행의 예들은 다른 도로 사용자로부터 안전 거리를 유지하지 못하는 것, 한명 이상의 도로 사용자를 무시하는 것, 공격적인 방식으로 운전하는 것, 우회로가 금지되었을 때 다른 도로 사용자를 우회하는 것, 차량의 방향 및/또는 전파 속도의 불필요한 변경을 도입하는 것을 포함할 수 있다. Examples of problematic driving include failing to maintain a safe distance from other road users, ignoring one or more road users, driving in an aggressive manner, bypassing other road users when a right-of-way is prohibited, and This may include introducing unnecessary changes in direction and/or speed of propagation.

차량의 운전자와 통신하는 방법, 특히 운전자가 올바른 적절한 방식으로 주행하게 하기 위한 저항력(restraining force)을 제공하는 방법이 제공된다.A method of communicating with a driver of a vehicle is provided, and in particular a method of providing a restraining force to cause the driver to drive in a correct and appropriate manner.

도 10은 운전자와의 통신을 위한 방법(3000)의 일 실시예를 도시한다.Figure 10 shows one embodiment of a method 3000 for communicating with a driver.

일 실시 형태에 따르면, 방법(3000)은 차량의 환경 내에 위치된 하나 이상의 물체에 관한 물체 정보를 획득하는 단계 3010에서 시작한다.According to one embodiment, method 3000 begins at step 3010 with obtaining object information regarding one or more objects located within the environment of the vehicle.

일 실시 형태에 따르면, 단계 3010은 또한 물체 정보를 분석하는 것을 포함한다. 분석은 하나 이상의 물체의 위치 정보 및/또는 움직임 정보를 결정하는 것을 포함할 수 있다. 위치 정보 및 움직임 정보는 (차량에 대한) 하나 이상의 물체의 상대적인 위치 및/또는 (차량에 대한) 하나 이상의 물체의 상대적인 움직임을 포함할 수 있다.According to one embodiment, step 3010 also includes analyzing object information. Analysis may include determining location information and/or motion information of one or more objects. The location information and motion information may include the relative position of one or more objects (relative to the vehicle) and/or the relative movement of one or more objects (relative to the vehicle).

일 실시 형태에 따르면, 단계 3010 다음에는 하나 이상의 신경망(NN)을 사용하고 물체 정보에 기초하여, 물리적 모델과 관련된 가상 힘을 결정하고 차량의 동작에 대한 하나 이상의 물체의 영향을 나타내는 단계 3020이 뒤따른다. 가상 힘은 차량에 가상으로 적용된다.According to one embodiment, step 3010 is followed by step 3020, which uses one or more neural networks (NNs) and, based on object information, determines virtual forces associated with a physical model and represents the influence of the one or more objects on the motion of the vehicle. Follow. Virtual forces are applied virtually to the vehicle.

일 실시 형태에 따르면, 단계 3020는 물체 정보에 기초하여, 하나 이상의 가상 필드를 결정하는 단계 3020-1, 및 하나 이상의 가상 필드에 기초하여 가상 힘을 결정하는 단계 3020-2를 포함한다.According to one embodiment, step 3020 includes step 3020-1 of determining one or more virtual fields based on object information, and step 3020-2 of determining a virtual force based on the one or more virtual fields.

단계 3020은 가상 물리적 모델로부터 구동될 수 있다. 예를 들어, 가상 물리적 모델이 물체를 전자기 전하로 나타낸다고 가정하면, 하나 이상의 가상 필드는 가상 전자기장이고 가상 힘은 가상 전하로 인해 생성된 전자기력을 나타낸다. 예를 들어, 가상 물리적 모델이 기계적 모델이라고 가정하면, 가상 역장은 물체의 가속도로부터 구동된다.Step 3020 may be driven from a cyber-physical model. For example, assuming that the virtual physical model represents an object as an electromagnetic charge, one or more virtual fields are virtual electromagnetic fields and a virtual force represents the electromagnetic force produced by the virtual charges. For example, assuming the virtual physical model is a mechanical model, the virtual force field is driven from the acceleration of the object.

일 실시형태에 따르면, 단계 3020 다음에는 적어도 가상 힘에 기초하여, 차량을 사용하는 운전자에 의해 이루어지는 운전자 조치와 관련하여 적용될 물리적인 저항력을 제공하는데 사용하기 위한 힘 피드백을 결정하는 단계 3030가 이어진다.According to one embodiment, step 3020 is followed by step 3030 of determining, based at least on virtual forces, force feedback for use in providing a physical resistance force to be applied in connection with driver actions made by the driver using the vehicle.

단계 3030은 차량의 가상 힘과 원하는 가상 가속도 사이의 관계에 관한 가정에 기초하여 실행될 수 있다. 예를 들어, 가상 힘은 (차량에 가상으로 적용되는) 가상 가속도를 가질 수 있고 차량의 원하는 가상 가속도는 차량에 가상으로 적용되는 가상 가속도에 대응할 수 있다.Step 3030 may be executed based on assumptions regarding the relationship between the vehicle's virtual force and the desired virtual acceleration. For example, the virtual force may have a virtual acceleration (virtually applied to the vehicle) and the desired virtual acceleration of the vehicle may correspond to the virtual acceleration (virtually applied to the vehicle).

일 실시 형태에 따르면, 단계 3020 다음에는 가상 가속도에 기초하여 차량의 원하는 가상 가속도를 결정하는 단계 3025가 이어진다. 단계 3025 다음에 단계 3030이 이어진다.According to one embodiment, step 3020 is followed by step 3025 of determining a desired virtual acceleration of the vehicle based on the virtual acceleration. Step 3025 is followed by step 3030.

일 실시 형태에 따르면 원하는 가상 가속도는 가상으로 적용되는 가속도와 동일한 크기를 갖지만 반대 방향으로 향할 수 있다.According to one embodiment, the desired virtual acceleration may have the same magnitude as the virtually applied acceleration but may be directed in the opposite direction.

일 실시 형태에 따르면, 원하는 가상 가속도는 가상으로 적용되는 가속도의 크기와 다른 크기를 갖는다.According to one embodiment, the desired virtual acceleration has a magnitude different from the magnitude of the virtually applied acceleration.

일 실시 형태에 따르면, 원하는 가상 가속도는 가상으로 적용되는 가속도의 방향과 반대가 아닌 방향을 갖는다.According to one embodiment, the desired virtual acceleration has a direction other than the direction of the virtually applied acceleration.

일 실시 형태에 따르면, 단계 3030은 다음 중 적어도 하나를 포함한다:According to one embodiment, step 3030 includes at least one of the following:

● 운전자의 주행 작동 제어 하에 설정될 차량의 원하는 가상 가속도와 가속도 사이의 차이를 계산.● Calculation of the difference between the desired virtual acceleration of the vehicle and the acceleration to be set under the driver's driving operation control.

● 차이를 감소시키기 위해 물리적인 저항력을 설정하여 힘 피드백을 결정.● Determine force feedback by setting a physical resistance force to reduce the difference.

● 힘 피드백의 하나 이상의 파라미터 결정. 하나 이상의 파라미터는 힘 피드백을 제공하는 크기 및/또는 지속 기간 및/또는 방식을 포함할 수 있다. 예를 들어, 저항력은 연속적이거나 비연속적일 수 있고, 고정된 크기일 수 있거나 시간이 지남에 따라 크기가 변할 수 있다.● Determination of one or more parameters of force feedback. One or more parameters may include magnitude and/or duration and/or manner of providing force feedback. For example, the resistive force may be continuous or discontinuous, and may be of a fixed magnitude or may vary in magnitude over time.

● 운전자가 차량의 주행을 제어하기 위해 요구하는 노력에 대한 힘 피드백의 영향을 결정. 저항력이 강하면 운전자는 저항력을 극복하기 위해 더 많은 노력을 기울일 필요가 있다. ● Determine the effect of force feedback on the effort required by the driver to control the vehicle's driving. If the resistance force is strong, the driver needs to put in more effort to overcome the resistance force.

● 운전자가 차량의 스티어링 휠을 돌리는데 필요한 노력에 대한 힘 피드백의 영향을 결정.● Determine the effect of force feedback on the effort required by the driver to turn the vehicle's steering wheel.

● 차량의 속도나 가속도를 변경하는데 운전자가 필요로 하는 노력에 대한 힘 피드백의 영향을 결정.● Determine the effect of force feedback on the effort required by the driver to change the vehicle's speed or acceleration.

● 일단 저항력이 가해지면 자동차에 운전자 조치의 영향을 제한하도록 저항력을 결정. 예를 들어, 운전자는 차량이 동일한 방향 변경을 수행하도록 스티어링 휠을 더 많이 회전해야 할 필요가 있다.● Determining the resistance to limit the impact of driver actions on the car once the resistance is applied. For example, the driver may need to rotate the steering wheel more times for the vehicle to make the same directional change.

● 일단 저항력이 적용되면 차량에 운전자 조치의 영향을 방지하도록 저항력을 결정.● Determining the resistance to prevent the effects of driver actions on the vehicle once the resistance is applied.

차이를 감소시키기 위해 물리적인 저항력을 설정함으로써 힘 피드백을 결정하는 것은 차이의 값과 저항력의 하나 이상의 파라미터 사이에 임의의 맵핑을 적용하는 것을 포함할 수 있다.Determining force feedback by setting a physical resistance force to reduce the difference may include applying an arbitrary mapping between the value of the difference and one or more parameters of the resistance force.

● 예를 들어, 더 큰 차이는 더 강한 저항력을 적용하도록 트리거링(trigger)할 수 있다.● For example, a larger difference can trigger the application of a stronger resistance force.

● 차이의 크기와 저항력의 크기 사이의 관계는 선형 관계, 비선형 관계 등일 수 있다.● The relationship between the size of the difference and the size of the resistance may be a linear relationship, a non-linear relationship, etc.

● 또 다른 실시예에서 저항력의 적용과 관련된 지속 기간 및/또는 듀티 사이클은 차이의 함수로 변경될 수 있다.● In another embodiment the duration and/or duty cycle associated with the application of the resistive force may be varied as a function of the difference.

일 실시 형태에 따르면, 단계 3030 다음에 힘 피드백의 결정에 응답하는 단계 3040가 뒤따른다.According to one embodiment, step 3030 is followed by step 3040 in response to the determination of force feedback.

일 실시 형태에 따르면, 단계 3040는 다음 중 적어도 하나를 포함한다:According to one embodiment, step 3040 includes at least one of the following:

● 차량을 사용하는 운전자에 의해 이루어지는 운전자 조치에 대응하여 힘 피드백 제공. 제공하는 것은 저항력을 적용하는 것을 포함할 수 있다. 저항력을 적용하는 것은 기계적 움직임, 기계적 요소의 마찰 변화, 기계적 전달 비율의 변화 등을 포함할 수 있다.● Providing force feedback in response to driver actions made by the driver using the vehicle. Providing may include applying a resistive force. Applying a resistive force can include mechanical movement, changes in the friction of mechanical elements, changes in the rate of mechanical transmission, etc.

● 차량을 사용하는 운전자가 수행하는 운전자 조치에 대응하여 힘 피드백을 제공하도록 차량의 제어 유닛을 지시. 제어 유닛은 스티어링 휠, 가속 페달, 브레이크 페달, 스로틀 링키지(throttle linkage) 등과 같은 차량의 하나 이상의 유닛을 제어할 수 있다.● Directing the vehicle's control unit to provide force feedback in response to driver actions performed by the driver using the vehicle. The control unit may control one or more units of the vehicle, such as a steering wheel, accelerator pedal, brake pedal, throttle linkage, etc.

● 차량을 사용하는 운전자에 의해 이루어지는 운전자 조치에 대응하여 힘 피드백을 제공하도록 차량의 제어 유닛을 지시.● Instructing the vehicle's control unit to provide force feedback in response to driver actions made by the driver using the vehicle.

● 운전자 조치 식별 시 힘 피드백 제공을 트리거링함.● Triggers provision of force feedback upon identification of driver actions.

● 차량 제어 - 운전자로부터 자율 주행 유닛으로 제어를 전달.● Vehicle Control – Transferring control from the driver to the autonomous driving unit.

도 11은 장면의 일 실시예를 도시한다. Figure 11 shows one embodiment of a scene.

도 11은 제1 도로의 세그먼트(1011-1) 내에 위치되는 차량(1031)의 일 실시예를 도시한다.11 shows one embodiment of a vehicle 1031 located within a segment 1011-1 of a first roadway.

보행자(1022)는 차량(1301) 앞에서 세그먼트(segment)를 건너기 시작한다. 보행자는 차량(1031)을 밀어내는 보행자 가상 필드(가상 등전위 필드 라인(1022')로 도시됨)로 표시된다.Pedestrian 1022 begins to cross the segment in front of vehicle 1301. The pedestrian is represented by a virtual field of the pedestrian pushing the vehicle 1031 (shown as virtual equipotential field line 1022').

도 11은 또한 차량의 원하는 가속도(1042)를 도시한다.Figure 11 also shows the desired acceleration 1042 of the vehicle.

가상의 힘을 받기 전에 차량이 도로의 경계와 평행하게 이동한다고 가정한다.Assume that the vehicle moves parallel to the edge of the road before receiving the hypothetical force.

이러한 가정 하에서 현재 스티어링 위치(1050)가 변경되어야 하고 원하는 가속도 방향에 평행한 원하는 방향(1043)으로 차량을 조향하기 위해 스티어링 휠이 회전되어야 한다(스티어링 휠(1051)의 필요한 회전에 의해).Under this assumption, the current steering position 1050 must be changed and the steering wheel rotated (by the necessary rotation of the steering wheel 1051) to steer the vehicle in the desired direction 1043 parallel to the desired direction of acceleration.

도 11은 또한 운전자에 의해 설정된 차량의 원하는 방향(1043)과 차량의 원치 않는 전파 방향 사이의 원치 않는 차이의 세 가지 실시예를 도시한다. 원하지 않는 방향은 "운전자 설정 방향"(1045)으로 표시된 점선으로 표시된다.Figure 11 also shows three examples of unwanted differences between the vehicle's desired direction 1043 set by the driver and the vehicle's unwanted propagation direction. The undesired direction is indicated by a dashed line marked “Driver Set Direction” (1045).

이들 세 가지 실시예에서 저항력(1044)은 차이를 줄이기 위해 제공되며 차량이 원하는 방향(1043)에 따라 전파되도록 설정된다.In these three embodiments a resistive force 1044 is provided to reduce the difference and is set to cause the vehicle to propagate according to the desired direction 1043.

전술한 발명의 상세한 설명에서, 본 발명은 본 발명의 실시형태들의 특정 실시예를 참조하여 설명되었다. 그러나, 첨부된 특허 청구범위에서 주장된 본 발명의 범위 및 보다 넓은 사상을 벗어나지 않고 다양한 수정 및 변경이 이루어질 수 있음이 명백할 것이다. 또한, 발명의 설명 및 특허 청구범위에서 "전면", "후면", "상부", "하부", "위", "아래" 등의 용어는 설명의 목적으로 사용되며 반드시 영구적인 상대 위치를 설명하기 위한 것은 아니다. 이렇게 사용된 용어는 본 발명에서 설명된 본 발명의 실시형태들이 예를 들어 본 발명에서 예시되거나 달리 설명된 것과 다른 방향으로 작동할 수 있도록 적절한 상황에서 상호 교환 가능하다는 것을 이해해야 한다. 또한, "주장" 또는 "설정" 및 "부정"(또는 "디어서트(deassert)" 또는 "클리어(clear)")이라는 용어는 본 발명에서 신호, 상태 비트 또는 유사 장치를 논리적으로 참 또는 논리적으로 거짓 상태로 각각 렌더링하는 것을 언급할 때 사용된다. 논리적으로 참 상태가 논리 레벨 1이면, 논리적으로 거짓 상태는 논리 레벨 0이다. 그리고 논리적으로 참 상태가 논리 레벨 0이면, 논리적으로 거짓 상태는 논리 레벨 1이다. 당업자는 논리 블록 사이의 경계가 단지 예시일 뿐이며 대안적인 실시형태들이 논리 블록 또는 회로 요소를 병합하거나 다양한 논리 블록 또는 회로 요소에 기능의 대체 분해를 부과할 수 있음을 인지할 것이다. 따라서, 본 발명에서 묘사된 아키텍처는 단지 예시일 뿐이며 실제로 동일한 기능을 달성하는 많은 다른 아키텍처가 구현될 수 있음을 이해할 것이다. 동일한 기능을 달성하기 위한 구성 요소의 임의의 배열은 원하는 기능이 달성되도록 효과적으로 "관련"된다. 따라서, 특정 기능을 달성하기 위해 본 발명에서 결합된 임의의 두 구성 요소는 아키텍처 또는 중간 구성 요소에 관계없이 원하는 기능이 달성되도록 서로 "관련된" 것으로 볼 수 있다. 마찬가지로, 이와 같이 관련된 임의의 두 구성 요소는 원하는 기능을 달성하기 위해 서로 "작동 가능하게 연결된" 또는 "작동 가능하게 결합된" 것으로 볼 수도 있다. 또한, 당업자는 전술한 작동들 사이의 경계가 단지 예시임을 인식할 것이다. 다수의 작동은 단일 작동으로 결합될 수 있고, 단일 작동은 추가 작동으로 분산될 수 있으며 작동은 적어도 부분적으로 시간적으로 중첩되어 실행될 수 있다. 더욱이, 대안적인 실시형태들은 특정 작동의 다수의 인스턴스를 포함할 수 있고, 작동의 순서는 다양한 다른 실시형태들에서 변경될 수 있다. 또한 예를 들어, 일 실시형태에서, 예시된 실시예들은 단일 집적 회로 상에 또는 동일한 장치 내에 위치된 회로로서 구현될 수 있다. 대안으로, 실시예들은 적절한 방식으로 서로 상호 연결된 임의의 수의 개별 집적 회로 또는 개별 장치로서 구현될 수 있다. 그러나, 다른 수정, 변형 및 대안도 가능하다. 따라서 명세서 및 도면은 제한적인 의미가 아니라 예시적인 것으로 간주되어야 한다. 청구범위에서, 괄호 사이에 있는 임의의 참조 기호는 청구범위를 제한하는 것으로 해석되어서는 안된다. '포함하는'이라는 단어는 청구범위에 나열된 것보다 다른 요소 또는 단계의 존재를 배제하지 않는다. 또한, 본 명세서에서 사용되는 용어 "하나" 또는 "하나의"은 하나 또는 하나 이상으로 정의된다. 또한, 청구범위에서 "적어도 하나" 및 "하나 이상"과 같은 도입 문구의 사용은 부정관사 "하나" 또는 "하나의"에 의한 다른 청구범위 요소의 도입이 특정 청구항을 제한하는 것으로 해석되어서는 안되고, 이러한 도입된 청구항 요소를 포함하는 청구항에서 이러한 요소를 하나만 포함하는 발명에 대해, 동일한 청구항이 서문 "하나 이상" 또는 "적어도 하나" 및 "하나" 또는 "하나의"과 같은 부정관사를 포함하는 경우에도 마찬가지이고다. 정관사의 사용도 마찬가지이다. 달리 명시되지 않는 한, "제1" 및 "제2"와 같은 용어는 이러한 용어가 설명하는 요소를 임의로 구별하기 위해 사용된다. 따라서, 이러한 용어는 이러한 요소의 시간적 또는 다른 우선 순위를 나타내기 위해 반드시 필요한 것은 아니다. 특정 조치가 서로 다른 청구범위에 인용되어 있다는 단순한 사실이 이러한 조치의 조합이 유리하게 사용될 수 없다는 것을 나타내지는 않는다. 본 발명의 특정 특징들이 본 발명에서 예시되고 설명되었지만, 많은 수정, 대체, 변경 및 등가물이 이제 당업자에게 일어날 것이다. 따라서, 첨부된 특허 청구범위는 본 발명의 진정한 사상에 속하는 모든 이러한 수정 및 변경을 포함하는 것으로 이해되어야 한다. 명료함을 위해 별도의 실시형태들의 맥락에서 설명되는 개시 내용의 실시형태들의 다양한 특징들이 또한 단일 실시형태에서 조합되어 제공될 수 있다는 것이 이해된다. 역으로, 간결함을 위해 단일 실시형태의 맥락에서 설명된 개시 내용의 실시형태들의 다양한 특징은 또한 개별적으로 또는 임의의 적합한 하위 조합으로 제공될 수 있다. 당업자는 본 발명의 실시형태들이 위에서 특별히 도시되고 설명된 것에 의해 제한되지 않는다는 것을 이해할 것이다. 오히려 본 발명의 실시형태들의 범위는 첨부된 청구범위 및 이의 등가물에 의해 정의된다.In the foregoing detailed description of the invention, the invention has been described with reference to specific examples of embodiments of the invention. However, it will be apparent that various modifications and changes may be made without departing from the scope and broader spirit of the invention as asserted in the appended claims. Additionally, in the description of the invention and the patent claims, terms such as “front,” “rear,” “top,” “bottom,” “top,” and “bottom” are used for descriptive purposes and necessarily describe permanent relative positions. It's not meant to be done. It is to be understood that the terms so used are interchangeable in appropriate contexts so that the embodiments of the invention described herein may operate in different directions, for example, than those illustrated or otherwise described herein. Additionally, the terms "assert" or "set" and "negation" (or "deassert" or "clear") are used herein to refer to a signal, status bit, or similar device as logically true or logically true. It is used to refer to rendering each in a false state. A logically true state is logic level 1, and a logically false state is logic level 0. And if a logically true state is logic level 0, then a logically false state is logic level 1. Those skilled in the art will recognize that the boundaries between logical blocks are merely examples and that alternative embodiments may merge logical blocks or circuit elements or impose alternative decompositions of functionality on various logical blocks or circuit elements. Accordingly, it will be appreciated that the architecture depicted herein is merely illustrative and that many other architectures may be implemented in practice that achieve the same functionality. Any arrangement of components to achieve the same function is effectively “related” so that the desired function is achieved. Accordingly, any two components combined in the present invention to achieve a particular function may be viewed as “related” to each other such that the desired function is achieved, regardless of architecture or intermediate components. Likewise, any two such related components may be viewed as being “operably connected” or “operably coupled” to each other to achieve the desired functionality. Additionally, those skilled in the art will recognize that the boundaries between the foregoing operations are illustrative only. Multiple operations may be combined into a single operation, a single operation may be distributed into additional operations and the operations may be executed at least partially temporally overlapping. Moreover, alternative embodiments may include multiple instances of a particular operation, and the order of operations may vary in various other embodiments. Also for example, in one embodiment, the illustrated embodiments may be implemented on a single integrated circuit or as a circuit located within the same device. Alternatively, embodiments may be implemented as any number of separate integrated circuits or individual devices interconnected with each other in any suitable manner. However, other modifications, variations and alternatives are also possible. Accordingly, the specification and drawings are to be regarded in an illustrative rather than a restrictive sense. In the claims, any reference signs between parentheses should not be construed as limiting the scope of the claims. The word 'comprising' does not exclude the presence of elements or steps other than those listed in the claims. Additionally, the term “one” or “one” used in this specification is defined as one or more than one. Additionally, the use of introductory phrases such as "at least one" and "one or more" in a claim should not be construed as limiting a particular claim, nor should the introduction of other claim elements by the indefinite article "one" or "an". , for inventions that contain only one such element in a claim containing such introduced claim element, if the same claim contains the preface "one or more" or "at least one" and an indefinite article such as "an" or "one" The same is true in this case. The same goes for the use of the definite article. Unless otherwise specified, terms such as “first” and “second” are used to optionally distinguish between the elements described by such terms. Accordingly, these terms are not necessarily intended to indicate the temporal or other priority of these elements. The mere fact that certain measures are recited in different claims does not indicate that a combination of these measures cannot be used to advantage. Although certain features of the invention have been illustrated and described herein, many modifications, substitutions, changes and equivalents will now occur to those skilled in the art. Accordingly, the appended claims are to be construed as including all such modifications and changes as fall within the true spirit of the invention. It is understood that various features of embodiments of the disclosure that are described in the context of separate embodiments for the sake of clarity may also be provided in combination in a single embodiment. Conversely, various features of embodiments of the disclosure that are described in the context of a single embodiment for the sake of brevity may also be provided individually or in any suitable sub-combination. Those skilled in the art will understand that the embodiments of the invention are not limited by what has been specifically shown and described above. Rather, the scope of embodiments of the invention is defined by the appended claims and their equivalents.

Claims (19)

차량의 운전자와 통신하기 위한 방법으로서,
차량의 환경 내에 위치된 하나 이상의 물체에 관한 물체 정보를 획득하는 단계;
상기 물체 정보를 분석하는 단계;
하나 이상의 신경망(NN)을 사용함으로써, 그리고 상기 물체 정보에 기초하여, 물리적 모델과 관련되고 차량의 동작에 대한 하나 이상의 물체의 영향을 나타내는 가상 힘을 결정하는 단계; 및
적어도 가상 힘에 기초하여, 차량을 사용하는 운전자에 의해 이루어진 운전자 조치와 관련하여 적용될 물리적인 저항력을 제공하는데 사용하기 위한 힘 피드백을 결정하는 단계를 포함하는 방법.
As a method for communicating with the driver of a vehicle,
Obtaining object information regarding one or more objects located within the environment of the vehicle;
analyzing the object information;
determining, by using one or more neural networks (NN) and based on the object information, virtual forces that are associated with a physical model and that represent the influence of one or more objects on the operation of the vehicle; and
A method comprising determining, based at least on virtual forces, force feedback for use in providing a physical resistance force to be applied in connection with driver actions made by a driver using the vehicle.
제1항에 있어서, 상기 물체 정보의 분석에 기초하여, 하나 이상의 가상 필드를 결정하는 것을 포함하고, 상기 가상의 힘을 결정하는 단계는 상기 하나 이상의 가상 필드에 기초하는 방법.The method of claim 1, comprising determining one or more virtual fields based on the analysis of the object information, wherein determining the virtual force is based on the one or more virtual fields. 제1항에 있어서, 차량을 이용하는 운전자에 의해 이루어지는 운전자 조치에 대응하여 힘 피드백을 제공하는 것을 포함하는 방법.The method of claim 1 including providing force feedback in response to driver actions made by a driver using the vehicle. 제1항에 있어서, 차량을 사용하는 운전자에 의해 이루어지는 운전자 조치에 대응하여 힘 피드백을 제공하도록 차량의 제어 유닛에 지시하는 것을 포함하는 방법.The method of claim 1 including instructing a control unit of the vehicle to provide force feedback in response to driver actions made by a driver using the vehicle. 제1항에 있어서, 운전자 조치를 식별할 때 힘 피드백의 제공을 트리거링하는 것을 포함하는 방법.The method of claim 1 including triggering provision of force feedback upon identifying driver action. 제1항에 있어서, 상기 힘 피드백을 결정하는 단계는 자동차 주행을 제어하기 위해 운전자에 의해 요구되는 노력에 대한 힘 피드백의 영향을 결정하는 것을 포함하는 방법.The method of claim 1, wherein determining the force feedback includes determining the effect of the force feedback on the effort required by the driver to control the operation of the vehicle. 제1항에 있어서, 상기 힘 피드백을 결정하는 단계는 차량의 스티어링 휠을 회전시키기 위해 운전자에 의해 요구되는 노력에 대한 힘 피드백의 영향을 결정하는 것을 포함하는 방법.The method of claim 1, wherein determining the force feedback includes determining the effect of the force feedback on the effort required by the driver to turn the steering wheel of the vehicle. 제1항에 있어서, 상기 힘 피드백을 결정하는 단계는 차량의 속도 또는 가속도를 변경하기 위해 운전자에 의해 요구하는 노력에 대한 힘 피드백의 영향을 결정하는 것을 포함하는 방법.The method of claim 1, wherein determining the force feedback includes determining the effect of the force feedback on the effort required by the driver to change the speed or acceleration of the vehicle. 제1항에 있어서, 상기 가상 힘에 기초하여, 차량의 원하는 가상 가속도를 계산하는 것을 포함하는 방법.The method of claim 1, including calculating a desired virtual acceleration of the vehicle based on the virtual force. 제9항에 있어서, 운전자의 주행 작동의 제어 하에서 설정될 차량의 원하는 가상 가속도와 가속도 사이의 차이를 계산하는 것을 포함하는 방법.10. A method according to claim 9, comprising calculating the difference between the acceleration and the desired virtual acceleration of the vehicle to be set under control of the driver's driving operation. 제10항에 있어서, 상기 힘 피드백을 결정하는 단계는 상기 차이를 감소시키기 위해 상기 물리적인 저항력을 설정하는 것을 포함하는 방법.11. The method of claim 10, wherein determining the force feedback includes setting the physical resistance force to reduce the difference. 제1항에 있어서, 가상 힘의 결정의 1회 이상의 반복에 기초하여, 차량의 원하는 경로를 결정하는 것을 포함하는 방법.2. The method of claim 1, comprising determining a desired path of the vehicle based on one or more iterations of determination of virtual forces. 제12항에 있어서, 상기 힘 피드백을 결정하는 단계는 운전자에 의해 지시되는 경로와 원하는 경로 사이의 차이를 감소시키기 위해 물리적인 저항력을 설정하는 것을 포함하는 방법.13. The method of claim 12, wherein determining force feedback includes setting a physical resistance force to reduce the difference between the path indicated by the driver and the desired path. 제1항에 있어서, 상기 저항력이 일단 적용되면, 차량에 대한 운전자 조치의 영향을 제한하는 방법.2. The method of claim 1, wherein once said resistance force is applied, the effect of driver actions on the vehicle is limited. 제1항에 있어서, 상기 저항력은 일단 적용되면, 차량에 대한 운전자 조치의 영향을 방지하는 방법.2. The method of claim 1, wherein the resistance force, once applied, prevents the effects of driver actions on the vehicle. 제1항에 있어서, 상기 주행 관련 작동을 수행하는 단계를 포함하는 방법.2. The method of claim 1, comprising performing the travel-related operation. 차량의 운전자와 통신하기 위한 비일시적 컴퓨터 판독 가능 매체로서, 상기 비일시적 컴퓨터 판독 가능 매체는 하기를 위한 명령어를 저장하는 비일시적 컴퓨터 판독 가능 매체:
차량의 환경 내에 위치된 하나 이상의 물체에 관한 물체 정보를 획득하고;
상기 물체 정보를 분석하며;
하나 이상의 신경망(NN)을 사용함으로써, 그리고 상기 물체 정보에 기초하여, 물리적 모델과 관련되고 차량의 동작에 대한 하나 이상의 물체의 영향을 나타내는 가상 힘을 결정하며; 그리고
적어도 가상 힘에 기초하여, 차량을 사용하는 운전자에 의해 이루어진 운전자 조치과 관련하여 적용될 물리적인 저항력을 제공하는데 사용하기 위한 힘 피드백을 결정함.
1. A non-transitory computer-readable medium for communicating with a driver of a vehicle, the non-transitory computer-readable medium storing instructions for:
Obtain object information regarding one or more objects located within the vehicle's environment;
Analyzing the object information;
determine, by using one or more neural networks (NN) and based on the object information, virtual forces that are associated with a physical model and represent the influence of one or more objects on the motion of the vehicle; and
Determining, based at least on the virtual forces, force feedback for use in providing a physical resistance force to be applied in connection with driver actions made by the driver using the vehicle.
제17항에 있어서, 상기 물체 정보의 분석에 기초하여, 하나 이상의 가상 필드를 결정하는 것을 포함하는 명령어를 저장하고, 상기 가상 힘의 결정은 하나 이상의 가상 필드에 기초하는 비일시적 컴퓨터 판독 가능 매체.18. The non-transitory computer-readable medium of claim 17, storing instructions comprising determining one or more virtual fields based on analysis of the object information, and wherein the determination of the virtual force is based on the one or more virtual fields. 제18항에 있어서, 상기 가상 힘에 기초하여, 차량의 원하는 가상 가속도를 계산하고, 운전자의 주행 작동의 제어 하에서 설정될 차량의 원하는 가상 가속도와 가속도 사이의 차이를 계산하며, 그리고 상기 힘 피드백의 결정은 차이를 감소시키기 위해 물리적인 저항력을 설정하는 것을 포함하는 비일시적 컴퓨터 판독 가능 매체.19. The method of claim 18, based on the virtual force, calculating a desired virtual acceleration of the vehicle, calculating a difference between the acceleration and a desired virtual acceleration of the vehicle to be set under control of the driver's driving operation, and A non-transitory computer-readable medium in which the determination includes establishing a physical resistance force to reduce the difference.
KR1020230089678A 2022-07-11 2023-07-11 Virtual fields driving related operations KR20240021695A (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US202263368155P 2022-07-11 2022-07-11
US63/368,155 2022-07-11
US17/823,069 2022-08-29
US17/823,069 US20230064387A1 (en) 2021-09-01 2022-08-29 Perceptual fields for autonomous driving

Publications (1)

Publication Number Publication Date
KR20240021695A true KR20240021695A (en) 2024-02-19

Family

ID=89723882

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230089678A KR20240021695A (en) 2022-07-11 2023-07-11 Virtual fields driving related operations

Country Status (3)

Country Link
JP (1) JP2024009794A (en)
KR (1) KR20240021695A (en)
DE (1) DE102023206536A1 (en)

Also Published As

Publication number Publication date
JP2024009794A (en) 2024-01-23
DE102023206536A1 (en) 2024-04-11

Similar Documents

Publication Publication Date Title
Drews et al. Aggressive deep driving: Combining convolutional neural networks and model predictive control
CN107622527B (en) Virtual sensor data generation system and method supporting development of vision-based rain detection algorithm
CN111666804A (en) Pedestrian movement prediction useful for autonomous driving
US10845818B2 (en) System and method for 3D scene reconstruction of agent operation sequences using low-level/high-level reasoning and parametric models
KR20180068511A (en) Apparatus and method for generating training data for training neural network determining information related to road included in an image
Drews et al. Aggressive deep driving: Model predictive control with a cnn cost model
Niranjan et al. Deep learning based object detection model for autonomous driving research using carla simulator
Hu et al. Learning a deep cascaded neural network for multiple motion commands prediction in autonomous driving
US11810365B1 (en) Perception error modeling
Aditya et al. Collision Detection: An Improved Deep Learning Approach Using SENet and ResNext
KR20240021695A (en) Virtual fields driving related operations
Krishnarao et al. Enhancement of advanced driver assistance system (ADAS) using machine learning
Zhang et al. Learning how to avoiding obstacles for end-to-end driving with conditional imitation learning
Viswanath et al. Virtual simulation platforms for automated driving: Key care-about and usage model
KR20240024735A (en) Virtual fields driving related operations
US20230064387A1 (en) Perceptual fields for autonomous driving
US20230347918A1 (en) Virtual fields driving related operations
Bhaggiaraj et al. Deep Learning Based Self Driving Cars Using Computer Vision
US20240005794A1 (en) Adaptive perception affected by V2X signal
US20230365156A1 (en) Virtual fields driving related operations
US20230365155A1 (en) Virtual fields driving related operations
KR20240024737A (en) Driving related augmented virtual fields
Reway et al. Validity Analysis of Simulation-based Testing concerning Free-space Detection in Autonomous Driving.
US20230365157A1 (en) Driving related augmented virtual fields
CN117719523A (en) Field dependent driving and external content