KR20240024735A - Virtual fields driving related operations - Google Patents

Virtual fields driving related operations Download PDF

Info

Publication number
KR20240024735A
KR20240024735A KR1020230089677A KR20230089677A KR20240024735A KR 20240024735 A KR20240024735 A KR 20240024735A KR 1020230089677 A KR1020230089677 A KR 1020230089677A KR 20230089677 A KR20230089677 A KR 20230089677A KR 20240024735 A KR20240024735 A KR 20240024735A
Authority
KR
South Korea
Prior art keywords
virtual
vehicle
forces
navigation information
fields
Prior art date
Application number
KR1020230089677A
Other languages
Korean (ko)
Inventor
비에스 아르민
미스리 아이작
엔겔쏘이 율리우스
라이헬가우즈 이갈
Original Assignee
오토브레인즈 테크놀로지스 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US17/823,069 external-priority patent/US20230064387A1/en
Application filed by 오토브레인즈 테크놀로지스 리미티드 filed Critical 오토브레인즈 테크놀로지스 리미티드
Publication of KR20240024735A publication Critical patent/KR20240024735A/en

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/092Reinforcement learning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/801Lateral distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/802Longitudinal distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/20Steering systems
    • B60W2710/207Steering angle of wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/10Longitudinal speed
    • B60W2720/106Longitudinal acceleration

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

가상 필드 주행 관련 작동을 위한 방법에 있어서, 상기 방법은 (i) 차량의 목적지까지의 차량 경로의 적어도 일부에 대한 대략적인 내비게이션 정보(coarse navigation information)를 획득하는 단계; 및 (ii) 처리 회로를 사용하고 상기 대략적인 내비게이션 정보에 기초하여 하나 이상의 가상 힘을 결정하는 단계 - 상기 하나 이상의 가상 힘은 차량의 주행 관련 작동을 적용하는데 사용하기 위한 것이며, 상기 하나 이상의 가상 힘은 가상 물리적 모델에 속하고 적어도 부분적으로 상기 대략적인 네비게이션 정보를 나타냄 -를 포함한다. A method for virtual field driving-related operations, the method comprising: (i) obtaining coarse navigation information for at least a portion of a vehicle's route to a destination of the vehicle; and (ii) using processing circuitry and determining one or more virtual forces based on the approximate navigation information, wherein the one or more virtual forces are for use in applying a driving-related operation of the vehicle, the one or more virtual forces belongs to a cyber-physical model and at least partially represents the approximate navigation information.

Description

가상 필드 주행 관련 작동{VIRTUAL FIELDS DRIVING RELATED OPERATIONS}VIRTUAL FIELDS DRIVING RELATED OPERATIONS}

본 출원은 미국 가출원 63/260,839로부터 우선권을 주장하는 2022년 8월 29일에 출원된 미국 특허 출원 17/823,069의 일부의 연속 출원으로서, 이는 발명에 참조로 포함된다. 본 출원은 2022년 7월 11일에 출원된 미국 임시 특허 일련 번호 63/368,156의 우선권을 주장하며, 이는 이의 전체 내용이 본 발명에 포함된다.This application is a continuation-in-part of U.S. Patent Application No. 17/823,069, filed Aug. 29, 2022, which claims priority from U.S. Provisional Application No. 63/260,839, which is incorporated herein by reference. This application claims priority from U.S. Provisional Patent Serial No. 63/368,156, filed July 11, 2022, the entire contents of which are hereby incorporated by reference.

본 발명은 가상 필드 주행 관련 작동을 위한 방법에 관한 것이다.The present invention relates to a method for virtual field driving related operations.

자율 주행 차량(AV)은 교통사고의 수와 CO2 배출을 크게 줄이는데 도움이 될 뿐만 아니라, 보다 효율적인 이송 시스템에 기여할 수 있다. 그러나, 오늘날의 후보 AV 기술은 다음 세가지 방식에서 확장될 수 없다:Autonomous vehicles (AVs) can help significantly reduce the number of traffic accidents and CO2 emissions, as well as contribute to more efficient transport systems. However, today's candidate AV technologies cannot scale in three ways:

제한된 시야, 조명(lighting)과 날씨 문제, 및 어클루전(occlusion)은 모두 감지 오류 및 잡음이 많은 국부화/운동학으로 이어진다. 이러한 열악한 현실 세계 지각 출력을 처리하기 위해, AV 기술에 대한 한 가지 접근법은 값비싼 센서에 투자 및/또는 특수 인프라를 도로 네트워크에 통합하는 것이다. 그러나, 이러한 노력은 비용이 많이 들고 인프라의 경우 지리적으로 제한되므로, 일반적으로 접근 가능한 AV 기술로 이어질 수 없다.Limited field of view, lighting and weather issues, and occlusion all lead to detection errors and noisy localization/kinematics. To deal with this poor real-world perceptual output, one approach for AV technology is to invest in expensive sensors and/or integrate specialized infrastructure into road networks. However, these efforts are expensive and geographically limited in terms of infrastructure, so they cannot lead to generally accessible AV technology.

고가의 하드웨어 및 인프라를 기반으로 하지 않는 AV 기술은 머신 러닝(machine learning)에 전적으로 의존하므로 현실 세계의 상황을 처리하는 데이터에 의존한다. 감지 오류를 처리하고 복잡한 주행 작업을 위한 우수하고 충분한 운전 정책을 학습하기 위해서는, 방대한 양의 데이터와 계산 리소스(resource)가 필요하지만 여전히 정확하게 처리되지 않는 극단적 경우(edge case)가 있다. 이들 극단적 경우에서 공통 분모는 머신 러닝 모델이 보이지 않거나 혼란스러운 상황에 대해 잘 일반화되지 않으며 딥 신경망(deep neural network)의 블랙박스 특성으로 인해 잘못된 동작(behavior)을 분석하기 어렵다는 것이다.AV technology, which is not based on expensive hardware and infrastructure, relies entirely on machine learning and thus relies on data to process real-world situations. In order to handle detection errors and learn good and sufficient driving policies for complex driving tasks, a huge amount of data and computational resources are required, but there are still edge cases that are not handled accurately. The common denominator in these extreme cases is that machine learning models do not generalize well to invisible or confusing situations, and the black box nature of deep neural networks makes it difficult to analyze incorrect behavior.

현재 도로 준비가 된 자율 주행은 ACC, AEB, LCA와 같은 별도의 ADAS 기능 형태로 구현된다. 완전 자율 주행에 도달하려면 기존 ADAS 기능을 원활하게 결합하고 이러한 기능들(예를 들어, 차선 변경, 교차로 처리 등)을 더 추가하여 현재 자동화되지 않은 간격을 메워야 한다. 요컨대, 현재의 자율 주행은 완전한 자율 주행을 구현하기 위해 쉽게 확장될 수 있는 전체론적 접근법을 기반으로 하지 않는다.Currently, road-ready autonomous driving is implemented in the form of separate ADAS functions such as ACC, AEB, and LCA. Reaching fully autonomous driving requires seamlessly combining existing ADAS functions and adding more of these functions (e.g. lane changes, intersection handling, etc.) to fill the gaps that are currently not automated. In short, current autonomous driving is not based on a holistic approach that can be easily expanded to implement fully autonomous driving.

따라서, 본 발명은 가상 필드 주행 관련 작동을 위한 방법으로서, 상기 방법은: 차량의 목적지까지의 차량 경로의 적어도 세그먼트에 관한 대략적인 내비게이션 정보를 획득하는 단계; 및 처리 회로를 사용하고 상기 대략적인 내비게이션 정보에 기초하여, 하나 이상의 가상 힘을 결정하는 단계 - 상기 하나 이상의 가상 힘은 차량의 주행 관련 작동을 적용하는데 사용하기 위한 것이며, 상기 하나 이상의 가상 힘은 가상 물리적 모델에 속하고, 상기 대략적인 내비게이션 정보를 적어도 부분적으로 나타냄 -을 포함하는 방법을 제공한다.Accordingly, the present invention provides a method for virtual field driving-related operations, the method comprising: obtaining approximate navigation information regarding at least a segment of the vehicle's route to the vehicle's destination; and determining, using processing circuitry and based on the approximate navigation information, one or more virtual forces, wherein the one or more virtual forces are for use in applying a driving-related operation of the vehicle, the one or more virtual forces being virtual forces. belonging to a physical model, and at least partially representing the approximate navigation information.

또한, 본 발명은 처리 회로에 의해 일단 실행되면 상기 처리 회로가 하기를 수행하게 하는 명령어를 저장하는 비일시적 컴퓨터 판독 가능 매체를 제공한다:The invention also provides a non-transitory computer-readable medium storing instructions that, once executed by processing circuitry, cause the processing circuitry to:

차량의 목적지까지의 차량 경로의 적어도 세그먼트에 관한 대략적인 내비게이션 정보를 획득하고; 그리고 상기 처리 회로를 사용하고 상기 대략적인 내비게이션 정보에 기초하여, 하나 이상의 가상 힘을 결정하는 것을 수행하며, 상기 하나 이상의 가상 힘은 상기 차량의 주행 관련 작동을 적용하는데 사용하기 위한 것이며, 상기 하나 이상의 가상 힘은 가상 물리적 모델에 속하고, 상기 대략적인 내비게이션 정보를 적어도 부분적으로 나타냄.obtain approximate navigation information regarding at least a segment of the vehicle's route to the vehicle's destination; and determine, using the processing circuitry and based on the approximate navigation information, one or more virtual forces, the one or more virtual forces for use in applying a driving-related operation of the vehicle, wherein the one or more virtual forces are for use in applying a driving-related operation of the vehicle. The virtual force belongs to the virtual physical model and represents at least in part the approximate navigation information.

본 발명의 실시 형태들은 도면들과 함께 취해진 하기의 상세한 설명으로부터 더 완전하게 이해되고 인식될 것이다:
도 1은 방법의 일 실시예를 도시한다.
도 2는 방법의 일 실시예를 도시한다.
도 3은 방법의 일 실시예를 도시한다.
도 4는 방법의 일 실시예를 도시한다.
도 5는 차량의 일 실시예이다.
도 6-9는 상황과 지각 영역의 실시예들을 도시한다.
도 10은 방법의 일 실시예를 도시한다.
도 11은 방법의 일 실시예를 도시한다.
도 12는 방법의 일 실시예를 도시한다.
도 13은 장면의 일 실시예를 도시한다.
도 14는 장면의 일 실시예를 도시한다.
Embodiments of the invention will be more fully understood and appreciated from the following detailed description taken in conjunction with the drawings:
Figure 1 shows one embodiment of the method.
Figure 2 shows one embodiment of the method.
Figure 3 shows one embodiment of the method.
Figure 4 shows one embodiment of the method.
5 shows an embodiment of a vehicle.
Figures 6-9 illustrate embodiments of situational and perceptual domains.
Figure 10 shows one embodiment of the method.
Figure 11 shows one embodiment of the method.
Figure 12 shows one embodiment of the method.
Figure 13 shows one embodiment of a scene.
Figure 14 shows one embodiment of a scene.

다음의 상세한 설명에서, 본 발명의 완전한 이해를 제공하기 위해 다수의 구체적인 세부사항이 제시된다. 그러나, 본 발명이 이들 특정 세부사항 없이 실시될 수 있다는 것이 당업자에 의해 이해될 것이다. 다른 경우들에서, 잘 알려진 방법, 절차 및 구성 요소들은 본 발명을 가리지 않기 위해 자세히 설명되지는 않는다.In the following detailed description, numerous specific details are set forth to provide a thorough understanding of the invention. However, it will be understood by those skilled in the art that the present invention may be practiced without these specific details. In other instances, well-known methods, procedures and components are not described in detail so as not to obscure the invention.

발명으로 간주되는 요지는 상세한 설명의 결론 부분에서 특별히 지적되고 명확하게 주장된다. 그러나, 본 발명의 목적들, 특징들 및 이점들과 함께 구성 및 작동 방법에 관해 첨부된 도면들과 함께 읽을 때 하기의 상세한 설명을 참조함으로써 가장 잘 이해될 수 있다.The subject matter considered to be the invention is specifically pointed out and clearly asserted in the conclusion of the detailed description. However, the objects, features and advantages of the present invention, together with its construction and method of operation, may be best understood by reference to the following detailed description when read in conjunction with the accompanying drawings.

설명의 단순함과 명확성을 위해 도면들에 도시된 요소는 반드시 축척에 맞게 그려지지는 않았다. 예를 들어 일부 요소들의 치수는 명확성을 위해 다른 요소들에 비해 과장될 수 있다. 또한, 적절한 것으로 간주되는 경우, 참조 번호는 대응하거나 유사한 요소들을 나타내기 위해 도면들 중에서 반복될 수 있다.For simplicity and clarity of explanation, elements shown in the drawings are not necessarily drawn to scale. For example, the dimensions of some elements may be exaggerated relative to others for clarity. Additionally, where deemed appropriate, reference numerals may be repeated among the drawings to indicate corresponding or similar elements.

본 발명의 도시된 실시 형태들은 대부분 당업자에게 공지된 전기적 구성 요소들 및 회로를 사용하여 구현될 수 있기 때문에, 세부사항은 본 발명의 근본 개념의 이해 및 인식을 위해 그리고 본 발명의 교시를 혼란하게 하거나 산만하게 하지 않기 위해 전술한 바와 같이 필요한 것으로 간주되는 것보다 많게 설명되지는 않을 것이다. Since the illustrated embodiments of the present invention can be implemented using mostly electrical components and circuits known to those skilled in the art, the details are provided to facilitate understanding and appreciation of the underlying concepts of the present invention and to avoid confusing the teachings of the present invention. In order not to be confusing or distracting, no more will be explained than is deemed necessary as aforesaid.

방법에 대한 상세한 설명에서의 임의의 참조는 방법을 실행할 수 있는 장치 또는 시스템 및/또는 방법을 실행하기 위한 명령어를 저장하는 비일시적 컴퓨터 판독 가능 매체에 준용하여 적용되어야 한다.Any reference in the detailed description of the method shall apply mutatis mutandis to a device or system capable of executing the method and/or a non-transitory computer-readable medium storing instructions for executing the method.

시스템 또는 장치에 대한 상세한 설명의 임의의 참조는 시스템에 의해 실행될 수 있는 방법에 준용하여 적용되어야 하며 및/또는 시스템에 의해 실행 가능한 명령어를 저장하는 비일시적 컴퓨터 판독 가능 매체에 준용하여 적용될 수 있다.Any reference in the detailed description to a system or device should apply mutatis mutandis to a method executable by the system and/or may apply mutatis mutandis to a non-transitory computer-readable medium storing instructions executable by the system.

비일시적 컴퓨터 판독 가능 매체에 대한 상세한 설명에서의 임의의 참조는 비일시적 컴퓨터 판독 가능 매체에 저장된 명령어들을 실행할 수 있는 장치 또는 시스템에 준용되어야 하며 및/또는 명령어들을 실행하기 위한 방법에 준용하여 적용될 수 있다. Any reference in the detailed description to a non-transitory computer-readable medium shall apply mutatis mutandis to a device or system capable of executing instructions stored on the non-transitory computer-readable medium and/or may apply mutatis mutandis to a method for executing the instructions. there is.

임의의 도면, 상세한 설명 및/또는 청구 범위에 나열된 임의의 모듈 또는 유닛의 조합이 제공될 수 있다.Any combination of modules or units listed in any of the drawings, detailed description, and/or claims may be provided.

적용에서 예시된 유닛 및/또는 모듈 중 임의의 하나는 하드웨어 및/또는 코드에서 구현될 수 있고, 비일시적 컴퓨터 판독 가능 매체에 저장된 명령어들 및/또는 명령은 차량, 차량 외부, 모바일 장치, 서버 등에 포함될 수 있다.Any one of the units and/or modules illustrated in the application may be implemented in hardware and/or code, and instructions and/or instructions stored in a non-transitory computer-readable medium may be stored in a vehicle, outside the vehicle, mobile device, server, etc. may be included.

차량은 지상 수송 차량, 항공 차량 및 수상 선박인 임의의 유형의 차량일 수 있다.The vehicle may be any type of vehicle, including ground transport vehicles, air vehicles, and watercraft.

본 상세한 설명 및/또는 도면은 이미지를 참조할 수 있다. 이미지는 미디어 단위의 예이다. 이미지에 대한 임의의 참조는 미디어 유닛에 준용하여 적용될 수 있다. 미디어 유닛은 감지된 정보 유닛(Sensed Information Unit; SIU)의 예일 수 있다. 미디어 단위에 대한 임의의 참조는 자연에 의해 발생된 신호와 같은 임의의 유형의 자연 신호, 인간 행동을 나타내는 신호, 주식 시장과 관련된 작동을 나타내는 신호, 의료 신호, 금융 시리즈, 측지 신호(geodetic signal), 지구 물리학, 화학, 분자, 텍스트 및 숫자 신호, 시계열 등과 관련된 작동을 나타내는 신호에 준용하여 적용될 수 있으나 이에 제한되는 것은 아니다. 미디어 유닛에 대한 임의의 참조는 감지된 정보 유닛(SIU)에 준용하여 적용될 수 있다. SIU는 임의의 종류일 수 있으며 가시광 카메라, 오디오 센서, 적외선을 감지할 수 있는 센서, 레이더 이미지, 초음파, 전기 광학, 라디오그래피, LIDAR(광 감지 및 거리 측정)를 감지할 수 있는 센서, 열 센서, 수동 센서, 능동 센서 등과 같은 임의의 종류에 의해 감지될 수 있다. 감지는 전송된 신호를 나타내는 샘플(예를 들어, 픽셀, 오디오 신호)을 생성하거나, 그렇지 않으면 센서에 도달하는 것이 포함될 수 있다. SIU는 하나 이상의 이미지, 하나 이상의 비디오 클립, 하나 이상의 이미지에 관한 텍스트 정보, 물체에 대한 운동학적 정보를 설명하는 텍스트 등일 수 있다.This detailed description and/or drawings may refer to images. An image is an example of a media unit. Any reference to an image may apply mutatis mutandis to a media unit. A media unit may be an example of a Sensed Information Unit (SIU). Any reference to a media unit may include any type of natural signal, such as a signal generated by nature, a signal representing human behavior, a signal representing operations related to the stock market, a medical signal, a financial series, or a geodetic signal. , may be applied mutatis mutandis to signals representing operations related to geophysics, chemistry, molecules, text and numeric signals, time series, etc., but is not limited thereto. Any reference to a media unit may apply mutatis mutandis to a sensed information unit (SIU). SIUs can be of any type and include visible light cameras, audio sensors, sensors capable of detecting infrared, radar images, sensors capable of detecting ultrasound, electro-optics, radiography, LIDAR (light detection and ranging), and thermal sensors. , can be sensed by any type, such as passive sensors, active sensors, etc. Sensing may involve generating samples (e.g., pixels, audio signals) that represent the transmitted signal or otherwise reaching the sensor. An SIU may be one or more images, one or more video clips, text information about one or more images, text describing kinematic information about an object, etc.

물체 정보는 물체의 위치, 물체의 동작, 물체의 속도, 물체의 가속도, 물체의 전파 방향, 물체의 유형, 물체의 하나 이상의 치수 등과 같은 물체와 관련된 임의의 유형의 정보를 포함할 수 있지만 이에 제한되지 않는다. 물체 정보는 원시 SIU, 처리된 SIU, 텍스트 정보, SIU로부터 파생된 정보 등일 수 있다.Object information may include, but is not limited to, any type of information related to an object, such as the location of the object, the motion of the object, the speed of the object, the acceleration of the object, the direction of propagation of the object, the type of object, one or more dimensions of the object, etc. It doesn't work. Object information may be raw SIU, processed SIU, text information, information derived from SIU, etc.

물체 정보를 획득하는 단계는 물체 정보를 수신하는 것, 물체 정보를 생성하는 것, 물체 정보의 처리에 참여하는 것, 물체 정보의 일부만을 처리하는 것 및/또는 물체 정보의 다른 부분만을 수신하는 것을 포함할 수 있다.Obtaining object information includes receiving object information, generating object information, participating in processing of object information, processing only part of object information, and/or receiving only other parts of object information. It can be included.

물체 정보를 획득하는 단계는 물체 검출을 포함할 수도 있거나 물체 검출을 수행하지 않고 실행될 수도 있다.Obtaining object information may include object detection or may be performed without performing object detection.

물체 정보의 처리는 물체 검출, 노이즈 감소, 신호 대 잡음비 개선, 바운딩 박스의 정의 등 중 적어도 하나를 포함할 수 있다.Processing of object information may include at least one of object detection, noise reduction, signal-to-noise ratio improvement, and definition of a bounding box.

물체 정보는 하나 이상의 센서, 하나 이상의 통신 유닛, 하나 이상의 메모리 유닛, 하나 이상의 이미지 프로세서 등과 같은 하나 이상의 소스(source)로부터 수신될 수 있다.Object information may be received from one or more sources, such as one or more sensors, one or more communication units, one or more memory units, one or more image processors, etc.

물체 정보는 하나 이상의 방식으로 - 예를 들어 절대적 방식으로(예를 들어 - 물체 위치의 좌표 제공) 또는 상대적 방식으로 - 예를 들어 차량과 관련하여(예를 들어 물체는 차량과 관련하여 특정 거리와 특정 각도에 있음) 제공될 수 있다.Object information can be shared in one or more ways - for example in an absolute way (for example - giving coordinates of the object's position) or in a relative way - for example in relation to a vehicle (for example - an object is stored at a certain distance in relation to the vehicle). (at a certain angle) can be provided.

차량은 자아-차량(ego-vehicle)이라고도 한다.The vehicle is also called an ego-vehicle.

상세한 설명 및/또는 도면들은 프로세서 또는 처리 회로를 나타낼 수 있다. 프로세서는 처리 회로일 수 있다. 처리 회로는 중앙 처리 장치(CPU) 및/또는 주문형 집적 회로(ASIC), 필드 프로그램 가능한 게이트 어레이(FPGA), 완전 맞춤형 집적 회로 등과 같은 하나 이상의 다른 집적 회로, 또는 이러한 집적 회로의 조합으로 구현될 수 있다.The detailed description and/or drawings may represent a processor or processing circuitry. A processor may be a processing circuit. The processing circuitry may be implemented as a central processing unit (CPU) and/or one or more other integrated circuits, such as an application-specific integrated circuit (ASIC), a field programmable gate array (FPGA), a fully custom integrated circuit, etc., or a combination of these integrated circuits. there is.

상세한 설명 및/또는 도면들에 도시된 임의의 방법의 임의의 단계의 임의의 조합이 제공될 수 있다.Any combination of any steps of any method shown in the description and/or drawings may be provided.

청구항 범위 중 임의의 요지의 임의의 조합이 제공될 수 있다.Any combination of any of the subject matter of the claims may be provided.

상세한 설명 및/또는 도면들에 예시된 시스템, 유닛, 구성 요소, 프로세서, 센서의 임의의 조합이 제공될 수 있다.Any combination of systems, units, components, processors, and sensors illustrated in the description and/or drawings may be provided.

물체에 대한 임의의 참조는 패턴에 적용될 수 있다. 따라서 물체 검출에 대한 임의의 참조는 패턴 검출에 준용하여 적용될 수 있다.Any reference to an object can be applied to the pattern. Therefore, any reference to object detection can be applied mutatis mutandis to pattern detection.

성공적인 주행은 이들의 위치와 움직임(movement)을 기반으로 주변 도로 물체를 우회하는데 달려 있지만, 인간은 운동학을 추정하는 것에 능숙하지 못하다. 본 발명자는 인간이 행동을 즉시 암시하는 가상 역장(virtual force field)의 형태로 주변 물체의 내부 표현을 사용하여, 운동학 추정의 필요성을 회피한다고 의심한다. 자아 차량이 한 차선에서 운전하고 인접한 차선에서 대각선 전방에 있는 차량이 자아 차선으로 방향을 틀기 시작하는 시나리오를 고려한다. 브레이크 또는 방향 전환에 대한 인간의 반응은 즉각적이고 본능적이며 방향을 바꾸는 차량에서 자아를 밀어내는 가상의 힘으로 경험할 수 있다. 이러한 가상 힘 표현은 학습되고 특정 도로 물체와 관련된다.Successful driving depends on circumventing surrounding road objects based on their positions and movements, but humans are not good at estimating their kinematics. The inventor suspects that humans circumvent the need for kinematic estimation by using internal representations of surrounding objects in the form of virtual force fields that immediately imply action. Consider a scenario where your vehicle is driving in one lane and a vehicle diagonally ahead in an adjacent lane begins to swerve into your lane. The human response to braking or turning is immediate and instinctive and can be experienced as a virtual force pushing the ego away from the turning vehicle. These virtual force representations are learned and associated with specific road objects.

위의 고려 사항에서 영감을 받아 본 발명자는 지각 필드(perception field)의 신규한 개념을 제안한다. 지각 필드는 ADAS 및/또는 AV 소프트웨어의 형태로 자아 차량의 제어 시스템을 통해 "감지"되는 가상 역장의 형태로 도로 물체의 학습된 표현이다. 본 발명에서 필드는 공간 위치(또는 유사한 수량)에 따라 달라지는 수학적 함수로 정의된다.Inspired by the above considerations, the present inventor proposes a novel concept of perception field. The perceptual field is a learned representation of road objects in the form of a virtual force field that is “sensed” through the ego vehicle's control system in the form of ADAS and/or AV software. In the present invention, a field is defined as a mathematical function that varies depending on spatial location (or similar quantity).

추론 방법(100)의 일 실시예는 도 1에 도시되며 하기를 포함한다:One embodiment of inference method 100 is shown in Figure 1 and includes:

방법(100)은 차량 환경의 하나 이상의 프레임마다 실행될 수 있다.Method 100 may be executed for each one or more frames of the vehicle environment.

방법(100)의 단계 110은 하나 이상의 물체(예를 들어, 하나 이상의 도로 사용자를 포함)를 검출 및/또는 추적하는 것을 포함할 수 있다. 검출 및/또는 추적은 임의의 방식으로 수행될 수 있다. 하나 이상의 물체는 차량의 동작에 영향을 미칠 수 있는 임의의 물체일 수 있다. 예를 들어 - 도로 사용자(보행자, 다른 차량), 차량이 진행 중인 도로 및/또는 경로(예를 들어, 도로 또는 경로의 상태, 도로의 모양 - 예를 들어, 곡선, 직선 도로 세그먼트), 교통 표지판, 신호등, 도로 건널목, 학교, 유치원 등이다. 단계 110은 하나 이상의 물체에 관련된 운동학적 및 상황적(contextual) 변수와 같은 추가 정보를 획득하는 것을 포함할 수 있다. 획득은 수신 또는 생성을 포함할 수 있다. 획득은 하나 이상의 프레임을 처리하여 운동학적 및 상황적 변수를 생성하는 것을 포함할 수 있다.Step 110 of method 100 may include detecting and/or tracking one or more objects (eg, including one or more road users). Detection and/or tracking may be performed in any manner. The one or more objects may be any object that can affect the operation of the vehicle. For example - road users (pedestrians, other vehicles), the road and/or path on which the vehicle is traveling (e.g. the condition of the road or path, the shape of the road - e.g. curved, straight road segments), traffic signs. , traffic lights, road crossings, schools, kindergartens, etc. Step 110 may include obtaining additional information, such as kinematic and contextual variables related to one or more objects. Acquiring can include receiving or generating. Acquisition may include processing one or more frames to generate kinematic and contextual variables.

단계 110은 (하나 이상의 프레임을 획득하지 않고서도) 운동학적 변수를 획득하는 것을 포함할 수 있다는 점에 유의해야 한다.It should be noted that step 110 may include acquiring kinematic variables (without acquiring one or more frames).

방법(100)은 또한 하나 이상의 물체에 관련된 각각의 지각 필드를 획득하는 단계 120를 포함할 수 있다. 단계 120은 물체들 간의 어떤 매핑을 검색 및/또는 사용되어야 하는지 등을 결정하는 것을 포함할 수 있다.Method 100 may also include step 120 of obtaining respective perceptual fields associated with one or more objects. Step 120 may include determining which mapping between objects should be retrieved and/or used, etc.

단계 110(및 심지어 단계 120)는 지각 필드(및 하나 이상의 가상 물리적 모델 함수), 운동학적 및 상황적 변수와 같은 관련 입력 변수를 전달함으로써 하나 이상의 물체와 관련된 하나 이상의 가상 힘을 결정하는 단계 130가 뒤따를 수 있다.Step 110 (and even step 120) includes step 130 determining one or more virtual forces associated with one or more objects by passing relevant input variables such as perceptual fields (and one or more pseudo-physical model functions), kinematic and contextual variables. It can follow.

단계 130 다음에는 하나 이상의 물체와 관련된 하나 이상의 가상 힘에 기초하여 차량에 적용되는 총 가상 힘을 결정하는 단계 140가 뒤따를 수 있다. 예를 들어, 단계 140는 하나 이상의 물체와 관련된 하나 이상의 가상 힘에 대해 벡터 가중 합(또는 다른 함수)을 수행하는 것을 포함할 수 있다.Step 130 may be followed by step 140 of determining a total virtual force applied to the vehicle based on one or more virtual forces associated with one or more objects. For example, step 140 may include performing a vector weighted sum (or other function) on one or more virtual forces associated with one or more objects.

단계 140 다음에는 총 가상 힘에 기초하여, 원하는(또는 목표) 가상 가속도 - 예를 들어 뉴턴의 제2 법칙의 등가물(equivalent)에 기초하여 결정하는 단계 150가 뒤따를 수 있다. 원하는 가상 가속도는 벡터일 수도 있고 - 또는 그렇지 않으면 방향을 가질 수 있다.Step 140 may be followed by step 150 of determining, based on the total virtual force, a desired (or target) virtual acceleration - for example, based on an equivalent of Newton's second law. The desired virtual acceleration may be vector - or otherwise have a direction.

단계 150 다음에는 차량이 원하는 가상 가속도를 따라 전파하게 할 하나 이상의 차량 주행 작동으로 원하는 가상 가속도를 변환하는 단계 160가 뒤따를 수 있다.Step 150 may be followed by step 160 of converting the desired virtual acceleration into one or more vehicle driving operations that will cause the vehicle to propagate along the desired virtual acceleration.

예를 들어, 단계 160는 가스 페달 움직임, 브레이크 페달 움직임 및/또는 스티어링 휠 각도를 사용하여 원하는 가속도를 가속 또는 감속으로 병진 이동하거나 차량의 진행 방향을 변경하는 것을 포함할 수 있다. 병진 이동(translation)은 특정 제어 방식을 갖는 차량의 동역학 모델을 기반으로 할 수 있다.For example, step 160 may include translating a desired acceleration to acceleration or deceleration or changing the direction of travel of the vehicle using gas pedal movement, brake pedal movement, and/or steering wheel angle. The translation may be based on a dynamic model of the vehicle with a specific control scheme.

지각 필드의 이점은 예를 들어 설명 가능성(explainability), 일반화 가능성(generalizability) 및 잡음 입력에 대한 견고성(robustness to noisy input)을 포함한다.Advantages of perceptual fields include, for example, explainability, generalizability, and robustness to noisy input.

설명 가능성. 자아 움직임을 개별 지각 필드의 구성으로 표현하는 것은 행동을 보다 근본적인 구성 요소로 분해하는 것을 의미하며 그 자체로 설명 가능성을 향한 중요한 단계이다. 자아 움직임을 예측하기 위해 이러한 필드를 시각화하고 물리학으로부터 직관을 적용할 수 있는 가능성은 일반적인 종단간(end to end) 블랙박스 딥 러닝 접근법과 비교함에 따라 추가 설명 가능성을 나타낸다. 이러한 향상된 투명성은 또한 승객과 운전자가 AV 또는 ADAS 기술을 더 신뢰할 수 있게 한다.Explainability. Representing ego movements as configurations of individual perceptual fields means decomposing behavior into its more fundamental components and is itself an important step towards explainability. The possibility to visualize these fields and apply intuitions from physics to predict ego movements represents additional explanatory potential as compared to typical end-to-end black-box deep learning approaches. This increased transparency also allows passengers and drivers to trust AV or ADAS technology more.

일반화 가능성. 알 수 없는 도로 물체에 대한 자아 반응을 혐오스러운 가상 역장으로 표현하는 것은 보이지 않는 상황에서 귀납 편향(inductive bias)을 구성한다. 적은 훈련으로 안전한 방식으로 극단적 경우를 처리할 수 있다는 점에서 이러한 표현에는 잠재적인 이점이 있다. 또한, 지각 필드 모델은 주행 정책의 모든 측면에 대해 동일한 접근법을 사용할 수 있다는 점에서 총체적이다. 또한 ACC, AEB, LCA 등과 같은 ADAS에서 사용되는 좁은 주행 기능으로 나눌 수 있다. 마지막으로, 지각 필드의 복합적 특성으로 인해 모델이 원자 시나리오에서 훈련될 수 있으며 여전히 더 복잡한 시나리오를 적절하게 처리할 수 있다.Generalizability. Representing one's reaction to an unknown road object as an aversive virtual force field constitutes an inductive bias in an unseen situation. There is a potential advantage to this representation in that it allows edge cases to be handled in a safe manner with little training. Additionally, perceptual field models are holistic in the sense that the same approach can be used for all aspects of driving policy. It can also be divided into narrow driving functions used in ADAS such as ACC, AEB, LCA, etc. Finally, the complex nature of the perceptual field allows the model to be trained on atomic scenarios and still be able to adequately handle more complex scenarios.

잡음의 입력에 대한 견고성: 입력의 잠재적인 필터링과 조합하여 지각 필드의 시간 진화에 대한 물리적 제약은 국부화 및 운동학적 데이터의 순수 필터링과 비교하여 입력 데이터에서 잡음을 더 잘 처리할 수 있다.Robustness to noisy inputs: Physical constraints on the time evolution of the perceptual field in combination with potential filtering of the input can better handle noise in the input data compared to pure filtering of localization and kinematic data.

물리적 또는 가상 힘은 예를 들어 소위 동적 시스템을 포함하는 2차 상미분 방정식(ordinary differential equation)의 관점에서 수학적 공식화를 허용한다. 이와 같이 제어 정책을 나타내는 이점은 동적 시스템 이론의 직관에 민감하고 입력/출력의 예측, 탐색 및 필터링과 같은 외부 모듈을 통합하는 것이 간단하다는 것이다.Physical or virtual forces allow for mathematical formulation, for example in terms of second-order ordinary differential equations involving so-called dynamical systems. The advantage of representing the control policy in this way is that it is sensitive to the intuitions of dynamical systems theory and that it is simple to integrate external modules such as prediction, exploration and filtering of inputs/outputs.

지각 필드 접근법의 또 다른 이점은 임의의 특정 하드웨어에 의존하지 않고 기존 방법보다 계산적으로 더 비싸지 않다는 것이다.Another advantage of the perceptual field approach is that it does not rely on any specific hardware and is not computationally more expensive than existing methods.

훈련 프로세스training process

지각 필드를 학습하는 프로세스는 행동 복제(BC)와 강화 학습(RL)의 두 가지 유형 중 하나 또는 조합일 수 있다. BC는 관찰된 인간 상태-행동 쌍에 신경망을 피팅하여 제어 정책을 근사화하는 반면 RL은 전문가 데모(expert demonstration)를 참조하지 않고 시뮬레이션 환경에서 시행 착오를 통한 학습을 수반한다.The process of learning a perceptual field can be one or a combination of two types: behavioral replication (BC) and reinforcement learning (RL). BC approximates a control policy by fitting a neural network to observed human state-action pairs, whereas RL involves learning through trial and error in a simulated environment without reference to expert demonstration.

RL을 사용하여 미세 조정될 초기 정책으로 사용하기 위해 먼저 BC를 통해 정책을 학습함으로써 이들 두 클래스(class)의 학습 알고리즘을 결합할 수 있다. 두 가지 접근법을 결합하는 또 다른 방법은 인간에게 바람직한 행동을 구성하는 것이 무엇인지 추론하기 위해 행동 복제를 통해 소위 보상 함수(reward function)(RL에서 사용됨)를 먼저 학습하고, 나중에 일반 RL을 사용하여 시행 착오를 통해 훈련하는 것이다. 이러한 후자의 접근법은 역 RL(IRL)이라는 이름으로 사용된다.We can combine the learning algorithms of these two classes by first learning a policy through BC to use it as an initial policy to be fine-tuned using RL. Another way to combine the two approaches is to first learn a so-called reward function (used in RL) through behavioral replication to infer what constitutes desirable behavior for humans, and later use regular RL to Training is done through trial and error. This latter approach goes by the name of inverse RL (IRL).

도 2는 BC를 통한 학습을 위해 이용된 훈련 방법(200)의 일 실시예이다.Figure 2 is an example of a training method 200 used for learning through BC.

방법(200)은 시나리오를 처리하는 방법에 대한 전문가 데모(demonstration)로 간주되는 인간 데이터를 수집하는 단계 210에서 시작할 수 있다.Method 200 may begin at step 210 by collecting human data that is considered an expert demonstration of how to handle a scenario.

단계 210 다음에는 지각 필드 모델로부터 기인한 운동학적 변수와 인간 데모의 상응하는 운동학적 변수 사이의 차이를 구하는 손실 함수를 구성하는 단계(220)가 뒤따를 수 있다.Step 210 may be followed by step 220 of constructing a loss function that finds the difference between the kinematic variables resulting from the perceptual field model and the corresponding kinematic variables of the human demonstration.

단계 220 다음에는 경사 하강법(gradient descent)과 같은 일부 최적화 알고리즘에 의해 손실 함수를 최소화하기 위해 지각 필드 및 보조 함수(지각 필드와 다른 가상 물리적 모델 함수일 수 있음)의 파라미터를 업데이트하는 단계 230이 뒤따를 수 있다.Step 220 is followed by step 230 of updating the parameters of the perceptual field and the auxiliary function (which may be a cyber-physical model function different from the perceptual field) to minimize the loss function by some optimization algorithm such as gradient descent. You can.

도 3은 강화 학습을 위해 사용되는 훈련 방법 250의 일 실시예이다.Figure 3 is an example of a training method 250 used for reinforcement learning.

방법 250은 현실적인 시뮬레이션 환경을 구축하는 단계 260에서 시작할 수 있다.Method 250 may begin at step 260 of building a realistic simulation environment.

단계 260 다음에는 전문가 데모 또는 수동 설계를 통해 학습하여, 보상 함수를 구성하는 단계 270이 뒤따를 수 있다.Step 260 may be followed by step 270, where the reward function is constructed by learning from an expert demonstration or manual design.

단계 270 다음에는 시뮬레이션 환경에서 에피소드를 실행하는 단계 280이 뒤따를 수 있고 근접 정책 최적화와 같은 일부 알고리즘에 의해 예상 누적 보상을 최대화하기 위해 지각 필드 및 보조 함수의 파라미터를 계속 업데이트할 수 있다.Step 270 may be followed by step 280 of executing the episode in a simulation environment and continuing to update the parameters of the perceptual field and auxiliary function to maximize the expected cumulative reward by some algorithm such as proximity policy optimization.

도 4는 방법(400)의 일 실시예를 도시한다.Figure 4 shows one embodiment of method 400.

방법 400은 지각 필드 주행 관련 작동을 위한 것일 수 있다. Method 400 may be for perceptual field navigation related operations.

방법 400은 단계 410를 초기화함으로써 시작할 수 있다.Method 400 may begin by initializing step 410.

초기화 단계 410는 방법 400의 단계 440를 실행하도록 훈련된 NN 그룹을 수신하는 것을 포함할 수 있다.Initialization step 410 may include receiving a group of NNs trained to execute step 440 of method 400.

대안으로, 단계 410는 방법 400의 단계 440를 실행할 NN 그룹을 훈련시키는 것을 포함할 수 있다.Alternatively, step 410 may include training a group of NNs to perform step 440 of method 400.

NN 그룹을 훈련하는 다양한 실시예가 하기에 제공된다. Various embodiments of training NN groups are provided below.

● NN 그룹은 행동 복제(hehavioral cloning)를 사용하여 물체 정보를 하나 이상의 가상 힘에 맵핑(map)하도록 훈련될 수 있다.● A group of NNs can be trained to map object information to one or more virtual forces using behavioral cloning.

● NN 그룹은 강화 학습을 사용하여 물체 정보를 하나 이상의 가상 힘에 맵핑하도록 훈련될 수 있다.● A group of NNs can be trained to map object information to one or more virtual forces using reinforcement learning.

● NN 그룹은 강화 학습과 행동 복제의 조합을 사용하여 물체 정보를 하나 이상의 가상 힘에 맵핑하도록 훈련될 수 있다.● A group of NNs can be trained to map object information to one or more virtual forces using a combination of reinforcement learning and action replication.

● NN 그룹은 행동 복제를 사용하여 정의된 보상 함수를 갖는 강화 학습을 사용하여 물체 정보를 하나 이상의 가상 힘에 맵핑하도록 훈련될 수 있다.● A group of NNs can be trained to map object information to one or more virtual forces using reinforcement learning with a reward function defined using behavioral replication.

● NN 그룹은 행동 복제를 사용하여 정의된 초기 정책을 갖는 강화 학습을 사용하여 물체 정보를 하나 이상의 가상 힘에 맵핑하도록 훈련될 수 있다.● A group of NNs can be trained to map object information to one or more virtual forces using reinforcement learning with an initial policy defined using behavioral replication.

● NN 그룹은 물체 정보를 하나 이상의 가상 힘 및 지각 필드와 상이한 하나 이상의 가상 물리적 모델 함수에 맵핑하도록 훈련될 수 있다.● A group of NNs may be trained to map object information to one or more virtual force and perceptual fields and one or more different virtual physical model functions.

● NN 그룹은 제1 NN과 제2 NN을 포함할 수 있으며, 여기서 제1 NN은 물체 정보를 하나 이상의 지각 필드에 맵핑하도록 훈련되고 제2 NN은 물체 정보를 하나 이상의 가상 물리적 모델 함수로 맵핑하도록 훈련된다.● The NN group may include a first NN and a second NN, where the first NN is trained to map object information to one or more perceptual fields and the second NN is trained to map object information to one or more virtual physical model functions. trained.

초기화 단계 410는 차량의 환경 내에 위치된 하나 이상의 물체에 관한 물체 정보를 획득하는 단계 420로 이어질 수 있다. 단계 410은 여러 번 반복될 수 있으며 - 다음 단계도 여러 번 반복될 수 있다. 물체 정보는 비디오, 이미지, 오디오 또는 다른 감지된 정보를 포함할 수 있다.The initialization step 410 may lead to a step 420 of obtaining object information about one or more objects located within the vehicle's environment. Step 410 may be repeated multiple times - and the following steps may be repeated multiple times. Object information may include video, images, audio, or other sensed information.

단계 420 다음에는 하나 이상의 신경망(NN)을 사용하여, 차량에 적용되는 하나 이상의 가상 힘을 결정하는 단계 440이 뒤따를 수 있다.Step 420 may be followed by step 440, which determines one or more virtual forces applied to the vehicle, using one or more neural networks (NNs).

하나 이상의 NN은 전체 NN 그룹(초기화 단계 410으로부터)일 수 있거나 NN 그룹의 일부일 수 있으며 그룹의 하나 이상의 선택되지 않은 NN을 남긴다.One or more NNs may be an entire NN group (from initialization step 410) or may be part of a NN group, leaving one or more unselected NNs in the group.

하나 이상의 가상 힘은 차량의 동작에 대한 하나 이상의 물체의 하나 이상의 영향을 나타낸다. 그 영향은 미래의 영향일 수도 있고 현재의 영향일 수도 있다. 충격으로 인해 차량의 진행 상황이 변경될 수 있다.One or more virtual forces represent one or more influences of one or more objects on the motion of the vehicle. The impact may be a future impact or a present impact. Impacts can change the vehicle's progress.

하나 이상의 가상 힘은 가상 물리적 모델에 속한다. 가상 물리적 모델은 차량 및/또는 물체에 대한 물리적 규칙(예를 들어, 기계적 규칙, 전자기적 규칙, 광학적 규칙)을 가상으로 적용할 수 있는 가상 모델이다.One or more virtual forces belong to a virtual physical model. A virtual physical model is a virtual model that can virtually apply physical rules (eg, mechanical rules, electromagnetic rules, optical rules) for vehicles and/or objects.

단계 440은 다음 단계 중 적어도 하나를 포함할 수 있다:Step 440 may include at least one of the following steps:

● 차량에 가해지는 하나 이상의 가상 힘을 기준으로, 차량에 가해지는 총 가상 힘을 계산하는 단계.● Calculating the total virtual force acting on the vehicle, based on one or more virtual forces acting on the vehicle.

● 총 가상 힘에 의해 차량에 가해지는 총 가상 가속도를 기반으로 차량의 원하는 가상 가속도를 결정하는 단계. 원하는 가상 가속도는 총 가상 가속도와 같거나 다를 수 있다.● Determining the desired virtual acceleration of the vehicle based on the total virtual acceleration exerted on the vehicle by the total virtual force. The desired virtual acceleration may be the same as or different from the total virtual acceleration.

방법(400)은 또한 단계 431, 432, 433, 434, 435 및 436 중 적어도 하나를 포함할 수 있다.Method 400 may also include at least one of steps 431, 432, 433, 434, 435, and 436.

단계 431은 물체 정보에 기초하여, 차량의 상황을 결정하는 것을 포함할 수 있다.Step 431 may include determining the status of the vehicle based on the object information.

단계 431 다음에는 상황에 기초하여 하나 이상의 NN을 선택하는 단계 432가 뒤따를 수 있다.Step 431 may be followed by step 432, which selects one or more NNs based on the situation.

추가로 또는 대안으로, 단계 431 다음에는 하나 이상의 NN에 상황 메타데이터를 공급하는 단계 433가 뒤따를 수 있다.Additionally or alternatively, step 431 may be followed by step 433 of supplying context metadata to one or more NNs.

단계 434는 물체의 정보에 기초하여, 하나 이상의 물체 각각의 클래스(class)를 검출하는 것을 포함할 수 있다.Step 434 may include detecting the class of each of one or more objects based on the object information.

단계 434 다음에는 하나 이상의 물체 중 적어도 하나의 물체의 클래스에 기초하여 하나 이상의 NN을 선택하는 단계 435가 뒤따를 수 있다.Step 434 may be followed by step 435 of selecting one or more NNs based on the class of at least one of the one or more objects.

추가로 또는 대안으로, 단계 434 다음에 하나 이상의 NN를 하나 이상의 물체 중 적어도 하나의 물체의 클래스를 나타내는 클래스 메타데이터로 공급하는 단계 436가 뒤따를 수 있다.Additionally or alternatively, step 434 may be followed by step 436 of supplying one or more NNs with class metadata representing a class of at least one of the one or more objects.

단계 440 다음에는 하나 이상의 가상 힘에 기초하여 차량의 하나 이상의 주행 관련 작동을 수행하는 단계 450이 뒤따를 수 있다.Step 440 may be followed by step 450, which performs one or more driving-related operations of the vehicle based on one or more virtual forces.

단계 450은 인간 운전자 개입 없이 실행될 수 있고 차량의 속도 및/또는 가속도 및/또는 진행 방향을 변경하는 것을 포함할 수 있다. 이는 차량 및/또는 차량의 하나 이상의 주행 관련 유닛을 일시적으로 제어하는 것을 포함할 수 있는 자율 주행 또는 첨단 운전자 보조 시스템(ADAS)을 수행하는 것을 포함할 수 있다. 이는 인간 운전자의 개입 없이, 원하는 가상 가속도로 차량의 가속도를 설정하는 것이 포함될 수 있다.Step 450 may be executed without human driver intervention and may include changing the speed and/or acceleration and/or direction of travel of the vehicle. This may include performing autonomous driving or advanced driver assistance systems (ADAS), which may include temporarily controlling the vehicle and/or one or more drive-related units of the vehicle. This may include setting the vehicle's acceleration to a desired virtual acceleration, without human driver intervention.

단계 440는 차량의 가속도를 원하는 가상 가속도로 설정하도록 운전자에게 제안하는 것을 포함할 수 있다.Step 440 may include suggesting to the driver to set the acceleration of the vehicle to a desired virtual acceleration.

도 5는 차량의 일 실시예이다. 차량은 하나 이상의 감지 유닛(501), 하나 이상의 주행 관련 유닛(예컨대, 자율 주행 유닛, ADAS 유닛 등), 임의의 방법을 실행하도록 구성된 프로세서(560), 명령어 및/또는 방법 결과, 기능 등을 저장하기 위한 메모리 유닛(508) 및 통신 유닛(504)을 포함할 수 있다. 5 shows an embodiment of a vehicle. The vehicle includes one or more sensing units 501, one or more driving-related units (e.g., autonomous driving units, ADAS units, etc.), a processor 560 configured to execute any method, and storing instructions and/or method results, functions, etc. It may include a memory unit 508 and a communication unit 504 to do this.

도 6은 입력으로서 차선 샘플 포인트를 갖는 차선 센터링 RL에 대한 방법(600)의 실시예들을 도시한다. 차선 샘플 포인트는 차량의 환경 내에 위치된다.Figure 6 shows embodiments of a method 600 for suboptimal centering RL with suboptimal sample points as input. Lane sample points are located within the vehicle's environment.

RL은 에이전트(자아 차량)가 이의 학습된 정책(지각 필드)을 구현할 수 있는 입력 데이터를 생성한 시뮬레이션 환경을 가정한다.RL assumes a simulation environment in which an agent (self-vehicle) generates input data that can implement its learned policies (perceptual fields).

방법 600은 도로 샘플 포인트(XL,i,YL,i) 및 (XR,i,YR,i)의 가장 가까운 차선 또는 도로의 측면을 감지하는 단계 610에 의해 시작할 수 있으며, 여기서 L은 왼쪽이고 R은 오른쪽이며 인덱스 i는 샘플 포인트이다. 자아 차량(이전에는 차량이라고 함)의 속도는 Vego로 표시된다. Method 600 may begin by step 610 detecting the nearest lane or side of the road for road sample points (X L,i ,Y L,i ) and (X R,i ,Y R,i ), where L is the left, R is the right, and index i is the sample point. The speed of the ego vehicle (formerly called vehicle) is denoted by V ego .

단계 610 다음에는 왼쪽 차선 입력 벡터(XL,i,YL,i) 및 Vego를 XL에 집중시키고 오른쪽 차선 입력 벡터(XR,i,YR,i) 및 Vego를 XR에 집중시키는 단계 620가 뒤따를 수 있다.After step 610 , the left lane input vectors (X L,i , Y L,i ) and V ego are centered in A focusing step 620 may follow.

단계 620 다음에는 차선 지각 필드 fθ(XL) 및 fθ(XR)를 계산하는 단계 630이 뒤따를 수 있다. 이는 하나 이상의 NN에 의해 수행된다. Step 620 may be followed by step 630 that calculates the suboptimal perceptual fields f θ (X L ) and f θ (X R ). This is performed by one or more NNs.

단계 630 다음에 자아 차량에 적용된 자아 가속도를 기술하는 미분 방정식을 구성하는 단계 640가 뒤따를 수 있다: a = fθ(XL)+ fθ(XR).Step 630 may be followed by step 640 of constructing a differential equation describing the ego acceleration applied to the ego vehicle: a = f θ (X L ) + f θ (X R ).

이는 추론 프로세스의 출력일 수 있다. 단계 640 다음에 단계 450(미도시)이 뒤따를 수 있다.This may be the output of an inference process. Step 640 may be followed by step 450 (not shown).

방법은 하나 이상의 NN을 업데이트하는 것을 포함할 수 있다. 이러한 경우 RL은 전문가 데모를 기반으로 학습되거나 수작업으로 만들어진 보상 함수를 가정할 수 있다. 도 6의 실시예에서 보상 함수는 자아 차량이 이의 차선을 유지하는 모든 타임스탬프(timestamp)에 대해 증가될 수 있다.The method may include updating one or more NNs. In these cases, RL can assume a reward function that is learned based on expert demonstrations or created by hand. In the embodiment of Figure 6 the reward function may be incremented for every timestamp that the subject vehicle remains in its lane.

업데이트는 시뮬레이션 환경에서 구현하는 단계 670을 포함할 수 있으며 RL 학습 알고리즘은 획득 보상을 포함하여 다음 시간 단계에서 발생하는 것을 기록한다. The update may include step 670 of implementing in a simulation environment and the RL learning algorithm records what happens at the next time step, including the earned rewards.

단계 670은 평균 보상을 최대화하기 위해 네트워크 파라미터(θ)를 순차적으로 업데이트하기 위해 특정 RL 알고리즘(예를 들어, PPO, SAC, TTD3)을 사용하는 것을 포함할 수 있다.Step 670 may include using a particular RL algorithm (e.g., PPO, SAC, TTD3) to sequentially update the network parameter θ to maximize the average reward.

도 7은 시각적 입력을 갖는 다중 물체 RL에 대한 방법(700)을 도시한다.Figure 7 shows a method 700 for multi-object RL with visual input.

방법(700)의 단계 710는 개별 물체 Xrel,i에 대한 상대 거리인, 자아 관점(자아 차량에 의해 획득된 이미지)로부터 짧은 시간 윈도우에 걸쳐 파노라마적으로 분할된 이미지의 시퀀스를 수신하는 것을 포함할 수 있다.Step 710 of method 700 includes receiving a sequence of panoramicly segmented images over a short time window from the ego perspective (image acquired by the ego vehicle ), the relative distances to individual objects can do.

단계 710 다음에 개별 인스턴스(물체)에 시공간 CNN(spatio-temporal CNN)을 적용하여 높은 수준의 시공간 특징부(Xi)를 캡처하는 단계 720가 뒤따를 수 있다.Step 710 may be followed by step 720, which captures high-level spatio-temporal features (X i ) by applying a spatio-temporal CNN to individual instances (objects).

단계 720 다음에 개별 지각 필드 fθ(Xi,i) 및 합 Σfθ(Xrel,I,Xi,i)을 계산하는 단계 730가 뒤따를 수 있다.Step 720 may be followed by step 730 of calculating the individual perceptual fields f θ (X i ,i) and the sum Σf θ (X rel,I ,X i ,i).

단계 730는 자아 차량에 적용되는 자아 가속도를 기술하는 미분 방정식을 구성하는 단계 740가 뒤따를 수 있다: a = Σfθ(Xrel,I,Xi,i).Step 730 may be followed by step 740 of constructing a differential equation describing the ego acceleration applied to the ego vehicle: a = Σf θ (X rel,I ,X i ,i).

이는 추론 프로세스의 출력일 수 있다. 단계 740 다음에 단계 450(미도시)이 뒤따를 수 있다.This may be the output of an inference process. Step 740 may be followed by step 450 (not shown).

방법은 일부 RL 프로세스를 사용하여 하나 이상의 네트워크 파라미터(θ)를 업데이트하는 단계를 포함할 수 있다.The method may include updating one or more network parameters (θ) using some RL process.

방법은 시뮬레이션 환경에서 구현하는 단계 760을 포함할 수 있으며 RL 학습 알고리즘은 획득한 보상을 포함하여 다음 시간 단계에서 발생하는 것을 기록한다. The method may include step 760 of implementing in a simulation environment the RL learning algorithm recording what happens at the next time step, including the rewards obtained.

RL은 전문가 데모를 기반으로 학습되거나 수작업으로 만들어진 보상 함수를 가정할 수 있다.RL can assume reward functions that are learned based on expert demonstrations or created by hand.

단계 760 다음에는 PPO, SAC, TTD3와 같은 특정 RL 알고리즘을 사용하여 평균 보상을 최대화하기 위해 네트워크 파라미터(θ)를 순차적으로 업데이트하는 단계 770이 뒤따를 수 있다.Step 760 may be followed by step 770, which sequentially updates the network parameters θ to maximize the average reward using a specific RL algorithm such as PPO, SAC, or TTD3.

도 8은 운동학적 입력을 갖는 다중 물체 BC에 대한 방법(800)을 도시한다.Figure 8 shows a method 800 for multi-object BC with kinematic input.

방법(800)의 단계 810는 검출된 물체 상대 운동학(Xrel,i,Vrel,i)의 목록을 수신하는 것을 포함할 수 있으며, 여기서 Xrel,i는 자아 차량과 관련하여 검출된 물체 i의 상대적 위치이고 Vrel,i는 자아 차량과 관련하여 검출된 물체 i의 상대 속도이다. 또한 자아 차량 속도 Vego를 수신한다.Step 810 of method 800 may include receiving a list of detected object relative kinematics (X rel,i ,V rel,i ), where X rel,i is the detected object i relative to the ego vehicle. is the relative position of and V rel,i is the relative velocity of the detected object i with respect to the host vehicle. It also receives ego vehicle speed V ego .

단계 810 다음에 각각의 물체에 대해 지각 필드 fθ(Xrel,i,Vrel,i,Vego,i)를 계산하는 단계 820가 뒤따를 수 있다.Step 810 may be followed by step 820 of calculating the perceptual field f θ (X rel,i ,V rel,i ,V ego ,i) for each object.

단계 820 다음에 개별 지각 필드로부터 기여도(contribution)를 합산하는 단계 830가 뒤따를 수 있다. 단계 830는 또한 결과적인 2d 벡터의 크기가 개별 항의 최고 크기와 동일하도록 정규화하는 것을 포함할 수 있다: N*Σfθ(Xrel,i,Vrel,i,Vego,i).Step 820 may be followed by step 830, which sums contributions from individual perceptual fields. Step 830 may also include normalizing the magnitude of the resulting 2d vector so that it is equal to the highest magnitude of the individual terms: N*Σf θ (X rel,i ,V rel,i ,V ego ,i).

단계 830 다음에 자아 차량에 적용되는 자아 가속도를 기술하는 미분 방정식을 구성하는 단계 840가 뒤따를 수 있다: a = N*Σfθ(Xrel,i,Vrel,i,Vego,i).Step 830 may be followed by step 840 of constructing a differential equation describing the ego acceleration applied to the ego vehicle: a = N*Σf θ (X rel,i ,V rel,i ,V ego ,i).

이는 추론 프로세스의 결과일 수 있다. 단계 840 다음에 단계 450(미도시)이 뒤따를 수 있다.This may be the result of an inference process. Step 840 may be followed by step 450 (not shown).

방법은 하나 이상의 네트워크 파라미터를 업데이트하는 것을 포함할 수 있다.The method may include updating one or more network parameters.

방법은 초기 조건 (t;x0,v0)이 제공되면 자아 궤적을 계산하는 단계 860을 포함할 수 있다.The method initial conditions If (t;x 0 ,v 0 ) is provided, a step 860 of calculating the ego trajectory may be included.

단계 860 다음에 손실 함수 = Σ((t;x0,v0))-x(t;x0,v0))2를 계산하는 단계 870가 뒤따를 수 있다. 이에 따라 손실을 전파한다.Following step 860, loss function = Σ( Step 870 may follow to calculate (t;x 0 ,v 0 ))-x(t;x 0 ,v 0 )) 2 . This propagates the loss accordingly.

도 9는 운동학적 변수를 입력으로 하여 구현되는 적응형 순항 제어 모델에 대한 손실 함수를 추가한 추론의 방법(900)을 도시한다.Figure 9 shows an inference method 900 that adds a loss function to an adaptive cruise control model implemented with kinematic variables as input.

방법(900)의 단계 910은 자아 차량의 위치(Xego), 자아 차량의 속도(Vego), 자아 차량 앞의 가장 가까운 차량의 위치(XCIPV) 및 자아 차량 앞의 가장 가까운 차량의 속도(VdCIPV)를 수신하는 것을 포함할 수 있다. Step 910 of method 900 determines the position of the ego vehicle ( X ego ), the velocity of the ego vehicle (V ego ), the position of the nearest vehicle in front of the ego vehicle ( It may include receiving Vd CIPV ).

단계 910 다음에 상대 위치 Xrel = Xego - XCIPV 및 상대 속도 Vrel = Vego - VCIPV를 계산하는 단계 920가 뒤따를 수 있다.Step 910 may be followed by step 920 of calculating the relative position X rel = X ego - X CIPV and the relative velocity V rel = V ego - V CIPV .

단계 920 하기의 단계 930가 뒤따를 수 있다:Step 920 may be followed by step 930:

● 제1 NN에 의해, 지각 필드 함수 gθ(Xrel,VCIPV)를 계산하는 단계.● Calculating, by the first NN, the perceptual field function g θ (X rel ,V CIPV ).

● 제2 NN에 의해, 보조 함수 hø(Vrel)를 계산하는 단계.● Calculating the auxiliary function h ø (V rel ) by the second NN.

● gθ(Xrel,VCIPV)에 hø(Vrel)을 곱하여 목표 가속도(목표 힘과 같음)를 제공하는 단계.● Multiplying g θ (X rel ,V CIPV ) by h ø (V rel ) to give the target acceleration (equal to the target force).

이는 추론 프로세스의 출력일 수 있다. 단계 930 다음에 단계 450(미도시)가 뒤따를 수 있다.This may be the output of an inference process. Step 930 may be followed by step 450 (not shown).

방법은 하나 이상의 NN 파라미터를 업데이트하는 것을 포함할 수 있다.The method may include updating one or more NN parameters.

방법은 초기 조건 (t;x0,v0)이 제공되면 자아 궤적을 계산하는 단계 960을 포함할 수 있다.The method initial conditions If (t;x 0 ,v 0 ) is provided, a step 960 of calculating the ego trajectory may be included.

단계 960 다음에 손실 함수 = Σ((t;x0,v0))-x(t;x0,v0))2를 계산하는 단계 970가 뒤따를 수 있다. 이에 따라 손실을 전파한다.Following step 960, loss function = Σ( Step 970 may follow to calculate (t;x 0 ,v 0 ))-x(t;x 0 ,v 0 )) 2 . This propagates the loss accordingly.

차량의 원하는 경로를 고려Consider the vehicle's desired route

차량은 목적지에 도달하기 위해 주행 세션을 수행할 수 있다.The vehicle may perform driving sessions to reach the destination.

제공된 순간에서, 차량은 목적지에 도달하는 경로의 세그먼트에 위치될 수 있다. 이러한 세그먼트를 로컬 세그먼트라고 한다. 경로의 다른 세그먼트는 로컬 세그먼트보다 더 멀리 있을 수 있다.At any given moment, the vehicle may be positioned on a segment of the route to reach the destination. These segments are called local segments. Other segments of the path may be further away than the local segment.

로컬 세그먼트는 차량이 위치된 도로의 세그먼트를 포함할 수 있거나, 또는 하나 이상의 도로의 단일 세그먼트 이상을 포함할 수 있다. 도로의 세그먼트는 예를 들어 2-500미터 또는 그 이상일 수 있는 임의의 길이일 수 있다. 도로의 세그먼트는 목적지까지의 경로를 기반으로 정의될 수 있다. 예를 들어 세그먼트는 다른 도로로 진행하는데 필요한 경로가 끝나면 종료될 수 있다.A local segment may include a segment of a road on which the vehicle is located, or may include more than a single segment of one or more roads. Segments of a road can be of any length, for example 2-500 meters or longer. Segments of a road can be defined based on the route to the destination. For example, a segment may end when the route required to proceed to another road has ended.

제공된 순간에 차량은 대략적인 내비게이션 정보를 알고 있다. 대략적인 내비게이션 정보는 적어도 경로의 로컬 세그먼트의 표시를 설명하거나 제공할 수 있다.At the given moment, the vehicle knows approximate navigation information. Rough navigation information may describe or provide at least an indication of a local segment of the route.

대략적인 내비게이션 정보는 로컬 세그먼트 내에서 차량의 정확한 진행을 정의하지 않는다는 점에서 대략적이다. 로컬 세그먼트 내에서 차량의 정확한 진행은 미세 조정되어야 한다.Coarse navigation information is approximate in the sense that it does not define the exact progression of the vehicle within a local segment. The exact progression of a vehicle within a local segment must be fine-tuned.

예를 들어 대략적인 내비게이션 정보는 도로 세그먼트를 정의할 수 있지만 진행할 차선, 차선 변경 시기 등을 정의하지는 않는다. 또 다른 예로 대략적인 내비게이션 정보는 도로 차선을 정의할 수 있지만, 차선 내에서 운전하는 방법을 정의하지 않는다.For example, rough navigation information may define road segments, but it does not define which lane to proceed in, when to change lanes, etc. As another example, rough navigation information may define road lanes, but does not define how to drive within those lanes.

미세 조정은 대략적인 내비게이션 정보에 기반하고 차량의 환경 또는 차량의 동작에 영향을 미칠 수 있는 하나 이상의 물체 내에서, 존재에 기반할 수 있다.Fine-tuning may be based on coarse navigation information and may be based on the presence within the vehicle's environment or one or more objects that may affect the vehicle's behavior.

도 10은 대략적인 내비게이션 정보를 기반으로 미세 조정이 실행되는 일 실시예를 나타낸다.Figure 10 shows an embodiment in which fine adjustment is performed based on rough navigation information.

도 10은 가상 필드 주행 관련 작동을 위한 방법(1000)의 일 실시예를 도시한다.10 illustrates one embodiment of a method 1000 for virtual field driving related operations.

방법(1000)은 처리 회로에 의해 실행되는 컴퓨터화된 방법이다.Method 1000 is a computerized method executed by processing circuitry.

일 실시 형태에 따르면, 방법(1000)은 차량의 목적지까지의 차량 경로의 적어도 세그먼트에 관한 대략적인 내비게이션 정보를 획득하는 단계 1010에 의해 시작된다.According to one embodiment, method 1000 begins with step 1010 of obtaining approximate navigation information regarding at least a segment of the vehicle's route to the vehicle's destination.

단계 1010은 대략적인 내비게이션 정보를 수신하는 것, 대략적인 내비게이션 정보를 생성하는 것, 대략적인 내비게이션 정보의 처리에 참여하는 것, 대략적인 내비게이션 정보의 일부만을 처리하는 것 및/또는 대략적인 내비게이션 정보의 다른 부분만을 수신하는 것을 포함할 수 있다.Step 1010 may include receiving coarse navigation information, generating coarse navigation information, participating in processing of coarse navigation information, processing only a portion of coarse navigation information, and/or processing coarse navigation information. It may involve receiving only other parts.

대략적인 내비게이션 정보는 GOOGLE MAPSTM, WAZETM와 같은 내비게이션 애플리케이션에 의해, 운전자 장치에 의해 실행되는 내비게이션 애플리케이션에 의해, 차량 장치(예컨대 멀티미디어 시스템)에 의해 제공될 수 있고, 차량의 외부에 위치된 컴퓨터화된 시스템 등으로부터 통신될 수 있다. Approximate navigation information may be provided by a vehicle device (such as a multimedia system), by a navigation application such as GOOGLE MAPS , WAZE , a navigation application run by the driver device, or by a computer located outside the vehicle. It can be communicated from a localized system, etc.

단계 1010 다음에 처리 회로를 사용하고 대략적인 내비게이션 정보에 기초하여 하나 이상의 가상 힘을 결정하는 단계 1020가 이어진다.Step 1010 is followed by step 1020, which uses processing circuitry and determines one or more virtual forces based on approximate navigation information.

일 실시 형태에 따르면, 단계 1020는 대략적 내비게이션 정보를 나타내는 하나 이상의 가상 필드를 결정하는 단계 1020-1를 포함한다. 단계 1020-1 다음에 하나 이상의 가상 필드에 기초하여 하나 이상의 가상 힘을 결정하는 단계 1020-2(단계 1020)가 뒤따를 수 있다.According to one embodiment, step 1020 includes step 1020-1 of determining one or more virtual fields representing coarse navigation information. Step 1020-1 may be followed by step 1020-2 (step 1020), which determines one or more virtual forces based on one or more virtual fields.

하나 이상의 가상 힘은 차량의 주행 관련 작동을 적용하는데 사용하기 위한 것이며, 하나 이상의 가상 힘은 가상 물리학적 모델에 속하고 대략적인 내비게이션 정보를 적어도 부분적으로 나타낸다. The one or more virtual forces are for use in applying driving-related operations of the vehicle, and the one or more virtual forces belong to a cyber-physical model and at least partially represent approximate navigation information.

일 실시 형태에 따르면, 대략적인 내비게이션 정보는 하나 이상의 가상 필드로 나타내고 가상 물리학적 모델은 하나 이상의 가상 필드와 하나 이상의 가상 힘 사이의 맵핑(mapping)을 제공할 수 있다.According to one embodiment, coarse navigation information may be represented by one or more virtual fields and a cyberphysical model may provide a mapping between one or more virtual fields and one or more virtual forces.

일 실시 형태에 따르면, 가상 물리적 모델은 하나 이상의 가상 필드를 정의할 수도 있다.According to one embodiment, a cyber-physical model may define one or more virtual fields.

일 실시 형태에 따르면, 하나 이상의 가상 힘의 결정은 차량의 위치에 응답한다.According to one embodiment, the determination of one or more virtual forces is responsive to the position of the vehicle.

일 실시 형태에 따르면, 하나 이상의 가상 힘의 결정은 차량의 움직임 정보에 응답한다.According to one embodiment, the determination of one or more virtual forces is responsive to movement information of the vehicle.

단계 1020은 도 4의 단계 440 동안 적용된 것과 동일한 계산을 적용할 수 있으며, 물체 정보에 대한 계산을 적용하는 것 대신 대략적인 내비게이션 정보에 대한 계산을 적용할 수 있다.Step 1020 may apply the same calculations as applied during step 440 of FIG. 4, and may apply calculations to approximate navigation information instead of applying calculations to object information.

단계 1020은 도 4의 단계 440 동안 적용된 계산과 사이한 계산을 적용할 수 있다.Step 1020 may apply calculations similar to those applied during step 440 of FIG. 4 .

일 실시 형태에 따르면, 단계 1020은 차량의 위치에 대한 대략적인 내비게이션 정보를 분석하는 것을 포함한다. 이는 로컬 세그먼트 발견하는 것을 포함할 수 있다.According to one embodiment, step 1020 includes analyzing approximate navigation information for the vehicle's location. This may include discovering local segments.

대략적 내비게이션 정보에 기초하여 결정된 하나 이상의 위치를 갖는 하나 이상의 가상 필드 소스로부터 하나 이상의 가상 필드가 가상으로 생성될 수 있다. 예를 들어, 가상 필드 소스는 경로의 로컬 세그먼트에 위치될 수 있다. 예를 들어, 대략적인 내비게이션 정보가 차량이 지나갈 도로에서의 세그먼트를 정의했다고 가정하면, 가상 필드 소스는 해당 도로 세그먼트에 위치되거나 차량에 근접할 수 있다. 근접성(예를 들어 차량에서 2-100미터 사이) 또는 차량에서 더 먼 거리이다. 추가로 또는 대안으로 근접성은 경로가 서로 가까운 다수의 경로 변경을 포함하는지 여부, 차량이 도시 환경 내에 위치하는지 여부, 차량이 서로 근접한 교차로의 배열 내에 위치하는지 여부, 차량이 드문 교차로가 있는 도로를 따라 주행하는지 여부(예를 들어, 각각의 교차로가 5-10 km 이상)를 차량의 경로에 의해 정의될 수 있다.One or more virtual fields may be virtually created from one or more virtual field sources having one or more locations determined based on coarse navigation information. For example, a virtual field source may be located in a local segment of the path. For example, assuming that the approximate navigation information defines a segment in the road over which the vehicle will pass, the virtual field source may be located on that road segment or close to the vehicle. Proximity (e.g. between 2 and 100 meters from the vehicle) or greater distance from the vehicle. Additionally or alternatively, proximity refers to whether a route involves multiple route changes close to each other, whether the vehicle is located within an urban environment, whether the vehicle is located within an array of intersections in close proximity to one another, along a road with intersections where vehicles are sparse. Whether or not the vehicle is driven (for example, each intersection is 5-10 km or more) may be defined by the vehicle's route.

하나 이상의 가상 필드는 어트랙티브 가상 필드(attractive virtual field)를 포함할 수 있다. 어트랙티브 가상 필드는 차량이 목적지를 향해 진행하도록 유도할 수 있다.One or more virtual fields may include attractive virtual fields. An attractive virtual field can guide a vehicle to proceed toward a destination.

하나 이상의 가상 필드는 레펠링 가상 필드(repelling virtual field)를 포함할 수 있다.One or more virtual fields may include repelling virtual fields.

일 실시 형태에 따르면, 대략적인 내비게이션 정보는 또한 경로를 따라 적용될 하나 이상의 교통 규칙에 대한 정보, 예를 들어 최대 허용 속도를 포함할 수 있다. 이러한 경우 하나 이상의 가상 필드는 하나 이상의 트래픽 규칙에 응답할 수 있다. 예를 들어 최대 허용 속도를 고려하여 정의될 수 있다. 예를 들어, 가상 필드의 크기는 가상 필드를 나타내는 가상 힘(단계 1030 동안 계산됨)이 차량이 최대 허용 속도를 초과하는 속도로 전파하는 것을 방지하도록 정의될 수 있다. 최대 속도 제한 또는 임의의 다른 교통 규칙 제한은 전용 가상 힘 및/또는 전용 가상 필드로 나타낼 수 있다. 최대 규칙 제한은 원하는 가상 가속도를 제공하기 위해 원하는 가상 가속도(단계 1030 동안 계산됨)를 변경함으로써 시행될 수 있으며, 이는 차량이 최대 규칙 제한을 초과하지 않도록 한다. 충돌이 임박한 상황과 같은 긴급 상황에서는 변경이 생략될 수 있다.According to one embodiment, the approximate navigation information may also include information about one or more traffic rules to be applied along the route, for example a maximum permitted speed. In these cases, one or more virtual fields may respond to one or more traffic rules. For example, it can be defined taking into account the maximum allowable speed. For example, the size of the virtual field may be defined such that the virtual force representing the virtual field (calculated during step 1030) prevents the vehicle from propagating at a speed that exceeds the maximum allowable speed. Maximum speed limits or any other traffic rule restrictions may be represented by dedicated virtual forces and/or dedicated virtual fields. The maximum rule limit can be enforced by changing the desired virtual acceleration (calculated during step 1030) to provide the desired virtual acceleration, which prevents the vehicle from exceeding the maximum rule limit. In emergency situations, such as when a collision is imminent, changes may be omitted.

일 실시 형태에 따르면, 단계 1020 다음에는 하나 이상의 가상 힘에 기초하여, 차량의 원하는(또는 목표) 가상 가속도, 예를 들어 뉴턴의 제2 법칙의 등가물에 기초하여 결정하는 단계 1030가 이어진다. 원하는 가상 가속도는 벡터일 수 있고, 그렇지 않으면 방향을 가질 수 있다.According to one embodiment, step 1020 is followed by step 1030, which determines, based on one or more virtual forces, a desired (or target) virtual acceleration of the vehicle, for example based on the equivalent of Newton's second law. The desired virtual acceleration may be vector or otherwise have a direction.

하나 이상의 가상 힘이 결합되어 차량에 가상으로 적용되는 전체 가상 힘을 제공할 수 있다. 전체 가상 힘은 전체 가상 가속도를 가진다.One or more virtual forces may be combined to provide an overall virtual force virtually applied to the vehicle. The total virtual force has the total virtual acceleration.

일 실시 형태에 따르면 - 원하는 가상 가속도는 전체 가상 가속도와 동일한 크기를 가질 수 있지만 - 반대 방향으로 향할 수 있다.According to one embodiment - the desired virtual acceleration may have the same magnitude as the overall virtual acceleration - but may be directed in the opposite direction.

일 실시 형태에 따르면, 원하는 가상 가속도는 전체 가상 가속도의 크기와 다른 크기를 가질 수 있다.According to one embodiment, the desired virtual acceleration may have a size different from the size of the overall virtual acceleration.

일 실시 형태에 따르면 - 원하는 가상 가속도는 전체 가상 가속도의 방향과 반대가 아닌 방향을 가질 수 있다.According to one embodiment - the desired virtual acceleration may have a direction other than the direction of the overall virtual acceleration.

일 실시 형태에 따르면 - 원하는 가상 가속도는 특정 기간(예를 들어 1-10초 사이, 2-20초 사이, 2-60초 사이, 최대 2-5분 또는 그 이상) 동안 유효할 수 있다. According to one embodiment - the desired virtual acceleration may be valid for a certain period of time (e.g. between 1-10 seconds, between 2-20 seconds, between 2-60 seconds, up to 2-5 minutes or longer).

일 실시 형태에 따르면, 차량 경로의 미세 조정은 원하는 가상 가속도의 다중 결정을 수행할 것을 필요로 한다.According to one embodiment, fine tuning of the vehicle path requires performing multiple determinations of desired virtual accelerations.

일 실시 형태에 따르면, 단계 1030 다음에 원하는 가상 가속도에 응답하는 단계 1040가 뒤따른다.According to one embodiment, step 1030 is followed by step 1040 in response to the desired virtual acceleration.

단계 1040은 하기 중 적어도 하나를 포함할 수 있다:Step 1040 may include at least one of the following:

● 원하는 가상 가속도에 따라 차량이 전파되도록 하는 하나 이상의 차량 주행 작동의 계산을 트리거링.● Triggering the calculation of one or more vehicle driving operations that cause the vehicle to propagate according to the desired virtual acceleration.

● 원하는 가상 가속도에 따라 차량이 전파되도록 하는 하나 이상의 차량 주행 작동의 실행을 트리거링.● Triggering the execution of one or more vehicle driving operations that cause the vehicle to propagate according to the desired virtual acceleration.

● 원하는 가상 가속도에 따라 차량이 전파되도록 하는 하나 이상의 차량 주행 작동의 계산.● Computation of one or more vehicle driving operations that cause the vehicle to propagate according to the desired virtual acceleration.

● 원하는 가상 가속도에 따라 차량이 전파되도록 하는 하나 이상의 차량 주행 작동의 실행.● Execution of one or more vehicle driving operations that cause the vehicle to propagate according to the desired virtual acceleration.

● (i) 하나 이상의 가상 필드, (ii) 하나 이상의 가상 힘, 또는 (iii) 원하는 가속도 중 적어도 하나를 표시하기 위한 사용자 그래픽 인터페이스의 생성을 트리거링.● Triggering the creation of a user graphical interface for displaying at least one of (i) one or more virtual fields, (ii) one or more virtual forces, or (iii) desired accelerations.

● (i) 하나 이상의 가상 필드, (ii) 하나 이상의 가상 힘, 또는 (iii) 원하는 가속도 중 적어도 하나를 표시하기 위한 사용자 그래픽 인터페이스의 생성.● Creation of a user graphical interface for displaying at least one of (i) one or more virtual fields, (ii) one or more virtual forces, or (iii) desired accelerations.

● 사용자 그래픽 인터페이스에 의해, (i) 하나 이상의 가상 필드, (ii) 하나 이상의 가상 힘, 또는 (iii) 원하는 가속도 중 적어도 하나의 표시.● By a user graphical interface, a display of at least one of (i) one or more virtual fields, (ii) one or more virtual forces, or (iii) a desired acceleration.

예를 들어, 단계 1040는 가스 페달 움직임, 브레이크 페달 움직임 및/또는 스티어링 휠 각도를 사용하여 원하는 가속도를 차량의 가속 또는 감속으로 또는 차량의 진행 방향 변경으로 변환하는 것을 포함할 수 있다.For example, step 1040 may include converting the desired acceleration into acceleration or deceleration of the vehicle or a change in direction of travel of the vehicle using gas pedal movement, brake pedal movement, and/or steering wheel angle.

단계 1020, 1030 및 1040는 동일한 처리 회로에 의해 실행될 수 있다. 대안으로 단계 1020, 1030 및 1040 중 둘 이상의 단계는 상이한 처리 회로에 의해 실행될 수 있다. 예를 들어 단계 1020은 제1 처리 회로에 의해 실행되고, 단계 1030은 제1 처리 회로와 다른 제2 처리 회로에 의해 실행되며, 단계 1040은 제1 및 제2 처리 회로와 각각 다른 제3 처리 회로에 의해 실행된다. 또 다른 실시예에서 단계 1020, 1030 및 1040 중 두 단계는 동일한 처리 회로에 의해 실행되고 단계 1020, 1030 및 1040 중 다른 단계는 다른 처리 회로에 의해 실행된다.Steps 1020, 1030, and 1040 may be executed by the same processing circuitry. Alternatively, two or more of steps 1020, 1030, and 1040 may be executed by different processing circuitry. For example, step 1020 is executed by a first processing circuit, step 1030 is executed by a second processing circuit different from the first processing circuit, and step 1040 is executed by a third processing circuit different from the first and second processing circuits, respectively. It is executed by. In another embodiment, two of steps 1020, 1030, and 1040 are executed by the same processing circuitry and other steps of steps 1020, 1030, and 1040 are executed by different processing circuitry.

도 11은 가상 필드 주행 관련 작동을 위한 방법(1001)의 일 실시예를 도시한다.11 illustrates one embodiment of a method 1001 for virtual field driving related operations.

방법 1001은 처리 회로에 의해 실행되는 컴퓨터화된 방법이다.Method 1001 is a computerized method implemented by processing circuitry.

방법 1001은 단계 1020, 1030 및 1040을 포함한다.Method 1001 includes steps 1020, 1030, and 1040.

방법 1001은 단계 1025를 더 포함한다는 점에서 도 10의 방법 1000과 다르다.Method 1001 differs from method 1000 of FIG. 10 in that it further includes step 1025.

단계 1025는 단계 1020을 뒤따르고 하나 이상의 가상 필드를 표시하기 위한 사용자 그래픽 인터페이스의 생성에 적어도 부분적으로 참여하는 것을 포함한다. 단계 1025는 사용자 그래픽 인터페이스의 생성을 트리거하는 것, 사용자 그래픽 인터페이스를 생성하는 것, 사용자 그래픽 인터페이스를 제공하는데 필요한 단계들 중 일부를 수행하는 것(예를 들어, 일단 실행되면 사용자 그래픽 인터페이스의 표시를 유발하는 명령어 중 일부를 결정하는 것)을 포함할 수 있다.Step 1025 follows step 1020 and includes at least in part the creation of a user graphical interface for displaying one or more virtual fields. Step 1025 includes triggering the creation of a user graphical interface, creating a user graphical interface, and performing some of the steps necessary to provide the user graphical interface (e.g., displaying the user graphical interface once executed). may include determining some of the commands that trigger it.

도 12는 가상 필드 주행 관련 작동을 위한 방법(1002)의 일 실시예를 도시한다.12 illustrates one embodiment of a method 1002 for virtual field driving related operations.

도 12의 방법(1002)은 차량의 환경 내에 위치된 하나 이상의 물체에 관한 물체 정보를 고려한다는 점에서 도 10의 방법(1000)과 다르다.Method 1002 of FIG. 12 differs from method 1000 of FIG. 10 in that it considers object information regarding one or more objects located within the vehicle's environment.

일 실시 형태에 따르면, 방법 1002은 차량의 목적지까지의 차량 경로의 적어도 세그먼트에 관한 대략적인 내비게이션 정보를 획득하는 단계 1010를 포함한다.According to one embodiment, method 1002 includes step 1010 of obtaining coarse navigation information regarding at least a segment of the vehicle's route to the vehicle's destination.

일 실시 형태에 따르면, 방법 1002은 차량의 환경 내에 위치된 하나 이상의 물체에 관한 물체 정보를 획득하는 단계 1012를 포함한다.According to one embodiment, method 1002 includes step 1012 of obtaining object information regarding one or more objects located within the environment of the vehicle.

단계 1010 및 단계 1012는 처리 회로를 사용하고 대략적인 내비게이션 정보에 기초하며 물체 정보에 기초하여 하나 이상의 가상 힘을 결정하는 단계 1022로 이어진다. 하나 이상의 가상 힘은 대략적인 내비게이션 정보와 물체 정보를 나타낸다. Steps 1010 and 1012 lead to step 1022, which uses processing circuitry and determines one or more virtual forces based on coarse navigation information and based on object information. One or more virtual forces represent coarse navigation information and object information.

일 실시 형태에 따르면, 단계 1022는 대략적인 내비게이션 정보 및 물체 정보를 나타내는 하나 이상의 가상 필드를 결정하는 단계 1022-1를 포함한다. 단계 1022-1 다음에 하나 이상의 가상 필드에 기초하고 물체 정보에 기초하여 하나 이상의 가상 힘을 결정하는 단계 1022-2(단계 1022)가 뒤따를 수 있다.According to one embodiment, step 1022 includes step 1022-1 of determining one or more virtual fields representing coarse navigation information and object information. Step 1022-1 may be followed by step 1022-2 (step 1022), which determines one or more virtual forces based on one or more virtual fields and based on object information.

단계 1022는 또한 차량과 관련된 위치 정보 및/또는 차량과 관련된 움직임 정보에 기초할 수 있다.Step 1022 may also be based on location information associated with the vehicle and/or movement information associated with the vehicle.

일 실시 형태에 따르면, 단계 1022 다음에 하나 이상의 가상 힘에 기초하여, 차량의 원하는(또는 목표) 가상 가속도를 결정하는 단계 1030가 이어진다.According to one embodiment, step 1022 is followed by step 1030, which determines a desired (or target) virtual acceleration of the vehicle, based on one or more virtual forces.

하나 이상의 가상 힘은 대략적인 내비게이션 정보와 차량의 동작에 대한 물체 정보의 영향을 나타낸다. One or more virtual forces represent the influence of coarse navigation information and object information on the vehicle's behavior.

가상 힘은 물체 정보 및 대략적인 내비게이션 정보에 기초하여 결정될 수 있다.The virtual force may be determined based on object information and approximate navigation information.

가상 힘은 물체 정보에 기초하지 않고 대략적인 내비게이션 정보에 기초하여 결정될 수 있다.The virtual force may be determined based on approximate navigation information rather than based on object information.

가상 힘은 물체 정보가 아닌 대략적인 내비게이션 정보를 기반으로 결정될 수 있다. The virtual force may be determined based on approximate navigation information rather than object information.

일 실시 형태에 따르면, 단계 1030 다음에 원하는 가상 가속도에 응답하는 단계 1040가 뒤따른다.According to one embodiment, step 1030 is followed by step 1040 in response to the desired virtual acceleration.

도 13은 장면의 일 실시예를 도시한다. Figure 13 shows one example of a scene.

도 13은 제1 도로(1011)의 세그먼트(1011-1) 내에 위치된 차량(1031)의 일 실시예를 도시한다. 대략적인 내비게이션 정보는 제1 도로(1011)를 통과한 후 제2 도로(1102)로 진행하는 점선(1111)으로 표시된다.13 shows one embodiment of a vehicle 1031 located within segment 1011-1 of a first roadway 1011. Approximate navigation information is displayed as a dotted line 1111 passing the first road 1011 and then proceeding to the second road 1102.

대략적인 내비게이션 정보를 나타내는 가상 필드 소스(1201)는 점선(1101)과 관련된 경로를 따라 진행하도록 차량(1031)을 끌어들이는 가상 필드(가상 등전위 필드 라인(1021')에 의해 도시됨)를 생성한다. A virtual field source 1201 representing approximate navigation information generates a virtual field (illustrated by virtual equipotential field lines 1021') that attracts the vehicle 1031 to proceed along a path associated with the dashed line 1101. do.

도 13은 또한 차량(1031)이 따라야 하는 원하는 가상 가속도(1041)를 도시한다.Figure 13 also shows the desired virtual acceleration 1041 that the vehicle 1031 should follow.

도 14는 제1 도로의 세그먼트(1011-1) 내에 위치하는 차량(1031)의 일 실시예를 도시한다. 대략적인 내비게이션 정보는 제1 도로(1011)를 통과하는 점선(1111)으로 표시된다.Figure 14 shows one embodiment of a vehicle 1031 located within a segment 1011-1 of a first roadway. Approximate navigation information is displayed as a dotted line 1111 passing through the first road 1011.

대략적인 내비게이션 정보를 나타내는 제1 가상 필드 소스(1201)는 차량(1031)을 밀어내고 차량(1031)이 점선(1101)과 관련된 경로를 따라 진행하게 하는 가상 필드(가상 등전위 필드 라인(1021')으로 도시됨)를 생성한다.A first virtual field source 1201 representing approximate navigation information is a virtual field (virtual equipotential field line 1021') that pushes the vehicle 1031 and causes the vehicle 1031 to proceed along a path associated with the dashed line 1101. (shown as) is generated.

도 14는 또한 차량(1301) 앞에서 세그먼트를 건너기 시작하는 보행자(1022)를 도시한다. 보행자는 차량(1031)을 밀어내는 제2 가상 필드(가상 등전위 필드 라인(1022')에 의해 도시됨)에 의해 표현된다.Figure 14 also shows a pedestrian 1022 starting to cross the segment in front of a vehicle 1301. The pedestrian is represented by a second virtual field (illustrated by virtual equipotential field line 1022') pushing the vehicle 1031.

도 14는 또한 차량(1031)이 따라야 하는 원하는 가상 가속도(1041)를 도시한다.Figure 14 also shows the desired virtual acceleration 1041 that the vehicle 1031 should follow.

차량에 가상으로 적용되는 전체 가상 힘을 계산할 때 제1 및 제2 가상 필드가 고려된다. 차량(1031)의 원하는 가상 가속도(1041)는 전체 가상 힘을 고려한다.The first and second virtual fields are taken into account when calculating the total virtual force virtually applied to the vehicle. The desired virtual acceleration 1041 of vehicle 1031 takes into account the total virtual force.

차량(1031)의 원하는 가상 가속도(1041)는 총 가상 힘의 계산을 가지거나 가지지 않고 제1 및 제2 가상 필드에 기초하여 계산될 수 있다.The desired virtual acceleration 1041 of vehicle 1031 may be calculated based on the first and second virtual fields, with or without calculation of the total virtual force.

전술한 발명의 상세한 설명에서, 본 발명은 본 발명의 실시형태들의 특정 실시예를 참조하여 설명되었다. 그러나, 첨부된 특허 청구범위에서 주장된 본 발명의 범위 및 보다 넓은 사상을 벗어나지 않고 다양한 수정 및 변경이 이루어질 수 있음이 명백할 것이다. 또한, 발명의 설명 및 특허 청구범위에서 "전면", "후면", "상부", "하부", "위", "아래" 등의 용어는 설명의 목적으로 사용되며 반드시 영구적인 상대 위치를 설명하기 위한 것은 아니다. 이렇게 사용된 용어는 본 발명에서 설명된 본 발명의 실시형태들이 예를 들어 본 발명에서 예시되거나 달리 설명된 것과 다른 방향으로 작동할 수 있도록 적절한 상황에서 상호 교환 가능하다는 것을 이해해야 한다. 또한, "주장" 또는 "설정" 및 "부정"(또는 "디어서트(deassert)" 또는 "클리어(clear)")이라는 용어는 본 발명에서 신호, 상태 비트 또는 유사 장치를 논리적으로 참 또는 논리적으로 거짓 상태로 각각 렌더링하는 것을 언급할 때 사용된다. 논리적으로 참 상태가 논리 레벨 1이면, 논리적으로 거짓 상태는 논리 레벨 0이다. 그리고 논리적으로 참 상태가 논리 레벨 0이면, 논리적으로 거짓 상태는 논리 레벨 1이다. 당업자는 논리 블록 사이의 경계가 단지 예시일 뿐이며 대안적인 실시형태들이 논리 블록 또는 회로 요소를 병합하거나 다양한 논리 블록 또는 회로 요소에 기능의 대체 분해를 부과할 수 있음을 인지할 것이다. 따라서, 본 발명에서 묘사된 아키텍처는 단지 예시일 뿐이며 실제로 동일한 기능을 달성하는 많은 다른 아키텍처가 구현될 수 있음을 이해할 것이다. 동일한 기능을 달성하기 위한 구성 요소의 임의의 배열은 원하는 기능이 달성되도록 효과적으로 "관련"된다. 따라서, 특정 기능을 달성하기 위해 본 발명에서 결합된 임의의 두 구성 요소는 아키텍처 또는 중간 구성 요소에 관계없이 원하는 기능이 달성되도록 서로 "관련된" 것으로 볼 수 있다. 마찬가지로, 이와 같이 관련된 임의의 두 구성 요소는 원하는 기능을 달성하기 위해 서로 "작동 가능하게 연결된" 또는 "작동 가능하게 결합된" 것으로 볼 수도 있다. 또한, 당업자는 전술한 작동들 사이의 경계가 단지 예시임을 인식할 것이다. 다수의 작동은 단일 작동으로 결합될 수 있고, 단일 작동은 추가 작동으로 분산될 수 있으며 작동은 적어도 부분적으로 시간적으로 중첩되어 실행될 수 있다. 더욱이, 대안적인 실시형태들은 특정 작동의 다수의 인스턴스를 포함할 수 있고, 작동의 순서는 다양한 다른 실시형태들에서 변경될 수 있다. 또한 예를 들어, 일 실시형태에서, 예시된 실시예들은 단일 집적 회로 상에 또는 동일한 장치 내에 위치된 회로로서 구현될 수 있다. 대안으로, 실시예들은 적절한 방식으로 서로 상호 연결된 임의의 수의 개별 집적 회로 또는 개별 장치로서 구현될 수 있다. 그러나, 다른 수정, 변형 및 대안도 가능하다. 따라서 명세서 및 도면은 제한적인 의미가 아니라 예시적인 것으로 간주되어야 한다. 청구범위에서, 괄호 사이에 있는 임의의 참조 기호는 청구범위를 제한하는 것으로 해석되어서는 안된다. '포함하는'이라는 단어는 청구범위에 나열된 것보다 다른 요소 또는 단계의 존재를 배제하지 않는다. 또한, 본 명세서에서 사용되는 용어 "하나" 또는 "하나의"은 하나 또는 하나 이상으로 정의된다. 또한, 청구범위에서 "적어도 하나" 및 "하나 이상"과 같은 도입 문구의 사용은 부정관사 "하나" 또는 "하나의"에 의한 다른 청구범위 요소의 도입이 특정 청구항을 제한하는 것으로 해석되어서는 안되고, 이러한 도입된 청구항 요소를 포함하는 청구항에서 이러한 요소를 하나만 포함하는 발명에 대해, 동일한 청구항이 서문 "하나 이상" 또는 "적어도 하나" 및 "하나" 또는 "하나의"과 같은 부정관사를 포함하는 경우에도 마찬가지이고다. 정관사의 사용도 마찬가지이다. 달리 명시되지 않는 한, "제1" 및 "제2"와 같은 용어는 이러한 용어가 설명하는 요소를 임의로 구별하기 위해 사용된다. 따라서, 이러한 용어는 이러한 요소의 시간적 또는 다른 우선 순위를 나타내기 위해 반드시 필요한 것은 아니다. 특정 조치가 서로 다른 청구범위에 인용되어 있다는 단순한 사실이 이러한 조치의 조합이 유리하게 사용될 수 없다는 것을 나타내지는 않는다. 본 발명의 특정 특징들이 본 발명에서 예시되고 설명되었지만, 많은 수정, 대체, 변경 및 등가물이 이제 당업자에게 일어날 것이다. 따라서, 첨부된 특허 청구범위는 본 발명의 진정한 사상에 속하는 모든 이러한 수정 및 변경을 포함하는 것으로 이해되어야 한다. 명료함을 위해 별도의 실시형태들의 맥락에서 설명되는 개시 내용의 실시형태들의 다양한 특징들이 또한 단일 실시형태에서 조합되어 제공될 수 있다는 것이 이해된다. 역으로, 간결함을 위해 단일 실시형태의 맥락에서 설명된 개시 내용의 실시형태들의 다양한 특징은 또한 개별적으로 또는 임의의 적합한 하위 조합으로 제공될 수 있다. 당업자는 본 발명의 실시형태들이 위에서 특별히 도시되고 설명된 것에 의해 제한되지 않는다는 것을 이해할 것이다. 오히려 본 발명의 실시형태들의 범위는 첨부된 청구범위 및 이의 등가물에 의해 정의된다.In the foregoing detailed description of the invention, the invention has been described with reference to specific examples of embodiments of the invention. However, it will be apparent that various modifications and changes may be made without departing from the scope and broader spirit of the invention as asserted in the appended claims. Additionally, in the description of the invention and the patent claims, terms such as “front,” “rear,” “top,” “bottom,” “top,” and “bottom” are used for descriptive purposes and necessarily describe permanent relative positions. It's not meant to be done. It is to be understood that the terms so used are interchangeable in appropriate contexts so that the embodiments of the invention described herein may operate in different directions, for example, than those illustrated or otherwise described herein. Additionally, the terms "assert" or "set" and "negation" (or "deassert" or "clear") are used herein to refer to a signal, status bit, or similar device as logically true or logically true. It is used to refer to rendering each in a false state. A logically true state is logic level 1, and a logically false state is logic level 0. And if a logically true state is logic level 0, then a logically false state is logic level 1. Those skilled in the art will recognize that the boundaries between logical blocks are merely examples and that alternative embodiments may merge logical blocks or circuit elements or impose alternative decompositions of functionality on various logical blocks or circuit elements. Accordingly, it will be appreciated that the architecture depicted herein is merely illustrative and that many other architectures may be implemented in practice that achieve the same functionality. Any arrangement of components to achieve the same function is effectively “related” so that the desired function is achieved. Accordingly, any two components combined in the present invention to achieve a particular function may be viewed as “related” to each other such that the desired function is achieved, regardless of architecture or intermediate components. Likewise, any two such related components may be viewed as being “operably connected” or “operably coupled” to each other to achieve the desired functionality. Additionally, those skilled in the art will recognize that the boundaries between the foregoing operations are illustrative only. Multiple operations may be combined into a single operation, a single operation may be distributed into additional operations and the operations may be executed at least partially temporally overlapping. Moreover, alternative embodiments may include multiple instances of a particular operation, and the order of operations may vary in various other embodiments. Also for example, in one embodiment, the illustrated embodiments may be implemented on a single integrated circuit or as a circuit located within the same device. Alternatively, embodiments may be implemented as any number of separate integrated circuits or individual devices interconnected with each other in any suitable manner. However, other modifications, variations and alternatives are also possible. Accordingly, the specification and drawings are to be regarded in an illustrative rather than a restrictive sense. In the claims, any reference signs between parentheses should not be construed as limiting the scope of the claims. The word 'comprising' does not exclude the presence of elements or steps other than those listed in the claims. Additionally, the term “one” or “one” used in this specification is defined as one or more than one. Additionally, the use of introductory phrases such as "at least one" and "one or more" in a claim should not be construed as limiting a particular claim, nor should the introduction of other claim elements by the indefinite article "one" or "an". , for inventions that contain only one such element in a claim containing such introduced claim element, if the same claim contains the preface "one or more" or "at least one" and an indefinite article such as "an" or "one" The same is true in this case. The same goes for the use of definite articles. Unless otherwise specified, terms such as “first” and “second” are used to optionally distinguish between the elements described by such terms. Accordingly, these terms are not necessarily intended to indicate the temporal or other priority of these elements. The mere fact that certain measures are recited in different claims does not indicate that a combination of these measures cannot be used to advantage. Although certain features of the invention have been illustrated and described herein, many modifications, substitutions, changes and equivalents will now occur to those skilled in the art. Accordingly, the appended claims are to be construed as including all such modifications and changes as fall within the true spirit of the invention. It is understood that various features of embodiments of the disclosure that are described in the context of separate embodiments for the sake of clarity may also be provided in combination in a single embodiment. Conversely, various features of embodiments of the disclosure that are described in the context of a single embodiment for the sake of brevity may also be provided individually or in any suitable sub-combination. Those skilled in the art will understand that the embodiments of the invention are not limited by what has been specifically shown and described above. Rather, the scope of embodiments of the invention is defined by the appended claims and their equivalents.

Claims (20)

가상 필드 주행 관련 작동을 위한 방법으로서, 상기 방법은:
차량의 목적지까지의 차량 경로의 적어도 세그먼트에 관한 대략적인 내비게이션 정보를 획득하는 단계; 및
처리 회로를 사용하고 상기 대략적인 내비게이션 정보에 기초하여, 하나 이상의 가상 힘을 결정하는 단계 - 상기 하나 이상의 가상 힘은 차량의 주행 관련 작동을 적용하는데 사용하기 위한 것이며, 상기 하나 이상의 가상 힘은 가상 물리적 모델에 속하고, 상기 대략적인 내비게이션 정보를 적어도 부분적으로 나타냄 -을 포함하는 방법.
A method for virtual field driving-related operations, said method comprising:
obtaining approximate navigation information regarding at least a segment of the vehicle's route to the vehicle's destination; and
determining, using processing circuitry and based on the approximate navigation information, one or more virtual forces, wherein the one or more virtual forces are for use in applying drive-related operations of the vehicle, the one or more virtual forces being virtual physical forces; belonging to a model, and at least partially representing said coarse navigation information.
제1항에 있어서, 상기 차량의 위치에 대한 대략적인 내비게이션 정보를 분석하는 것을 포함하는 방법.The method of claim 1, comprising analyzing coarse navigation information about the location of the vehicle. 제1항에 있어서, 상기 하나 이상의 가상 힘을 결정하는 단계는 상기 대략적인 내비게이션 정보와 관련된 하나 이상의 가상 필드를 획득하는 것을 포함하는 방법.The method of claim 1, wherein determining the one or more virtual forces includes obtaining one or more virtual fields associated with the coarse navigation information. 제3항에 있어서, 상기 하나 이상의 가상 필드를 획득하는 단계는 상기 하나 이상의 가상 필드에 기초하여 상기 하나 이상의 가상 힘을 결정하는 단계로 이어지는 방법.4. The method of claim 3, wherein obtaining the one or more virtual fields leads to determining the one or more virtual forces based on the one or more virtual fields. 제3항에 있어서, 상기 하나 이상의 가상 필드는 어트랙티브 가상 필드를 포함하는 방법.4. The method of claim 3, wherein the one or more virtual fields comprise an attractive virtual field. 제3항에 있어서, 상기 하나 이상의 가상 필드는 레펠링 가상 필드를 포함하는 방법.4. The method of claim 3, wherein the one or more virtual fields include rappelling virtual fields. 제3항에 있어서, 상기 하나 이상의 가상 필드를 표시하기 위한 사용자 그래픽 인터페이스를 생성하는 단계를 포함하는 방법.4. The method of claim 3, comprising creating a user graphical interface for displaying the one or more virtual fields. 제1항에 있어서, 상기 주행 세션 동안, 상기 차량의 환경 내에 위치된 하나 이상의 물체에 관한 물체 정보를 획득하는 단계를 포함하는 방법.The method of claim 1, comprising obtaining object information regarding one or more objects located within the environment of the vehicle during the driving session. 제8항에 있어서, 상기 하나 이상의 가상 힘의 결정하는 단계는 물체 정보에 기초하고, 상기 하나 이상의 가상 힘은 차량의 동작에 대한 상기 하나 이상의 물체의 하나 이상의 영향을 나타내는 방법.9. The method of claim 8, wherein determining the one or more virtual forces is based on object information, and the one or more virtual forces are indicative of one or more effects of the one or more objects on the operation of the vehicle. 제8항에 있어서, 상기 하나 이상의 가상 힘은 상기 하나 이상의 물체 중 물체의 영향을 나타내는 가상 힘과 상기 대략적인 내비게이션 정보를 나타내는 가상 힘을 포함하는 다중 가상 힘인 방법.The method of claim 8, wherein the one or more virtual forces are multiple virtual forces including a virtual force representing the influence of an object among the one or more objects and a virtual force representing the coarse navigation information. 제8항에 있어서, 상기 하나 이상의 가상의 힘을 결정하는 단계는 차량과 관련된 위치 정보 및 차량의 움직임 정보 중 적어도 하나에 기초하는 방법.9. The method of claim 8, wherein determining the one or more virtual forces is based on at least one of location information associated with the vehicle and motion information of the vehicle. 처리 회로에 의해 일단 실행되면 상기 처리 회로가 하기를 수행하게 하는 명령어를 저장하는 비일시적 컴퓨터 판독 가능 매체:
차량의 목적지까지의 차량 경로의 적어도 세그먼트에 관한 대략적인 내비게이션 정보를 획득하고; 그리고
상기 처리 회로를 사용하고 상기 대략적인 내비게이션 정보에 기초하여, 하나 이상의 가상 힘을 결정하는 것을 수행하며, 상기 하나 이상의 가상 힘은 상기 차량의 주행 관련 작동을 적용하는데 사용하기 위한 것이며, 상기 하나 이상의 가상 힘은 가상 물리적 모델에 속하고, 상기 대략적인 내비게이션 정보를 적어도 부분적으로 나타냄.
A non-transitory computer-readable medium storing instructions that, once executed by processing circuitry, cause the processing circuitry to:
obtain approximate navigation information regarding at least a segment of the vehicle's route to the vehicle's destination; and
Using the processing circuitry and based on the coarse navigation information, determine one or more virtual forces, the one or more virtual forces for use in applying a driving-related operation of the vehicle, the one or more virtual forces The force belongs to a cyber-physical model and represents at least in part the approximate navigation information.
제12항에 있어서, 상기 하나 이상의 가상 힘을 결정하는 것은 대략적인 내비게이션 정보와 관련된 하나 이상의 가상 필드를 획득하는 것을 포함하는 비일시적 컴퓨터 판독 가능 매체.13. The non-transitory computer-readable medium of claim 12, wherein determining the one or more virtual forces includes obtaining one or more virtual fields associated with coarse navigation information. 제13항에 있어서, 상기 하나 이상의 가상 필드를 획득하는 것은 상기 하나 이상의 가상 필드에 기초하여 상기 하나 이상의 가상 힘을 결정하는 것으로 이어지는 비일시적 컴퓨터 판독 가능 매체.14. The non-transitory computer-readable medium of claim 13, wherein obtaining the one or more virtual fields results in determining the one or more virtual forces based on the one or more virtual fields. 제13항에 있어서, 상기 하나 이상의 가상 필드는 어트랙티브 가상 필드를 포함하는 비일시적 컴퓨터 판독 가능 매체.14. The non-transitory computer-readable medium of claim 13, wherein the one or more virtual fields comprise an attractive virtual field. 제13항에 있어서, 상기 하나 이상의 가상 필드를 표시하기 위한 사용자 그래픽 인터페이스를 생성하기 위한 명령어를 저장하는 비일시적 컴퓨터 판독 가능 매체.14. The non-transitory computer-readable medium of claim 13, storing instructions for creating a user graphical interface for displaying the one or more virtual fields. 제12항에 있어서, 운전 세션 동안, 차량의 환경 내에 위치된 하나 이상의 물체에 관한 물체 정보를 획득하기 위한 명령어를 저장하는 비일시적 컴퓨터 판독 가능 매체.13. The non-transitory computer-readable medium of claim 12, storing instructions for obtaining object information about one or more objects located within the environment of the vehicle during a driving session. 제17항에 있어서, 상기 하나 이상의 가상 힘의 결정하는 것은 상기 물체 정보에 기초하고, 상기 하나 이상의 가상 힘은 차량의 동작에 대한 상기 하나 이상의 물체의 하나 이상의 영향을 나타내는 비일시적 컴퓨터 판독 가능 매체.18. The non-transitory computer-readable medium of claim 17, wherein determining the one or more virtual forces is based on the object information, and the one or more virtual forces are indicative of one or more effects of the one or more objects on operation of the vehicle. 제17항에 있어서, 상기 하나 이상의 가상 힘은 상기 하나 이상의 물체 중 물체의 충격을 나타내는 가상 힘과 대략적인 내비게이션 정보를 나타내는 가상 힘을 포함하는 다중 가상 힘인 비일시적 컴퓨터 판독 가능 매체.The non-transitory computer-readable medium of claim 17, wherein the one or more virtual forces are multiple virtual forces including a virtual force representing an impact of one of the one or more objects and a virtual force representing approximate navigation information. 제17항에 있어서, 상기 하나 이상의 가상 힘을 결정하는 것은 차량과 관련된 위치 정보 및 차량과 관련된 움직임 정보 중 적어도 하나에 기초하는 비일시적 컴퓨터 판독 가능 매체.18. The non-transitory computer-readable medium of claim 17, wherein determining the one or more virtual forces is based on at least one of location information associated with the vehicle and motion information associated with the vehicle.
KR1020230089677A 2022-07-11 2023-07-11 Virtual fields driving related operations KR20240024735A (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US202263368156P 2022-07-11 2022-07-11
US63/368,156 2022-07-11
US17/823,069 US20230064387A1 (en) 2021-09-01 2022-08-29 Perceptual fields for autonomous driving
US17/823,069 2022-08-29

Publications (1)

Publication Number Publication Date
KR20240024735A true KR20240024735A (en) 2024-02-26

Family

ID=89387188

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230089677A KR20240024735A (en) 2022-07-11 2023-07-11 Virtual fields driving related operations

Country Status (3)

Country Link
JP (1) JP2024009792A (en)
KR (1) KR20240024735A (en)
DE (1) DE102023206535A1 (en)

Also Published As

Publication number Publication date
DE102023206535A1 (en) 2024-01-11
JP2024009792A (en) 2024-01-23

Similar Documents

Publication Publication Date Title
Ma et al. Artificial intelligence applications in the development of autonomous vehicles: A survey
JP7338052B2 (en) Trajectory prediction method, device, equipment and storage media resource
Gruyer et al. Perception, information processing and modeling: Critical stages for autonomous driving applications
US11308391B2 (en) Offline combination of convolutional/deconvolutional and batch-norm layers of convolutional neural network models for autonomous driving vehicles
CN111666804A (en) Pedestrian movement prediction useful for autonomous driving
KR20180068511A (en) Apparatus and method for generating training data for training neural network determining information related to road included in an image
US11348263B2 (en) Training method for detecting vanishing point and method and apparatus for detecting vanishing point
JP2023533507A (en) Systems and methods for optimizing trajectory planners based on human driving behavior
US20210149408A1 (en) Generating Depth From Camera Images and Known Depth Data Using Neural Networks
EP4060626A1 (en) Agent trajectory prediction using context-sensitive fusion
US11810365B1 (en) Perception error modeling
Aditya et al. Collision Detection: An Improved Deep Learning Approach Using SENet and ResNext
KR20240024735A (en) Virtual fields driving related operations
CN116448134A (en) Vehicle path planning method and device based on risk field and uncertain analysis
Krishnarao et al. Enhancement of advanced driver assistance system (ADAS) using machine learning
Bhaggiaraj et al. Deep Learning Based Self Driving Cars Using Computer Vision
KR20240021695A (en) Virtual fields driving related operations
US20240051557A1 (en) Perception fields for autonomous driving
US20230365156A1 (en) Virtual fields driving related operations
US20240005794A1 (en) Adaptive perception affected by V2X signal
US20230365155A1 (en) Virtual fields driving related operations
US20230347918A1 (en) Virtual fields driving related operations
KR20240024737A (en) Driving related augmented virtual fields
JP2021196632A (en) Prediction device, prediction method, program and vehicle control system
US20230365157A1 (en) Driving related augmented virtual fields