KR102554686B1 - 차량 주변에 있는 하나 이상의 객체에 관한 객체 정보를 병합하기 위한 차량, 방법, 컴퓨터 프로그램 및 장치 - Google Patents

차량 주변에 있는 하나 이상의 객체에 관한 객체 정보를 병합하기 위한 차량, 방법, 컴퓨터 프로그램 및 장치 Download PDF

Info

Publication number
KR102554686B1
KR102554686B1 KR1020210072024A KR20210072024A KR102554686B1 KR 102554686 B1 KR102554686 B1 KR 102554686B1 KR 1020210072024 A KR1020210072024 A KR 1020210072024A KR 20210072024 A KR20210072024 A KR 20210072024A KR 102554686 B1 KR102554686 B1 KR 102554686B1
Authority
KR
South Korea
Prior art keywords
object information
information
vehicle
meta
timestamp
Prior art date
Application number
KR1020210072024A
Other languages
English (en)
Other versions
KR20210152394A (ko
Inventor
다니엘 레이만
니클라스 풀러
올리버 트라우어
Original Assignee
폭스바겐 악티엔게젤샤프트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 폭스바겐 악티엔게젤샤프트 filed Critical 폭스바겐 악티엔게젤샤프트
Publication of KR20210152394A publication Critical patent/KR20210152394A/ko
Application granted granted Critical
Publication of KR102554686B1 publication Critical patent/KR102554686B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/048Detecting movement of traffic to be counted or controlled with provision for compensation of environmental or other condition, e.g. snow, vehicle stopped at detector
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D21/00Measuring or testing not otherwise provided for
    • G01D21/02Measuring two or more variables by means not covered by a single other subclass
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0965Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages responding to signals from another vehicle, e.g. emergency vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/46Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for vehicle-to-vehicle communication [V2V]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • B60W2420/42
    • B60W2420/52
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/65Data transmitted between vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2756/00Output or target parameters relating to data
    • B60W2756/10Involving external transmission of data to or from the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/08Predicting or avoiding probable or impending collision
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/38Services specially adapted for particular environments, situations or purposes for collecting sensor information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/44Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for communication between vehicles and infrastructures, e.g. vehicle-to-cloud [V2C] or vehicle-to-home [V2H]

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • Emergency Management (AREA)
  • Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Testing Or Calibration Of Command Recording Devices (AREA)

Abstract

실시예들은 상이한 데이터 소스들로부터 차량(200)의 주변에 있는 하나 이상의 객체에 관한 객체 정보(31, 32, 33, 312, 314, 322, 323, 334, 335)를 병합하기 위한 차량(200), 방법(100), 컴퓨터 프로그램 및 장치(210)를 제공한다. 상기 방법(100)은 상기 차량(200)에 배치된 적어도 하나의 센서로부터 주변에 관한 제 1 정보(310)를 수집하는 단계(110) 및 차량(200)에서 분리된 송신기로부터 주변에 관한 적어도 하나의 제 2 주변 정보(320, 330)를 수신하는 단계(120)를 포함한다. 또한 상기 방법(100)은 제 1 주변 정보(310)로부터 제 1 객체 정보(31, 312, 314)를 참조하는 제 1 메타 정보(31p, 312p, 314p)와 함께 적어도 하나의 제 1 객체 정보(31, 312, 314)를 결정하고 제 2 주변 정보(329, 330)로부터 제 2 객체 정보(32, 33, 322, 323, 334, 335)를 참조하는 제 2 메타 정보(32p, 33p, 322p, 323p, 334p, 335p)와 함께 적어도 하나의 제 2 객체 정보(32, 33, 322, 323, 334, 335)를 결정하는 단계 및 제 1 객체 정보(31, 312, 314)와 제 2 객체 정보(32, 33, 322, 323, 334, 335) 사이의 편차와 허용 오차 범위의 비교에 기초해서 제 1 메타 정보(31p, 312p, 314p)와 제 2 메타 정보(32p, 33p, 322p, 323p, 334p, 335p)를 서로 할당하는 단계(140)를 포함한다.

Description

차량 주변에 있는 하나 이상의 객체에 관한 객체 정보를 병합하기 위한 차량, 방법, 컴퓨터 프로그램 및 장치{VEHICLE, METHOD, COMPUTER PROGRAM AND APPARATUS FOR MERGING OBJECT INFORMATION ABOUT ONE OR MORE OBJECTS IN THE SURROUNDINGS OF A VEHICLE}
본 발명은 상이한 데이터 소스들로부터 차량 주변에 있는 하나 이상의 객체에 관한 객체 정보를 병합하기 위한 차량, 방법, 컴퓨터 프로그램 및 장치에 관한 것이다. 특히 본 발명은 센서 및 차량에서 분리된 송신기에 의해 제공되는 차량 주변에 관한 주변 정보로부터 객체 정보를 병합하기 위한 차량, 방법, 컴퓨터 프로그램 및 장치에 관한 것이다.
차량들 사이 또는 차량들과 인프라스트럭처 객체에 고정 설치된 송신기들 사이에서 전달되는 데이터/정보는 차량이 주변을 가급적 전체적으로 감지하는데 도움이 될 수 있다. 이러한 정보는 차량 대 차량 데이터(vehicle-to-vehicle, V2V, 데이터) 또는 차량 대 인프라스트럭처 데이터(vehicle-to-infrastructure, V2I, 데이터) 또는 일반적으로 차량 대 사물 데이터(vehicle-to-everything, V2X, 데이터)로 지칭될 수 있다.
고정 설치된 송신기와 차량 사이의 인터페이스는 차량 주변에 관한 추가 정보를 V2I-데이터 형태로 차량에 제공하는 추가 센서 시스템으로서 고려될 수 있다. 센서 데이터와 V2I-데이터를 사용하여 주변을 맵핑하기 위해 차량과 고정식 송신기 사이에서 전달되는 V2V- 및 V2I-데이터는 차량에 설치된 하나 이상의 센서의 센서 데이터와 빠르고 효율적으로 결합되어야 한다.
결합된 데이터는 소위 "협력적 주변 모델"에서 맵핑될 수 있다.
간행물 US 2015/0166071 A1호는 각각의 센서 데이터의 노이즈의 비교에 기반해서, 동일한 객체들에 할당될 수 있는 제 1 및 제 2 센서의 센서 데이터를 할당하기 위한 고안을 기술한다. 센서 데이터의 노이즈는 외부 영향으로 인해 달라질 수 있고 이로 인해 할당 오류가 야기될 수 있다.
간행물 KR20190090604(A)호는 센서 데이터와 V2V-데이터에 의해 기록된 여러 객체에 기초해서 차량들 사이에서 전달되는 V2V-데이터와 레이더 센서의 센서 데이터를 병합하는 고안을 기술한다. 그러나 병합된 데이터에는 원하지 않는 중복이 포함될 수 있다.
간행물 EP 3 462 754 A1호는 차량의 V2X-통신 장치에 의해 V2X-메시지를 전송하는 방법을 기술한다. 이 방법은 외부 V2X-통신 장치와 관련해서 기본 정보를 제공하는 외부 V2X-통신 장치로부터 V2X-메시지를 수신하는 단계, V2X-통신 장치에 의해 감지된 적어도 하나의 객체의 집합적 지각을 생성하기 위한 CP-메시지(집합적 지각)를 생성하는 단계 및 CP-메시지를 전송하는 단계를 포함한다. 이 경우 V2X-메시지에는 외부 V2X-통신 장치를 식별하는 ID-정보와 외부 V2X-통신 장치의 위치를 표시하는 위치 정보가 포함된다. 또한, V2X-메시지에 기초해서 CP-메시지를 생성하는 것은, 외부 V2X-통신 장치가 관련되어 있는 객체는 감지된 객체와 동일한 객체인지 여부를 결정하는 것을 포함한다. 그러나 이러한 고안은 상이한 센서들의 데이터의 병합을 고려하지 않는다.
협력적 주변 모델을 생성하기 위한 지금까지 공개된 다른 접근 방식들은, V2X-인터페이스를 통해 도입되는 데이터가 수신 직후 센서 시스템의 데이터와 병합된다는 사실에 기초한다. 즉, 센서 시스템에 의해 수집된 객체의 데이터와 V2X-인터페이스를 통해 수신된 데이터에 의해 수집된 데이터 사이에 직접적인 할당이 이루어진다. 이러한 접근 방식은, 데이터 사이의 할당이 설정되거나 취소될 때, 유연성 면에서 한계를 보인다.
따라서 상이한 데이터 소스들로부터 정보를 병합하기 위한 개선된 개념에 대해 요구가 발생한다.
여기에 제시된 독립 청구항과 종속 청구항에 의해 설명된 고안은 이러한 요구에 부합할 수 있다.
본 발명의 실시예는, 상이한 데이터 소스들로부터 차량 주변에 있는 동일한 객체들과 관련된 정보(객체 정보)를 상호 할당 없이 정보 데이터 베이스에 저장하고, 정보의 할당에 기초해서 관련 메타 정보를 각각 연계하는 사상에 기초한다. 메타 정보는 정보 데이터 베이스와는 별도의 데이터 베이스에 저장될 수 있다.
이러한 객체의 예로는, 예를 들어 보행자, 자전거 라이더 또는 다른 차량과 같은 각각의 도로 사용자뿐만 아니라 차량 주변에 있는 인프라스트럭처 객체 또는 식물과 같은 고정된 객체일 수도 있다. 따라서 전술한 정보는 예를 들어 센서 및 차량에서 분리된 송신기와 같은 데이터 소스로부터 제공되는 위치, 가속도 또는 크기와 관련된다.
할당은 특히 차량 주변에 있는 동일한 객체와 관련된 서로 중복되는 정보의 할당과 관련된다. 정보의 할당에 의해 서로 할당된 정보를 결합하거나 필터링하여 상이한 데이터 소스들의 정보 간의 중복을 줄일 수 있다. 그런 다음 결합되거나 필터링된 객체 정보는 소위 "협력적" 주변 모델의 맵핑을 위해 이용될 수 있다.
메타 정보의 할당은 새로 수신된 객체 정보를 기반으로 지속적으로 업데이트 될 수 있다. 정보 데이터 베이스에 저장된 객체 정보의 할당/연계를 취소하고 새로 만들 수 있다. 이러한 방식으로 협력적 주변 모델은 지속적으로 업데이트될 수 있다.
실시예는 상이한 데이터 소스들로부터 차량 주변에 있는 하나 이상의 객체에 관한 객체 정보를 병합하기 위한 방법을 제공한다. 상기 방법은 차량에 배치된 적어도 하나의 센서로부터 주변에 관한 제 1 주변 정보를 수집하는 단계와 차량에서 분리된 송신기로부터 주변에 관한 적어도 하나의 제 2 정보를 수신하는 단계를 포함한다. 또한, 상기 방법은 제 1 주변 정보로부터 제 1 객체 정보를 참조하는 제 1 메타 정보와 함께 적어도 하나의 제 1 객체 정보를 결정하는 단계 및 제 2 주변 정보로부터 제 2 객체 정보를 참조하는 제 2 메타 정보와 함께 적어도 하나의 제 2 객체 정보를 결정하는 단계를 포함한다. 상기 방법은 제 1 객체 정보와 제 2 객체 정보 사이의 편차와 허용 오차 범위의 비교에 기초해서 제 1 및 제 2 메타 정보를 서로 할당하는 단계를 더 포함한다.
제 1 및 제 2 주변 정보는 예를 들어 주변에 있는 여러 객체에 관한 정보의 양을 포함한다. 본 개시 내용의 맥락에서 객체는 보행자 또는 차량과 같은 도로 사용자일 수 있을 뿐만 아니라 차량 주변에 위치한 인프라스트럭처의 객체일 수도 있다. 차량은 특히 자동 제어식 차량일 수 있다.
따라서 제 1 및 제 2 주변 정보는 주변에 위치한 다른 차량의 예를 들어 위치, 속도, 크기, 회전량 (예를 들어 각속도 및/또는 각가속도) 및 가속도를 포함한다.
적어도 하나의 센서는 예를 들어 라이다 센서, 레이더 센서, 초음파 센서 또는 카메라이다. 제 1 주변 정보에 포함된 주변에 위치한 객체/차량의 위치, 속도, 가속 및/또는 크기는, 예를 들어 라이다 센서로 주변을 모니터링할 때 생성되고 주변을 3차원으로 투사하는 하나 이상의 소위 "포인트 클라우드"에 나타난다. 대안으로서 또는 추가로 제 1 주변 정보는 카메라의 하나 이상의 녹화물에 나타날 수 있다.
차량에서 분리된 송신기는 예를 들어 추가 차량에 설치된 또는 고정 설치된 송신기에 해당한다. 송신기는 제 2 주변 정보를 수집하기 위해 센서 시스템 또는 하나 이상의 추가 송신기에 연결될 수 있다.
추가 차량에 설치된 송신기는 예를 들어 추가 차량의 센서 시스템에 연결된다.
송신기는 제 2 주변 정보를 하나 이상의 메시지로 차량에 전송할 수 있다. 이러한 메시지는 추후에 더 자세히 설명되는 바와 같이 소위 집합적 지각(collective perception-, CP-) 메시지 및/또는 협력적 인지(cooperative awareness-, CA-) 메시지일 수 있다. 제 2 주변 정보는 제 1 주변 정보와 유사하게 주변에 있는 다른 차량들의 위치, 속도, 크기 및 가속도를 포함할 수 있다.
제 1 객체 정보와 제 2 객체 정보는 제 1 또는 제 2 주변 정보에 포함될 수 있고, 예를 들어 하나 이상의 객체의 위치, 속도, 가속도 및/또는 크기를 나타낼 수 있다. 따라서, 제 1 및 제 2 객체 정보를 결정하는 것은 제 1 및 제 2 주변 정보로부터 제 1 및 제 2 객체 정보를 선택하는 것을 포함할 수 있다.
또한, 제 1 및 제 2 객체 정보에 연계된 제 1 및 제 2 메타 정보는 마찬가지로 제 1 또는 제 2 주변 정보에 포함될 수 있다. 따라서, 제 1 및 제 2 메타 정보를 결정하는 것은 제 1 또는 제 2 주변 정보로부터 각각 제 1 및 제 2 객체 정보를 선택하는 것을 포함할 수 있다.
메타 정보는 제 1 또는 제 2 객체 정보를 래퍼런싱하는 참조, 지표 또는 "포인터"를 포함할 수 있다. 지표는 예를 들어, 제 1 또는 제 2 객체 정보에 관련된 차량 식별 문자(객체 식별자), 타임스탬프 및/또는 관련 객체 정보를 참조하기 위한 참조 문자를 포함한다.
예를 들어, 제 1 및 제 2 객체 정보 사이의 편차와 허용 오차 범위의 비교에 기초해서 제 1 및 제 2 메타 정보를 할당함으로써, 동일한 객체들의 중복 객체 정보의 메타 정보가 통합된다. 제 1 및 제 2 메타 정보에 연계된 객체 정보들 사이의 편차가 허용 오차 범위 이하이면, 제 1 및 제 2 메타 정보는 예를 들어 서로 할당된다.
반대로, 이러한 편차가 허용 오차 범위보다 크면, 제 1 및 제 2 메타 정보의 할당이 거부될 수 있다. 허용 오차 범위는, 허용 오차 범위보다 작은 편차를 갖는 객체 정보는 동일한 객체와 관련이 있을 가능성이 있는 방식으로 선택될 수 있다. 허용 오차 범위는 예를 들어 1 미터 또는 0.5 미터이다.
앞에서는 2개의 객체 정보의 메타 정보의 할당에 대해서만 언급하였지만, 위에서 설명한 방법에 의해 본 방법에는 동일한 객체에 관련된 여러 객체 정보가 부여된다는 것이 참조된다.
서로 할당된 메타 정보는, 협력적 주변 모델을 생성 또는 업데이트하는데 필요한 컴퓨팅 부하를 증가시키는 중복이 감소하거나 바람직하게 제거될 수 있도록 중복 객체 정보, 즉 동일한 객체의 객체 정보를 병합하는데 이용될 수 있다. 그 결과, 예를 들어 차량의 자동 제어에 필요한 컴퓨팅 부하가 전체적으로 감소한다.
객체 정보와 메타 정보는 서로 분리된 데이터 베이스에 저장될 수 있다. 메타 정보의 할당은 데이터 베이스에서 메타 정보의 적절한 분류 또는 연계에 의해 결정될 수 있는 한편, 데이터 베이스 내의 객체 정보는 임의로 분류될 수 있거나 서로 "비연계"될 수 있다.
따라서 객체 정보의 할당은 말하자면, 메타 정보의 할당에 의해서만 결정될 수 있고, 그것의 데이터 베이스에서 객체 정보의 대응하는 분류 또는 배열에 의해서는 결정될 수 없다.
따라서 객체 정보의 할당을 업데이트하기 위해 그것의 데이터 베이스 내의 객체 정보를 반드시 다시 분류하거나 연계할 필요는 없다. 결과적으로 이를 위해 필요한 컴퓨팅 부하가 절약될 수 있다.
따라서 서로 할당된 메타 정보를 통한 객체 정보의 할당은, 예를 들어 데이터 베이스 내의 객체 정보의 대응하는 연계에 의한 객체 정보의 직접 할당보다 효율적일 수 있다.
일부 실시예에서 상기 방법은 제 1 메타 정보와 제 2 메타 정보의 할당에 기초해서 제 1 및 제 2 객체 정보를 병합하여 제 3 객체 정보를 형성하는 단계를 포함하고, 이 경우 제 3 객체 정보는 제 1 객체 정보, 제 2 객체 정보 또는 제 1 및 제 2 객체 정보의 조합을 포함한다.
제 3 객체 정보는 예를 들어, 제 1 객체 정보, 제 2 객체 정보 또는 예를 들어 제 1 및 제 2 객체 정보의 평균값에 해당한다.
서로 할당된 복수의 객체 정보의 경우, 제 3 객체 정보는 예를 들어 병합된 객체 정보의 목록을 포함한다.
따라서, 제 3 객체 정보는 제 1 및 제 2 객체 정보의 양보다 적어도 적은 중복을 포함하고, 따라서 추가 처리 시 제 1 및 제 2 객체 정보의 양보다 적은 컴퓨팅 과정을 필요로 한다.
일부 실시예에서 본 방법은 차량에서 수행되고, 제 2 주변 정보는 도로 사용자들 사이에서 전달되는 메시지를 통해 수신된다.
본 방법은 예를 들어 차량 내에 설치된 제어 모듈에 의해 수행된다. 메시지는 예를 들어 CA-메시지이다.
차량 내에서 방법을 실행함으로써, 센서 데이터의 지연 시간은, 방법이 차량 외부에서, 예를 들어 차량에서 분리된 프로세서에 의해 실행되는 경우보다 낮을 수 있다.
일부 실시예에서 제 1 및 제 2 메타 정보를 서로 할당하는 것은 공통 시점에 대해 제 1 및 제 2 객체 정보를 맵핑하는 것과 공통 시점에 대해 제 1 및 제 2 객체 정보의 맵핑 사이의 편차와 허용 오차 범위의 비교에 기초해서 제 1 및 제 2 메타 정보를 서로 할당하는 것을 포함한다.
공통 시점에 대해 제 1 객체 정보와 제 2 객체 정보를 맵핑하기 위해, 제 1 객체 정보 또는 제 2 객체 정보에 기초해서 보간 또는 외삽이 실시될 수 있다.
제 1 및 제 2 객체 정보의 각각의 맵핑의 신뢰도를 높이기 위해, 특히 제 1 및 제 2 객체 정보와 동일한 객체들에 할당된 하나 이상의 이전에 결정된 객체 정보는 보간 또는 외삽 시 고려될 수 있다. 보간을 위해, 예를 들어 제 1 객체 정보가 관련된 주변에 있는 차량의 시간적으로 더 일찍 측정된 위치들은 공통 시점에 대해 제 1 객체 정보를 맵핑하기 위한 보간 또는 외삽에 참작된다. 공통 시점에 대해 제 2 객체 정보의 맵핑 시 유사하게 진행될 수 있다.
보간 또는 외삽에 있어서, 특히 제 1 및 제 2 객체 정보의 소위 "타임스탬프"라고 하는 측정 시간이 함께 참작될 수 있다. 일반적으로, 공통 시점은 제 1 및 제 2 객체 정보 항목에 할당된 타임스탬프 또는 이러한 타임스탬프 전후의 시점에 해당할 수 있다. 따라서 제 1 정보는 예를 들어 제 2 객체 정보의 타임스탬프에 대해 맵핑될 수 있거나 역으로도 가능하다.
공통 시점에 대해 제 1 및 제 2 객체 정보를 맵핑하는 것은 제 1 및 제 2 객체 정보의 동기화로도 이해될 수 있다. 제 1 및 제 2 객체 정보의 타임스탬프 이후 더 추후의 시점에 대해 맵핑을 "예측"이라고 할 수 있다.
특히, 제 1 및 제 2 객체 정보가 상이한 측정 시점에 관련되는 경우, 또는 상이한 타임스탬프에 할당된 경우, 이들의 비교성은 제 1 및 제 2 객체 정보의 효과적인 할당에 충분하지 않을 수 있다. 전술한 동기화에 의해 제 1 및 제 2 객체 정보의 효과적인 할당을 위해 비교할 만한 값들, 즉 제 1 및 제 2 객체 정보의 맵핑이 생성될 수 있다.
일부 실시예에서 공통 시점에 대해 제 1 객체 정보와 제 2 객체 정보를 맵핑하는 것은 제 1 및/또는 제 2 객체 정보에 기초해서, 제 1 객체 정보에 할당된 제 1 타임스탬프 및/또는 제 2 객체 정보에 할당된 제 2 타임스탬프의 칼만 필터링을 포함한다.
제 1 및/또는 제 2 객체 정보 및/또는 이들의 타임스탬프에 기초한 칼만 필터링은 본 개시 내용의 맥락에서 칼만 필터를 제 1 및/또는 제 2 객체 정보 및 이들의 타임스탬프에 적용하는 것과 관련된다. 특히, 이전에 결정된 객체 정보는 다시 칼만 필터링에 함께 고려될 수 있다.
해당하는 타임스탬프는 예를 들어 객체 정보의 관련 메타 정보에 포함된다.
상세한 설명 또는 청구 범위에 개시된 다수의 단계, 프로세스, 동작 또는 기능의 개시 내용은, 예를 들어 기술상 명시적으로 또는 암시적으로 달리 명시되지 않는 한, 특정 순서로 존재하는 것으로 해석되어서는 안 된다는 것은 당연하다. 따라서 이러한 개시 내용은, 기술적인 이유로 이러한 단계들 또는 기능들을 교체할 수 없는 경우가 아니면, 여러 단계 또는 기능들의 개시 내용에 의해 특정 순서로 제한되지 않는다. 또한, 일부 예에서 단일 단계, 기능, 프로세스 또는 동작은 다수의 하위 단계, -기능, -프로세스 또는 -동작을 포함할 수 있고 및/또는 그러한 것으로 세분화될 수 있다. 그러한 하위 단계들은, 명시적으로 제외되지 않는 한, 이러한 단일 단계의 개시 내용에 포함될 수 있거나 일부일 수 있다.
실시예는 또한 컴퓨터 프로그램이 컴퓨터 또는 프로세서에서 실행될 때, 상기 방법들 중 하나 이상을 수행하기 위한 프로그램 코드를 갖는 컴퓨터 프로그램일 수 있고 또는 이러한 것에 관한 것일 수 있다. 전술한 다양한 방법들의 단계, 작업 또는 프로세스는 프로그래밍된 컴퓨터 또는 프로세서에 의해 수행될 수 있다. 예로서 프로그램 저장 장치, 예를 들어 디지털 데이터 저장 매체도 고려할 수 있고, 상기 저장 장치는 기계-, 프로세서- 또는 컴퓨터 판독 가능하고, 명령어들의 기계 실행 가능한, 컴퓨터 실행 가능한, 프로세서 실행 가능한 프로그램을 인코딩한다. 명령어는 전술한 방법들의 일부 또는 모든 단계를 수행하거나 이들의 수행을 야기한다. 프로그램 저장 장치는 예를 들어 디지털 메모리, 자기 디스크 및 자기 테이프와 같은 자기 저장 매체, 하드디스크 드라이브 또는 광학적으로 판독 가능한 디지털 데이터 저장 매체일 수 있거나 이를 포함할 수 있다. 추가 예로서 전술한 방법들의 단계들을 수행하도록 프로그래밍된 컴퓨터, 프로세서 또는 제어 유닛 또는 (필드) 프로그래밍 가능 논리 어레이[(F)PLAs =(필드) Programmable Logic Arrays] 또는 전술한 방법들의 단계들을 수행하도록 프로그래밍된 (필드) 프로그래밍 가능 게이트 어레이[(F)PGAs =(필드) Programmable Gate Arrays]도 고려할 수 있다.
본 발명의 실시예들은 상이한 데이터 소스들로부터 차량 주변에 있는 하나 이상의 객체에 관한 객체 정보를 병합하기 위한 장치에 관한 것이다. 상기 장치는 차량에 배치된 센서 및 차량에서 분리된 송신기와 통신을 위한 하나 이상의 인터페이스 및 전술한 방법들 중 하나를 수행하기 위한 제어 모듈을 포함한다.
실시예에서 장치의 하나 이상의 인터페이스는 제어 모듈의 접점으로서 설계될 수 있다. 실시예에서 이들은 또한 별도의 하드웨어로서 구현될 수도 있다. 이들은 적어도 일시적으로 제 1 및/또는 제 2 객체 정보를 저장하는 메모리를 포함할 수 있다. 하나 이상의 인터페이스는, 예를 들어 버스 인터페이스로서, 또는 광학 인터페이스로서, 전기 신호들을 수신하도록 설계될 수 있다. 또한, 실시예에서 이들은 무선 전송을 위해 설계될 수 있으며, 무선 프런트 엔드(front end) 및 관련 안테나를 포함할 수 있다. 또한, 예를 들어 CAN 버스(CAN = Controller Area Network)를 위한 적어도 하나의 인터페이스는 관련 전송 매체와의 동기화를 위한 동기화 메커니즘을 포함할 수 있다. 실시예에서 하나 이상의 인터페이스는, 예를 들어 네트워크를 통해 차량 및/또는 다른 차량 또는 인스턴스에서 통신하도록 설계될 수 있다.
제어 모듈은 실시예에서 하드웨어일 수 있고, 상기 하드웨어는 여기에 설명된 방법들 중 하나를 수행하도록 설계될 수 있다. 이는 DSP(디지털 신호 프로세서 코어)와 같은 임의의 프로세스 코어 또는 기타 프로세서일 수 있다. 실시예들은 특정 유형의 프로세서 코어로 제한되지 않는다. 제어 모듈을 구현하기 위한 임의의 프로세서 코어 또는 여러 프로세서 코어 또는 마이크로 컨트롤러도 고려될 수 있다. 예를 들어, 하나 이상의 다른 기능을 추가로 포함하는 차량용 제어 유닛에 다른 장치들과 통합된 형태로 구현도 고려될 수 있다. 실시예에서 제어 모듈은 전술한 모듈 또는 모듈들의 코어로서 프로세서 코어, 컴퓨터 프로세서 코어(CPU = Central Processing Unit), 그래픽 프로세서 코어(GPU = Graphics Processing Unit), 주문형 집적 회로 코어(ASIC = Application-Specific Integrated Circuit), 집적 회로(IC = Integrated Circuit), 단일 칩 시스템 코어(SOC = System on Chip), 마이크로프로세서를 가진 필드 프로그래밍 가능 게이트 어레이(FPGA = Field Programmable Gate Array) 또는 프로그래밍 가능 논리 소자에 의해 실현될 수 있다. 따라서 제어 모듈은 객체 정보들 사이의 편차와 허용 오차 범위의 비교에 기초해서 상이한 데이터 소스의 객체 정보를 서로 할당할 수 있는 모든 구성 요소에 해당할 수 있다.
다른 바람직한 실시예들은 도면에 도시된 실시예들을 참조하여 아래에서 상세히 설명되며, 일반적으로 상기 실시예들에 전체적으로 제한되지 않는다.
도 1은 상이한 데이터 소스들로부터 차량 주변에 있는 하나 이상의 객체에 관한 객체 정보를 병합하기 위한 방법을 개략적으로 나타내는 순서도를 도시한 도면.
도 2는 방법을 수행하기 위한 장치를 개략적으로 나타내는 블록 회로도를 도시한 도면.
도 3은 방법의 실시예를 개략적으로 나타내는 블록도를 도시한 도면.
도 4a는 방법의 다른 실시예에서 상이한 데이터 소스들로부터 주변 정보 및 객체 정보의 저장을 개략적으로 나타내는 블록도를 도시한 도면.
도 4b는 객체 정보를 할당하기 위한 절차를 개략적으로 도시한 도면.
도 4c는 할당된 객체 정보를 병합하기 위한 절차를 개략적으로 도시한 도면.
이제 일부 실시예들이 도시된 첨부된 도면을 참조하여 다양한 실시예들이 더 상세하게 설명될 것이다. 선택적 특징들 또는 구성 요소들은 점선으로 표시된다.
실시예들은 다양한 방식으로 수정 및 변경될 수 있지만, 도면에 예로서 도시되고 여기서 상세히 설명된다. 그러나 실시예들을 각각의 개시된 형태로 제한하고자 함이 아니라, 오히려 실시예들이 본 발명의 범위 내에 있는 모든 기능적 및/또는 구조적 변경, 등가물 및 대안을 포함하는 점에 주목해야 한다.
다른 요소에 "연결된" 또는 "결합된" 것으로 언급되는 요소는 다른 요소에 직접 연결 또는 결합될 수 있거나, 사이에 있는 요소들이 존재할 수 있음에 주목해야 한다. 그와 달리 요소가 다른 요소에 "직접 연결된" 또는 "직접 결합된" 것으로 언급되면, 사이에 있는 요소들은 존재하지 않는다. 요소들 간의 관계를 설명하는데 사용되는 다른 용어들은 유사한 방식으로 해석되어야 한다(예를 들어 "사이" 대 "사이에 직접", "인접하게" 대 "직접 인접하게 "등).
여기에서 사용된 용어는 특정 실시예들을 설명하기 위해서만 사용되며 실시예를 제한하려는 의도는 아니다. 여기에서 사용된 바와 같이, 단수 형태 "a", "an" 및 "the"는 문맥이 달리 명확하게 명시하지 않는 한, 복수 형태도 포함해야 한다. 또한 여기에서 사용되는 바와 같이, 예를 들어, "포함하다", "포함하고 있는", "가지다", "포괄하다", "포괄하고 있는" 및/또는 "가지고 있는"과 같은 표현은 언급된 특징들, 정수들, 단계들, 작업 순서들, 요소들 및/또는 구성 요소들의 존재를 명시하지만, 하나 내지 하나 이상의 특징들, 정수들, 단계들, 작업 순서들, 요소들, 구성 요소들 및/또는 그 그룹들의 존재 또는 추가를 배제하지 않는다.
블록도는 예를 들어 본 공개 내용의 원칙을 구현하는 대략적 회로도일 수 있다. 유사하게, 흐름도, 순서도, 상태 천이도, 의사 코드 및 그와 같은 것은, 예를 들어 실질적으로 컴퓨터 판독 가능 매체에 표시되고 컴퓨터 또는 프로세서에 의해 실행될 수 있는 다양한 프로세스, 동작 또는 단계들을, 그러한 컴퓨터 또는 프로세서가 명시적으로 도시되어 있는지와 관계없이 나타낸다. 상세한 설명 또는 특허 청구 범위에 개시된 방법은 이러한 방법의 각각의 단계들을 수행하기 위한 수단을 구비한 구성부에 의해 구현될 수 있다.
도 1은 상이한 데이터 소스들로부터 차량 주변에 있는 하나 이상의 객체에 관한 객체 정보를 병합하기 위한 방법(100)을 개략적으로 나타내는 순서도를 도시한다.
방법(100)은 차량에 배치된 적어도 하나의 센서로부터 주변에 관한 제 1 주변 정보를 수집하는 단계(110) 및 차량에서 분리된 송신기로부터 주변에 관한 적어도 하나의 제 2 주변 정보를 수신하는 단계(120)를 포함한다. 또한, 상기 방법(100)은 제 1 주변 정보로부터 제 1 객체 정보를 참조하는 제 1 메타 정보와 함께 적어도 하나의 제 1 객체 정보를 결정하고 제 2 주변 정보로부터 제 2 객체 정보를 참조하는 제 2 메타 정보와 함께 적어도 하나의 제 2 객체 정보를 결정하는 단계(130)를 포함한다. 또한, 상기 방법(100)은 제 1 객체 정보와 제 2 객체 정보 사이의 편차와 허용 오차 범위의 비교에 기초해서 제 1 및 제 2 메타 정보를 서로 할당하는 단계를 제공한다.
따라서 공개된 방법과 달리, 상이한 데이터 소스들로부터 객체 정보의 할당은 예를 들어 주변 정보를 수신한 직후가 아니라, 메타 정보의 할당을 통해 이루어진다.
상기 방법(100)은 메타 정보의 할당에 기초하여 연속적으로 측정된 제 1 및 제 2 객체 정보의 할당의 (지속적인) 업데이트를 위해 반복적으로 수행될 수 있다.
상기 방법(100)은, 예를 들어 차량(200)에 설치된, 도 2에 도시된 바와 같은 장치(210)에 의해 수행될 수 있다. 장치(200)는 하나 이상의 인터페이스(214) 및 제어 모듈(212)을 포함한다. 하나 이상의 인터페이스(214)는 예를 들어 제 1 주변 정보를 수집하기(110) 위한 센서(도시되지 않음)에 대한 적어도 하나의 인터페이스를 포함한다. 또한, 하나 이상의 인터페이스(214)는 제 2 주변 정보를 수신하기 (120) 위한 송신기(도시되지 않음)에 대한 적어도 하나의 인터페이스를 포함한다.
제어 모듈(212)은 예를 들어 제 1 또는 제 2 주변 정보로부터 제 1 및 제 2 객체 정보를 각각 결정하기(130) 위한 프로세서 또는 컴퓨터를 포함한다. 또한, 제어 모듈(212)은 제 1 및 제 2 객체 정보를 할당하도록(140) 설계된다.
따라서, 상이한 데이터 소스들은 차량(200)의 센서 및 차량(200)에서 분리된 적어도 하나의 송신기를 포함하고, 상기 송신기는 예를 들어 다른 도로 사용자와 통신하기 위해 이용된다. 따라서 전술한 방식으로 다른 도로 사용자와 "협력"하여 소위 "협력적 주변 모델"이 생성될 수 있다.
도 3은 방법(100)의 실시예를 개략적으로 도시한다. 협력적 주변 모델을 위한 입력 데이터는 제 1 및 제 2 주변 정보를 형성하며, 상기 주변 정보는 주변에 있는 여러 객체에 관한 객체 정보를 포함하는 객체 목록으로서 간주할 수 있다. 이들은 여기에 예시적으로 명시된 실시예에서 3개의 다양한 데이터 소스들로부터 나온다.
도시된 실시예에서, 제 1 주변 정보는 차량에 설치된 센서로부터 센서 데이터로부터 생성된 "로컬 차량 주변 모델"(310)을 포함하고, 제 2 주변 정보는 집합적 지각 메시지(330)(collective perception message, CPM) 및 협력적 인식 메시지(320)(cooperative awareness message, CAM)를 포함한다.
CAM(320)은 다른 차량에 의해 감지된 위험 상황(예를 들어 임박한 교통 체증 또는 정체중인 다른 차량)과 관련한 정보를 포함하는, 예를 들어 주변에 있는 다른 차량으로부터 전송된 메시지이다. CPM(330)은 예를 들어 고정 설치된 송신기 또는 다른 차량으로부터 전송된 메시지이고, 상기 메시지는 송신기 또는 다른 차량에 연결된 센서 시스템의 센서 데이터에 기반하는 정보를 포함한다.
입력 데이터는 수신 시 협력적 주변 모델(변경되지 않음, 분류되지 않음, 연계되지 않음)의 메모리(도시되지 않음)에 저장된다. 로컬 차량 주변 모델(310)로부터 수신된 데이터는 이러한 소스의 이전에 수신된 데이터를 덮어쓴다. 이미 검출된 객체들에 대해 이전에 수신된 메시지(CAM 및 CPM)의 객체 정보는 CAM(320) 및 CPM(330)의 객체 정보로 업데이트된다. 먼저 기록되지 않은 객체의 CAM(320) 또는 CPM(330)의 객체 정보는 새 메모리에 저장된다.
로컬 차량 주변 모델(310)은 제 1 객체 정보(31)를 포함한다. CAM(320) 및 CPM(330)은 각각 제 2 객체 정보(32 및 33) 중 하나를 포함한다. 제 1 및 제 2 객체 정보(31, 32 및 33)는 예를 들어 주변에 있는 객체들의 감지된 각 차량 위치를 나타낸다. 차량 위치(31, 32 및 33)는 기본적으로 동일한 또는 상이한 객체들(차량, 장애물 또는 사람)과 관련될 수 있다.
차량 위치(31)에 제 1 메타 정보(31p)가 할당되고, 차량 위치(32 및 33)에 제 2 메타 정보(32p 또는 33p)가 할당될 수 있고, 상기 메타 정보는 소위 "맵핑 데이터 베이스(Mapping Database")에 차량 위치(31, 32 및 33)와 별도로 저장될 수 있다. 이미 검출된 객체들에 대한 맵핑 데이터 베이스에 저장된 메타 정보는 업데이트될 수 있고, 새로 검출된 객체들에 대한 메타 정보는 맵핑 데이터 베이스에 추가될 수 있다.
메타 정보(31p, 32p 및 33p)는 차량 위치(31, 32 및 33)를 래퍼런싱하는 참조, 지표 또는 "포인터"로서 이해될 수 있으며, 예를 들어 차량 위치(31, 32 및 33)에 관련된 차량 식별 문자, 타임스탬프 및/또는 참조 문자를 포함한다. 타임스탬프는 차량 위치(31, 32 및 33)를 측정할 때의 시점을 나타낼 수 있다. 차량 식별 문자는 예를 들어 차량 위치(31, 32 및 33)가 할당된 주변에 있는 차량에 대한 명확한 코드이다. "이전" 메타 정보는 예를 들어 "최근/최신" 메타 정보와 동일한 식별 문자로 업데이트될 수 있다.
차량 위치(31, 32 및 33)에 할당된 차량 식별 문자들은, 차량 위치(31, 32 및 33)가 동일한 차량에 관련되더라도 상이할 수 있는데, 그 이유는 센서와 송신기가 차량 식별 문자를 서로 독립적으로 결정하기 때문이다. 참조 문자는 예를 들어 해당하는 차량 위치(31, 32 또는 33)를 참조한다.
후속 단계(34)는 차량 위치(31, 32 및 33) 및 각각의 관련 타임스탬프에 기초한 보간 또는 외삽에 의해 공통 시점에 대해 차량 위치(31, 32 및 33)를 맵핑하는 단계를 포함한다.
추가 단계(35)에서 조정 알고리즘("매칭")에 의해, 다양한 데이터 소스의 어떤 객체들이 동일한 실제 객체에 할당될 수 있는지 확인된다. 단계(35)에서는 공통 시점에 대해 맵핑된 차량 위치(31, 32 및 33)의 편차의 비교에 기초해서 행해질 수 있다. 편차가 허용 오차 범위 이내인 경우, 공통 시점에 대해 맵핑된 차량 위치들의 메타 정보는 (공통 시점에 대해 차량 위치들의 맵핑)은 서로 할당될 수 있다. 본 경우에 허용 오차 범위는 차량 위치들의 맵핑 사이의 간격에 대해 미리 정해진 값 범위로서 간주할 수 있다. 본 실시예에서, 예를 들어 메타 정보(31p, 33p)는 서로 할당된다. 편차가 허용 오차 범위를 벗어난 경우, 본 예에서 메타 정보(32p)의 경우와 같이, 차량 위치들의 고려되는 맵핑과 관련된 메타 정보들 간의 할당은 제외된다.
메타 정보(31p 및 33p)의 할당에 기초해서, 관련 차량 위치(31 및 33)는 서로 할당되고, 후속 단계(36)에서 병합되어 제 3 객체 정보(38)를 형성할 수 있다. 제 3 객체 정보(38)는, 예를 들어 차량 위치(31 및 33)로부터 평균화된 하나의 차량 위치(31 및 33) 또는 차량 위치(31 및 33) 중 하나인 위치 자체와 같은 조합에 해당할 수 있다.
전술한 방식으로 같은/동일한 차량들의 객체 정보들을 (여기서는 차량 위치들) 서로 할당하고 병합하기 위해 허용 오차 범위는, 0.5미터 미만 간격의 차량 위치들의 맵핑들이 서로 할당되도록 선택될 수 있다. 이로 인해, 이러한 허용 오차 범위 내의 편차를 갖는 차량 위치들은 동일한 차량에 할당될 가능성이 있다. 이용예에 따라 상기 간격은 더 크게 또는 더 작게 선택될 수 있다.
본 예에서 차량 위치들(31 및 33)은 동일한 차량에 관련되고, 따라서 "중복"으로 간주될 수 있다.
예를 들어 평균화된 차량 위치(38)는 본 경우에 공통 목록(39)에 차량 위치(32)와 함께 출력된다. 일반적으로, 목록(39)은 병합된 객체 정보들 [예를 들어 제3 객체 정보(38)] 및 다른 객체 정보에 할당되지 않았던 추가 객체 정보로 생성될 수 있다. 목록(39)은 특히 전술한 방법을 반복적으로 수행하는 경우에, 병합된 객체 정보들을 포함하는 이전에 생성된 목록을 업데이트함으로써 생성될 수 있다.
(중복) 차량 위치(31 및 33)를 병합함으로써 공통 목록(39)은 로컬 차량 주변 모델(310), CAM(320) 및/또는 CPM(330) 사이에 존재하는 것보다 적은 중복을 갖는다.
목록(39)은 이어서 협력적 주변 모델을 생성 또는 업데이트하기 위해 그리고 그에 따라서 차량의 자동화된 제어를 위해 사용될 수 있다. 협력적 주변 모델을 업데이트하거나 생성하기 위해 목록(39)의 데이터 처리 시 이를 위해 필요한 계산 복잡성은 중복 감소로 인해 로컬 차량 주변 모델(310), CAM(320) 및 CPM(330)의 별도의 데이터 처리 시보다 낮을 수 있다.
차량 위치(31, 32 및 33)를 보유함으로써, 업데이트된 협력적 주변 모델을 생성하기 위해 경우에 따라 메타 정보의 추후에 요구되는 새로운 할당 시 다시 상기 차량 위치에 액세스할 수 있다.
상기 방법(100)은 당업자에게 공개된 적절한 조정하에 다른 종류의 제 1 및 제 2 객체 정보에 적용될 수 있다는 사실은 당업자에게 공공연한 사실이다. 다른 종류의 객체 정보의 예로는 주변에 있는 차량/사람/장애물의 크기, 형상, 속도, 가속도 또는 다른 이동 파라미터를 포함할 수 있다.
도 4a 내지 도 4c는 방법(100)의 추가 실시예를 도시한다.
도 4a에 센서 데이터로부터 파생된 로컬 차량 주변 모델(310)은 제 1 객체 정보를 포함한다. 도시된 예에서 이것은 주변에 있는 제 1 차량 및 제 2 차량의 측정된 차량 위치(312, 314)이다.
CAM(320) 및 CPM(330)은 제 2 객체 정보를 포함한다. 도시된 예에서 CAM(320)은 제 1 차량의 측정된 추가 차량 위치(322)를 포함하고, CPM(330)은 제 2 차량의 측정된 추가 차량 위치(334)를 포함한다.
도 4a에서 볼 수 있는 바와 같이, 측정된 차량 위치들(312, 314, 322 및 334)은 객체 데이터 베이스(340)의 별도의 목록(341, 342 또는 343)에 저장된다. 로컬 차량 주변 모델(310)의 객체 정보 [즉, 특히 차량 위치(312 및 314)]는 예를 들어 목록(341)에 저장된 이전 객체 정보를 대체한다. CAM(320) 및 CPM(330)의 객체 정보, 즉 특히 차량 위치(322 및 334)는 앞선 CAM 또는 CPM의 이전 객체 정보(323 및 335)를 포함하고 있는 관련 목록(342 및 343)에 추가된다.
데이터 관리("housekeeping")를 위한 객체 데이터 베이스의 기능(350)은 먼저 수신된 CAM 또는 CPM의, 목록(342 및 343)에 저장된 객체 정보/차량 위치를 분류할 수 있다. 이를 위해 차량 위치에 확실한 유효 기간이 할당될 수 있다. 차량 위치들이 업데이트되지 않고 목록(242, 243)에 저장되기 시작한 시간이 유효 기간을 초과한 경우, 기능(350)은 보다 최근의 객체 정보를 위한 저장 공간을 확보하기 위해 해당 객체 정보를 분류할 수 있다. 특히, 이로 인해 예를 들어 센서에 의해 더는 인식되지 않는 객체들의 객체 정보는 가능한 오류 감지를 저지하기 위해 폐기된다.
차량 위치(312, 314, 322, 323, 334 및 335)에 할당된 각각의 메타 정보(312p, 314p, 322p, 323p, 334p 및 335p)는 맵핑 데이터 베이스(360)에서 대응하는 메타 정보 목록(341p, 342p, 343p)에 저장된다. 이전의 실시예에 대해 이미 설명한 바와 같이, 메타 정보(312p, 314p, 322p, 323p, 334p 및 335p)는 각각 식별 문자("ID"), 타임스탬프("Timestamp") 및 참조 문자("Ref")를 포함한다. 타임스탬프는 차량 위치(312, 314, 322, 323, 334 및 335)가 측정되었던 시점 및/또는 메타 정보(312p, 314p, 322p, 323p, 334p 및 335p)가 맵핑 데이터 베이스(360)에 저장되었던 시점을 나타낸다. CPM(330)에 속하는 메타 정보들의 목록(343p)은, CPM(330)이 예를 들어 여러 차량의 차량 주변 모델 또는 주변 측정에 기초하기 때문에, 동일한 객체에 관련된 메타 정보(334p)의 여러 항목을 포함한다.
식별 문자는 객체 또는 차량에 대한 메타 정보들의 연계를 나타낸다. 따라서 동일한 객체/차량에 속하는 동일한 데이터 소스의 메타 정보는 예를 들어 동일한 식별 문자를 갖는다. 식별 문자를 고려하여, 특히 방법(100)을 반복해서 수행할 때 이전에 맵핑 데이터 베이스(360)에 저장된, 동일한 데이터 소스 (예를 들어 CAM 또는 CPM)의 메타 정보는 동일한 객체/차량의 업데이트된 메타 정보로 대체될 수 있다. 추가 메타 정보에 의한 업데이트 또는 확인 없이 그것의 유효 기간보다 오랫동안 맵핑 데이터 베이스(360)에 저장된 메타 정보는, 저장 공간을 확보하기 위해 분류될 수 있다.
메타 정보 목록(341p 및 342p)의 비교 병치(362)의 예에서 설명하는 바와 같이, 메타 정보(312p, 314p, 322p 및 323p)는 처음에는 서로 할당되지 않고, 서로 연계되거나 그에 따라 분류된다.
일반적으로 차량 위치(312, 314, 322, 323, 334 및 335)는 상이한 시점에 측정/결정되었을 수 있다. 따라서 관련 메타 정보에 포함된 타임스탬프들은 상이할 수 있다.
도 4b에 도시된 바와 같이, 공통 시점에 대해 차량 위치들이 맵핑될 수 있다. 도 4b에서 이는 차량 위치(312 및 322)에 대해 예시적으로 도시된다.
도 4b의 제 1 다이어그램(371)에서, 차량 위치(312)에 관련된 타임스탬프(312t) 및 차량 위치(322)에 관련된 타임스탬프(322t)가 시간 축(371t)에 표시된다. 도시된 바와 같이, 차량 위치(312 및 322)의 측정 시간은 다르다.
차량 위치(312 및 322)가 동일한 차량과 관련되어 있는지 여부를 평가할 수 있도록, 다이어그램(371)에 개략적으로 표시된 바와 같이, 차량 위치(312 및 322)는 시간적으로 타임스탬프(312t, 322t) 이후의 (추후) 공통 시점에 대해 맵핑될 수 있다. 따라서 이러한 맵핑은 "예측" 또는 "예보"로 파악될 수 있다.
그 결과 생성된 맵핑(312a 및 322a)은 관련 차량 위치(312 및 322)에 메타 데이터를 할당하기 위한 후속 절차를 설명하기 위해 제 2 다이어그램(372)의 위치 좌표(372x 및 372y)에 도시된다.
맵핑(312a 및 322a)은 차량 위치(312 및 322) 및 관련 타임스탬프(312t 및 322t)에 기초한 외삽에 의해 생성될 수 있다. 칼만 필터가 외삽에 이용될 수 있으며, 상기 칼만 필터는 입력 변수로서 차량 위치(312 및 322), 타임스탬프(312t 및 322t) 및 예를 들어 차량 위치에 할당된 속도, 가속도 및/또는 이전에 측정된 차량 위치에 기초해서 맵핑(312a 및 322a)을 생성할 수 있다.
전술한 외삽은 해당하는 조정 알고리즘의 실행하에 소위 예측 모듈에서 진행할 수 있다.
칼만 필터 외에 추가 외삽 방법 또는 보간 방법이 공통 시점(302t)에 대해 차량 위치(312 및 322)를 맵핑하기 위해 고려될 수 있다는 것은 당업자에게 명백하다.
다이어그램(372)에 개략적으로 도시된 바와 같이, 차량 위치(312 및 322)의 맵핑(312a 및 322a)의 편차는, 차량 위치(312 및 322)가 동일한 차량에 할당되고 따라서 중복되는지 여부를 평가하는데 사용될 수 있다. 맵핑(312a, 322a)의 편차가 허용 오차 범위 내에 있는지 확인하기 위해, 차량 위치의 맵핑(312a, 322a)이 각각 차량 위치의 각각 다른 맵핑(312a, 322a) 둘레에 반경(312r 또는 322r)을 갖는 허용 오차 범위 내에 있는지 여부가 결정될 수 있다.
도시된 예에서 맵핑(312a 및 322a)은 예를 들어 허용 오차 범위 내에 있다. 이에 따라, 맵핑(312a 및 322a)은 주변에 있는 동일한 (제 1) 차량에 관련되는 것이 명백하다. 따라서 도 4c에 도시된 것처럼, 메타 정보(312p 및 322p) 및 로컬 차량 주변 모델(310)의, CAM(320)의, 또는 객체 데이터 베이스(340)의 목록(341 및 342)의, 서로 할당된 메타 정보(312p 및 322p)에 연계된 차량 위치(312 및 322)는 서로 할당될 수 있다.
나머지 차량 위치에서 중복 확인을 위해 유사하게 진행될 수 있다. 이로 인해 예를 들어, 메타 정보(314p 및 344p) 및 관련 차량 위치(314 및 344)가 동일한 (제 2) 차량에 할당될 수 있고, 따라서 서로 할당될 수 있음이 입증될 수 있다.
방법(100)의 반복적인 실행 시, 칼만 필터에 의해 증분, 즉 상이한 데이터 소스들 [로컬 차량 주변 모델(310), CAM(320) 및 CPM(330)]로부터 차량 위치들 및 이들의 상호 편차의 단계적으로 연속하는 추적이 구현될 수 있다. 이러한 방식으로 특정한 할당이 연속해서 확인되고 필요한 경우 업데이트될 수 있다. 다른 외삽 방법과 달리 칼만 필터를 사용하여 바람직한 평활화가 달성될 수 있다. 예를 들어, 칼만 필터에 의해 차량 위치들의 연속적으로 결정된 맵핑의 과정의 평활화 및 더 높은 추적 신뢰도가 달성될 수 있다.
메타 정보(312p 및 322p) 및 메타 정보(314p 및 344p)의 할당은 도 4c의 비교 병치(362)에 설명되어 있다.
도 4c가 더 도시하는 바와 같이, 서로 할당된 차량 위치(312, 322 및 314, 334)에 기초하여 제 3 객체 정보(382 또는 384)가 생성될 수 있고, 상기 객체 정보는 차량 위치(312, 322 또는 314, 334)의 조합된 값에 또는 개별 차량 위치(312, 322 또는 314, 334)에 대응할 수 있다. 이를 위해, 해당 차량 위치(312, 322, 314 및/또는 334)는 말하자면 목록(341, 342 및/또는 343)으로부터 "추출"되고, 필요하다면 조합되거나 출력 목록(380)에 삽입된다. 제 3 객체 정보(382, 384)는 측정된 추가 차량 위치에 할당될 수 없는 차량 위치(323, 335)와 함께 출력 목록(380)에 제공되고 저장된다.
많은 경우에, 방법(100)의 선행하는 실행에 따라 메타 정보들의 이전에 결정된 할당은 차량 위치(312, 322, 314 및 334)의 업데이트된/최근에 결정된 할당을 고려하여 다시 취소되거나 확인될 수 있다. "직접" 연계 또는 할당과 달리, 관련 메타 정보의 할당에 기초하여 차량 위치들(312, 322, 314 및 334)의 할당의 업데이트(취소 또는 확인)는 더 효율적일 수 있다.
특히 방법(100)이 반복적으로 수행될 때, 출력 목록(380)은 따라서 차량 위치들의 업데이트된 할당에 기초하여 이전에 결정된 출력 목록을 업데이트함으로써 결정될 수 있다.
예를 들어 차량 위치들(312, 322 또는 314, 334) 사이의 중복은 이러한 차량 위치의 할당에 의해 출력 목록(380)에 더 이상 포함되지 않거나 적어도 로컬 차량 주변 모델(310), CAM(30) 및 CPM의 차량 위치들의 양에 비해 감소하고, 따라서 출력 목록(380)의 처리 시 컴퓨팅 부하의 바람직하지 않은 증가에 더 이상 일조하지 않는다. 이는 자동 제어식 차량(200)의 주행 거동 및 반응 시간에 바람직하게 작용할 수 있다.
31 객체 정보/차량 위치 31p 메타 정보
32 객체 정보/차량 위치 32p 메타 정보
33 객체 정보/차량 위치 33p 메타 정보
34 단계 35 단계
36 단계 38 제 3 객체 정보
39 목록
100 객체 정보를 병합하기 위한 방법
110 제 1 주변 정보를 검출하는 단계
120 적어도 하나의 제 2 주변 정보를 수신하는 단계
130 제 1 및 제 2 객체 정보를 결정하는 단계
140 제 1 및 제 2 객체 정보를 서로 할당하는 단계
200 차량
210 객체 정보를 병합하기 위한 장치
212 제어 모듈 214 하나 이상의 인터페이스
302t 공통 시점 310 로컬 차량 주변 모델
312 제 1 객체 정보/차량 위치 312a 차량 위치의 맵핑
312p 메타 정보 312r 반경
312t 타임스탬프 314 제 1 객체 정보/차량 위치
314p 메타 정보 320 협력적 인식 메시지/CAM
322 제 2 객체 정보/차량 위치 322a 차량 위치의 맵핑
322p 메타 정보 322r 반경
322t 타임스탬프 323 제 2 객체 정보/차량 위치
323p 메타 정보 330 집합적 지각 메시지/CPM
334 제 2 객체 정보/차량 위치 334p 메타 정보
335 제 2 객체 정보/차량 위치 340 객체 데이터 베이스
341 목록 341p 메타 정보 목록
342 목록 342p 메타 정보 목록
343 목록 343p 메타 정보 목록
360 맵핑 데이터 베이스 362 비교 병치
371 다이어그램 371t 시간축
372 다이어그램 372x 위치 좌표
372y 위치 좌표 380 출력 목록
382 제 3 객체 정보 384 제 3 객체 정보

Claims (10)

  1. 상이한 데이터 소스들로부터 차량(200) 주변에 있는 하나 이상의 객체에 관한 객체 정보(31, 32, 33, 312, 314, 322, 323, 334, 335)를 병합하기 위한 방법(100)으로서,
    상기 차량(200)에 배치된 적어도 하나의 센서로부터 주변에 관한 제 1 주변 정보(310)를 수집하는 단계(110);
    상기 차량(200)에서 분리된 송신기로부터 주변에 관한 적어도 하나의 제 2 주변 정보(320, 330)를 수신하는 단계(120);
    상기 제 1 주변 정보(310)로부터 제 1 객체 정보(31, 312, 314)를 참조하는 제 1 메타 정보(31p, 312p, 314p)와 함께 적어도 하나의 제 1 객체 정보(31, 312, 314)를 결정하고 상기 제 2 주변 정보로부터 제 2 객체 정보(32, 33, 322, 323, 334, 335)를 참조하는 제 2 메타 정보(32p, 33p, 322p, 323p, 334p, 335p)와 함께 적어도 하나의 제 2 객체 정보(32, 33, 322, 323, 334, 335)를 결정하는 단계; 및
    상기 제 1 객체 정보(31, 312, 314)와 상기 제 2 객체 정보(32, 33, 322, 323, 334, 335) 사이의 편차와 허용 오차 범위의 비교에 기초해서 상기 제 1 메타 정보(31p, 312p, 314p)와 상기 제 2 메타 정보(32p, 33p, 322p, 323p, 334p, 335p)를 서로 할당하는 단계(140)
    를 포함하고,
    상기 제 1 메타 정보(31p, 312p, 314p)는 상기 제 1 객체 정보(31, 312, 314)에 속하는 객체의 객체 식별자 및 상기 제 1 객체 정보(31, 312, 314)에 대한 참조를 포함하고, 상기 제 2 메타 정보(32p, 33p, 322p, 323p, 334p, 335p)는 상기 제 2 객체 정보(32, 33, 322, 323, 334, 335)에 속하는 객체의 객체 식별자 및 상기 제 2 객체 정보(32, 33, 322, 323, 334, 335)에 대한 참조를 포함하고,
    상기 제 1 객체 정보(31, 312, 314) 및 상기 제 2 객체 정보(32, 33, 322, 323, 334, 335)는, 각각 하나 이상의 객체들 중 적어도 하나의, 위치, 속도, 가속도, 회전량, 및 크기 중 적어도 하나를 포함하고,
    상기 제 1 객체 정보(31, 312, 314)에 제 1 타임스탬프(312t)가 할당되고, 상기 제 2 객체 정보(32, 33, 322, 323, 334, 335)에 제 2 타임스탬프(322t)가 할당되고,
    상기 제 1 타임스탬프(312t)는 상기 제 2 타임스탬프(322t)와 상이하고,
    상기 제 1 메타 정보와 상기 제 2 메타 정보를 서로 할당하는 단계(140)는,
    공통 시점(302t)에 대해 상기 제 1 객체 정보(31, 312, 314)와 상기 제 2 객체 정보(32, 33, 322, 323, 334, 335)를 맵핑하는 단계 - 상기 공통 시점(302t)은 상기 제 1 타임스탬프(312t) 및 상기 제 2 타임스탬프(322t)와 상이함 -;
    상기 공통 시점(302t)에 대해 상기 제 1 객체 정보(31, 312, 314)와 상기 제 2 객체 정보(32, 33, 322, 323, 334, 335)의 맵핑(312a, 322a) 사이의 편차와 허용 오차 범위의 비교에 기초해서 상기 제 1 객체 정보(31, 312, 314)와 상기 제 2 객체 정보(32, 33, 322, 323, 334, 335)를 서로 할당하는 단계
    를 포함하는 것인, 방법.
  2. 제 1 항에 있어서,
    상기 제 1 메타 정보(31p, 312p, 314p)와 상기 제 2 메타 정보(32p, 33p, 322p, 323p, 334p, 335p)의 할당에 기초해서 상기 제 1 객체 정보(31, 312, 314)와 상기 제 2 객체 정보(32, 33, 322, 323, 334, 335)를 병합하여 제 3 객체 정보(38, 382, 384)를 형성하는 단계를 포함하고, 상기 제 3 객체 정보(38, 382, 384)는 상기 제 1 객체 정보(31, 312, 314), 상기 제 2 객체 정보(32, 33, 322, 323, 334, 335) 또는 제 1 및 제 2 객체 정보의 조합을 포함하는 것인, 방법.
  3. 삭제
  4. 제 1 항에 있어서,
    상기 공통 시점(302t)에 대해 상기 제 1 객체 정보(31, 312, 314)와 상기 제 2 객체 정보(32, 33, 322, 323, 334, 335)를 맵핑하는 단계는, 상기 제 1 객체 정보(31, 312, 314) 및 상기 제 2 객체 정보(32, 33, 322, 323, 334, 335) 중 적어도 하나에 기초해서, 상기 제 1 객체 정보(31, 312, 314)에 할당된 상기 제 1 타임스탬프(312t) 및 상기 제 2 객체 정보(32, 33, 322, 323, 334, 335)에 할당된 상기 제 2 타임스탬프(322t) 중 적어도 하나의 외삽 또는 보간을 포함하는 것인, 방법.
  5. 제 1 항 또는 제 2 항에 있어서,
    상기 센서는, 적어도 하나의 라이다 센서, 레이더 센서, 초음파 센서 또는 카메라를 포함하는 것인, 방법.
  6. 프로그램 코드가 컴퓨터, 프로세서, 제어 모듈 또는 프로그래밍 가능한 하드웨어 구성 요소에서 실행될 때, 제 1 항 또는 제 2 항에 따른 방법들(100) 중 하나를 수행하기 위한 프로그램 코드를 갖는, 매체에 저장된 컴퓨터 프로그램.
  7. 상이한 데이터 소스들로부터 차량(200) 주변에 있는 하나 이상의 객체에 관한 객체 정보(31, 32, 33, 312, 314, 322, 323, 334, 335)를 병합하기 위한 장치(210)로서,
    상기 차량(200)에 배치된 센서 및 차량에서 분리된 송신기와 통신을 위한 하나 이상의 인터페이스(214); 및
    제 1 항 또는 제 2 항에 따른 방법들(100) 중 하나를 수행하기 위한 제어 모듈(212)
    을 포함하는, 장치.
  8. 상이한 데이터 소스들로부터 차량(200)의 주변에 있는 하나 이상의 객체에 관한 객체 정보(31, 32, 33, 312, 314, 322, 323, 334, 335)를 병합하기 위한 제 7 항에 따른 장치(210)를 구비한 차량.
  9. 삭제
  10. 삭제
KR1020210072024A 2020-06-05 2021-06-03 차량 주변에 있는 하나 이상의 객체에 관한 객체 정보를 병합하기 위한 차량, 방법, 컴퓨터 프로그램 및 장치 KR102554686B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102020207065.2A DE102020207065B3 (de) 2020-06-05 2020-06-05 Fahrzeug, Verfahren, Computerprogramm und Vorrichtung zum Zusammenführen von Objektinformationen über ein oder mehrere Objekte in einem Umfeld eines Fahrzeugs
DE102020207065.2 2020-06-05

Publications (2)

Publication Number Publication Date
KR20210152394A KR20210152394A (ko) 2021-12-15
KR102554686B1 true KR102554686B1 (ko) 2023-07-12

Family

ID=74188607

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210072024A KR102554686B1 (ko) 2020-06-05 2021-06-03 차량 주변에 있는 하나 이상의 객체에 관한 객체 정보를 병합하기 위한 차량, 방법, 컴퓨터 프로그램 및 장치

Country Status (7)

Country Link
US (1) US20210383689A1 (ko)
JP (1) JP7150938B2 (ko)
KR (1) KR102554686B1 (ko)
CN (1) CN113781838B (ko)
DE (1) DE102020207065B3 (ko)
FR (1) FR3111227B1 (ko)
GB (1) GB2596219B (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021207860A1 (de) 2021-07-22 2023-01-26 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zum Bestimmen einer Position für ein Ego-Fahrzeug und Fahrzeug

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019234783A1 (ja) 2018-06-04 2019-12-12 日本電気株式会社 情報共有装置、情報共有方法および記録媒体
US20190375425A1 (en) 2018-06-06 2019-12-12 Metawave Corporation Geographically disparate sensor fusion for enhanced target detection and identification in autonomous vehicles

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4716294B2 (ja) * 2008-02-19 2011-07-06 本田技研工業株式会社 車両周辺監視装置、車両、車両周辺監視プログラム
JP2010128637A (ja) * 2008-11-26 2010-06-10 Pioneer Electronic Corp 制動準備促進装置
KR101123737B1 (ko) * 2010-08-31 2012-03-16 서울대학교산학협력단 통신을 이용한 이동체의 탐지영역 확장 방법 및 시스템
WO2013037855A1 (de) * 2011-09-12 2013-03-21 Continental Teves Ag & Co. Ohg Sensorsystem mit einer fahrzeugmodelleinheit
DE102012211391A1 (de) * 2012-07-02 2014-01-02 Continental Teves Ag & Co. Ohg Verfahren und System zur Informationsnutzung
CN104217615B (zh) * 2014-09-16 2016-08-24 武汉理工大学 一种基于车路协同的行人防碰撞系统和方法
EP3156878A1 (en) * 2015-10-14 2017-04-19 Ecole Nationale de l'Aviation Civile Smart pan for representation of physical space
CN105513391A (zh) * 2016-01-19 2016-04-20 吉林大学 一种基于车路协同技术的车载虚拟道路状态显示系统
CN105741546B (zh) * 2016-03-18 2018-06-29 重庆邮电大学 路侧设备与车传感器融合的智能车辆目标跟踪系统及方法
EP3300047A1 (en) * 2016-09-26 2018-03-28 Alcatel Lucent Dynamic traffic guide based on v2v sensor sharing method
EP3462754B1 (en) * 2017-09-28 2021-12-15 Lg Electronics Inc. Apparatus and method for v2x communication
US10635109B2 (en) * 2017-10-17 2020-04-28 Nio Usa, Inc. Vehicle path-planner monitor and controller
US10901428B2 (en) * 2017-12-29 2021-01-26 Intel IP Corporation Working condition classification for sensor fusion
KR102075831B1 (ko) * 2018-01-25 2020-02-10 부산대학교 산학협력단 V2v 통신과 레이다 센서 객체 번호 일치 방법 및 장치
CN108284838A (zh) * 2018-03-27 2018-07-17 杭州欧镭激光技术有限公司 一种用于检测车辆外部环境信息的检测系统及检测方法
US11113971B2 (en) * 2018-06-12 2021-09-07 Baidu Usa Llc V2X communication-based vehicle lane system for autonomous vehicles
DE102018005869A1 (de) * 2018-07-25 2020-01-30 Zf Active Safety Gmbh System zur Erstellung eines Umgebungsmodells eines Fahrzeugs
CN109920246B (zh) * 2019-02-22 2022-02-11 重庆邮电大学 一种基于v2x通信与双目视觉的协同局部路径规划方法
JP2020154913A (ja) * 2019-03-22 2020-09-24 住友電気工業株式会社 物体検出装置及び方法、交通支援サーバ、コンピュータプログラム及びセンサ装置
KR20190091419A (ko) * 2019-07-17 2019-08-06 엘지전자 주식회사 자율주행 차량의 제어방법 및 이를 위한 제어장치
US11410471B2 (en) * 2019-08-22 2022-08-09 Honda Motor Co., Ltd. Systems and methods for providing a data flow for sensor sharing
CN114286925A (zh) * 2019-08-26 2022-04-05 移动眼视觉科技有限公司 用于识别潜在通信障碍的系统和方法
US11910279B2 (en) * 2019-11-15 2024-02-20 Qualcomm Incorporated V2X communication with sensor assistance
RU2764708C1 (ru) * 2020-01-20 2022-01-19 Общество с ограниченной ответственностью "Яндекс Беспилотные Технологии" Способы и системы для обработки данных лидарных датчиков
US11250685B2 (en) * 2020-01-21 2022-02-15 Aptiv Technologies Limited Intra-vehicle situational awareness featuring child presence
US11663726B2 (en) * 2020-01-31 2023-05-30 Zoox, Inc. Object velocity and/or yaw rate detection and tracking
US11625041B2 (en) * 2020-02-21 2023-04-11 Zoox, Inc. Combined track confidence and classification model
US20210300356A1 (en) * 2020-03-25 2021-09-30 Ford Global Technologies, Llc Vehicle uncertainty sharing

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019234783A1 (ja) 2018-06-04 2019-12-12 日本電気株式会社 情報共有装置、情報共有方法および記録媒体
US20190375425A1 (en) 2018-06-06 2019-12-12 Metawave Corporation Geographically disparate sensor fusion for enhanced target detection and identification in autonomous vehicles

Also Published As

Publication number Publication date
CN113781838B (zh) 2023-06-27
FR3111227A1 (fr) 2021-12-10
US20210383689A1 (en) 2021-12-09
JP2021193562A (ja) 2021-12-23
GB2596219B (en) 2023-09-27
FR3111227B1 (fr) 2023-04-14
KR20210152394A (ko) 2021-12-15
GB2596219A (en) 2021-12-22
JP7150938B2 (ja) 2022-10-11
DE102020207065B3 (de) 2021-02-11
CN113781838A (zh) 2021-12-10

Similar Documents

Publication Publication Date Title
EP4075227A1 (en) Method and device for vehicle path planning, intelligent driving domain controller, and intelligent vehicle
CN107972670B (zh) 车辆虚拟地图
Holstein et al. Ethical and social aspects of self-driving cars
US11247695B2 (en) Autonomous vehicle detection
US20180090009A1 (en) Dynamic traffic guide based on v2v sensor sharing method
US10726645B2 (en) Vehicle diagnostic operation
US20200339133A1 (en) Driver distraction determination
CN108351822A (zh) 处理装置及车辆控制系统
US20180124213A1 (en) Vehicle Security System
US20190039612A1 (en) Technologies To Facilitate Automated Driving Assistance Based On Objects Sensed And Reported By Remote Senders
KR102554686B1 (ko) 차량 주변에 있는 하나 이상의 객체에 관한 객체 정보를 병합하기 위한 차량, 방법, 컴퓨터 프로그램 및 장치
KR20210007472A (ko) 차량 단말 및 그의 동작 방법
CN111897304B (zh) 用于机器系统中实时诊断和故障监视的方法、设备和系统
CN111947669A (zh) 用于将基于特征的定位地图用于车辆的方法
WO2021128278A1 (en) Driving safety systems
CN117461061A (zh) 混合车辆通信网络上的装置健康代码广播
CN113460087A (zh) 自动驾驶分级接管交互方法、装置及可读存储介质
CN216002550U (zh) 自动驾驶分级接管交互系统
US11429757B2 (en) Sensor calibration via extrinsic scanning
CN115186732A (zh) 智能驾驶目标融合方法、装置、设备及可读存储介质
CN110969058B (zh) 用于环境目标的融合方法及装置
US20220289246A1 (en) Method, device, and system for controlling autonomous vehicles
US20230365158A1 (en) Determining a minimal risk maneuver for a vehicle
US20240160467A1 (en) Information processing system, information processing method, program, and cluster system
Sugunaraj Accurate Threshold Estimation For Electronic Control Unit (ECU) Signatures In Vehicular Environments

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant