KR102554621B1 - 차량-도로 협업 정보 처리 방법, 장치, 기기, 자율 주행 차량 및 컴퓨터 프로그램 - Google Patents

차량-도로 협업 정보 처리 방법, 장치, 기기, 자율 주행 차량 및 컴퓨터 프로그램 Download PDF

Info

Publication number
KR102554621B1
KR102554621B1 KR1020210038218A KR20210038218A KR102554621B1 KR 102554621 B1 KR102554621 B1 KR 102554621B1 KR 1020210038218 A KR1020210038218 A KR 1020210038218A KR 20210038218 A KR20210038218 A KR 20210038218A KR 102554621 B1 KR102554621 B1 KR 102554621B1
Authority
KR
South Korea
Prior art keywords
data
vehicle
obstacle
target
target vehicle
Prior art date
Application number
KR1020210038218A
Other languages
English (en)
Other versions
KR20210040325A (ko
Inventor
후오 카오
Original Assignee
아폴로 인텔리전트 커넥티비티 (베이징) 테크놀로지 씨오., 엘티디.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아폴로 인텔리전트 커넥티비티 (베이징) 테크놀로지 씨오., 엘티디. filed Critical 아폴로 인텔리전트 커넥티비티 (베이징) 테크놀로지 씨오., 엘티디.
Publication of KR20210040325A publication Critical patent/KR20210040325A/ko
Application granted granted Critical
Publication of KR102554621B1 publication Critical patent/KR102554621B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • G08G1/163Decentralised systems, e.g. inter-vehicle communication involving continuous checking
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/44Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for communication between vehicles and infrastructures, e.g. vehicle-to-cloud [V2C] or vehicle-to-home [V2H]

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Atmospheric Sciences (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

본 출원은 차량-도로 협업 정보 처리 방법, 장치, 기기, 자율 주행 차량 및 컴퓨터 프로그램을 개시하고, 지능형 교통, 자율 주행 및 차량-도로 협업 분야에 관한 것이다. 구체적인 구현 방안은: 타겟 차량에 의해 감지되는 타겟 차량 주변에 위치한 장애물 데이터를 포함하는 타겟 차량의 제1 차량 탑재 감지 데이터를 획득하며; 타겟 차량의 포지셔닝 데이터에 근거하여, 타겟 차량을 표현하기 위한 가상 장애물 데이터를 생성하며; 가상 장애물 데이터 및 제1 차량 탑재 감지 데이터에 기반하여, 제2 차량 탑재 감지 데이터를 생성하며; 제2 차량 탑재 감지 데이터와 노변 감지 데이터를 융합하여 융합 데이터를 획득하고, 융합 데이터는 상기 제2 차량 탑재 감지 데이터와 노변 감지 데이터 내의 모든 장애물에 대한 장애물 데이터를 포함하고; 노변 감지 데이터의 장애물 데이터는 타겟 차량을 표현하는 장애물 데이터를 포함한다. 본 출원의 실시예는 메인 차량의 병합 발견 전량 감지 융합 프레임워크에 적용되고, 데이터를 융합하는 동작 과정을 간소화할 수 있다.

Description

차량-도로 협업 정보 처리 방법, 장치, 기기, 자율 주행 차량 및 컴퓨터 프로그램{VEHICLE-TO-INFRASTRUCTURE COOPERATION INFORMATION PROCESSING METHOD, APPARATUS, DEVICE AND AUTONOMOUS VEHICLE}
본 출원은 지능형 교통, 자율 주행 및 차량-도로 협업 분야에 관한 것이다.
지능형 주행 차량의 데이터 수집 및 처리를 돕기 위해, 종래 기술은 종종 차량 탑재형 감지 시스템을 사용하여 차량이 주행할 때 주변 환경 도로 데이터를 획득한다. 차량 탑재형 감지 시스템 자체가 정보수집 누락이 존재하기 때문에, 노변 감지 시스템에 의해 획득된 도로 환경 데이터를 사용하여 데이터 융합을 진행할 수 있다. 노변 감지 시스템에 의해 획득된 데이터 및 탑재형 감지 시스템에 의해 획득된 데이터는 누락 데이터를 서로 보완하는 역할을 한다. 그러나, 이 두종류의 데이터는 두개의 상이한 데이터 수집 시스템에 의해 수집되고, 융합할 때 많은 데이터 처리 동작을 수행할 필요가 있고, 두 종류의 데이터를 신속하고 정확하게 융합할 수 있는 데이터 융합 방법을 필요로 한다. 일본 공개특허공보 특개2008-191988호(2008.08.21.)에서는 '차량 주변 감시 장치'에 관한 내용을 개시하고 있다.
종래의 기술 중 적어도 하나의 문제를 해결하기 위해, 본 출원의 실시예는 차량-도로 협업 정보 처리 방법, 장치, 기기 및 자율 주행 차량을 제공한다.
제1 측면에 따르면, 본 출원의 실시예는 차량-도로 협업 정보 처리 방법을 제공하고, 상기 방법은,
타겟 차량에 의해 감지되는 타겟 차량 주변에 위치한 장애물 데이터를 포함하는 타겟 차량의 제1 차량 탑재 감지 데이터를 획득하는 단계;
타겟 차량의 포지셔닝 데이터에 근거하여, 타겟 차량을 표현하기 위한 가상 장애물 데이터를 생성하는 단계;
가상 장애물 데이터 및 제1 차량 탑재 감지 데이터에 기반하여, 제2 차량 탑재 감지 데이터를 생성하는 단계; 및
제2 차량 탑재 감지 데이터와 노변 감지 데이터를 융합하여, 융합 데이터를 획득하는 단계; 를 포함하고, 융합 데이터는 제2 차량 탑재 감지 데이터와 노변 감지 데이터 내의 모든 장애물의 장애물 데이터를 포함하고, 노변 감지 데이터의 장애물 데이터는 타겟 차량을 표현하는 장애물 데이터를 포함한다.
제2 측면에 따르면, 본 출원의 실시예는 차량-도로 협업 정보 처리 장치를 제공하고, 상기 장치는,
타겟 차량에 의해 감지되는 타겟 차량 주변에 위치한 장애물 데이터를 포함하는 타겟 차량의 제1 차량 탑재 감지 데이터를 획득하기 위한 제1 차량 탑재 감지 데이터 모듈;
타겟 차량의 포지셔닝 데이터에 근거하여 타겟 차량을 표현하기 위한 가상 장애물 데이터를 생성하기 위한 가상 장애물 데이터 모듈;
가상 장애물 데이터 및 제1 차량 탑재 감지 데이터에 기반하여, 제2 차량 탑재 감지 데이터를 획득하기 위한 제2 차량 탑재 감지 데이터 모듈; 및
제2 차량 탑재 감지 데이터와 노변 감지 데이터를 융합하여 융합 데이터를 획득하기 위한 제1 융합 모듈; 을 포함하고, 융합 데이터는 제2 차량 탑재 감지 데이터와 노변 감지 데이터 내의 모든 장애물의 장애물 데이터를 포함하고, 노변 감지 데이터의 장애물 데이터는 타겟 차량을 표현하는 장애물 데이터를 포함한다.
제3 측면에 따르면, 본 출원의 실시예는 전자기기를 제공하고, 상기 전자기기는,
적어도 하나의 프로세서; 및
적어도 하나의 프로세서와 통신연결된 메모리를 포함하고, 그 중,
메모리는 상기 적어도 하나의 프로세서에 의해 실행될 수 있는 명령을 저장하며, 명령은 적어도 하나의 프로세서에 의해 실행되어, 적어도 하나의 프로세서로 하여금 본 출원의 어느 한 실시예에서 제공하는 방법을 수행하도록 한다.
제4 측면에 따르면, 본 출원의 실시예는 컴퓨터 명령이 저장되는 비일시적 컴퓨터 판독가능 저장 매체를 제공하고, 컴퓨터 명령은 상기 컴퓨터로 하여금 본 출원의 어느 한 실시예에서 제공하는 방법을 수행하도록 하는 것을 특징으로 한다.
제5 측면에 따르면, 본 출원의 실시예는 자율 주행 차량을 제공하고, 상기 자율 주행 차량은 본 출원의 어느 한 실시예에서 제공하는 전자기기를 포함한다.
상기 출원의 하나의 실시예는 다음과 같은 장점 또는 유익한 효과를 갖는다. 타겟 차량의 차량 감지 시스템에 의해 획득된 제1 차량 탑재 감지 데이터에, 타겟 차량의 가상 장애물 데이터를 추가하여, 제2 차량 탑재 감지 데이터를 획득한 후, 제2 차량 탑재 감지 데이터와 노변 감지 시스템에 의해 획득된 노변 감지 데이터를 융합시키고, 제1 차량 탑재 감지 데이터를 처리하는 동작을 용이하게 수행하고, 차량 수집 시스템에 의한 수집 데이터가 생성된 후 바로 수행할 수 있기 때문에, 간소화된 데이터 전처리 작업을 통해, 제2 차량 탑재 감지 데이터와 노변 감지 데이터를 더 빠른 융합 동작을 통해 융합할 수 있고, 하위 제품의 융합 데이터 사용을 위해 더욱 효율적인 준비 데이터를 제공할 수 있다.
전술한 선택적인 방식이 가지는 기타 효과는 구체적인 실시예를 결부하여 이하에서 설명될 것이다.
도면은 본 기술방안을 더욱 잘 이해할수 있기 위한 것이지, 본 출원에 대한 한정이 아니다.
도 1은 본 출원의 실시예에 따른 차량-도로 협업 정보 처리 방법의 개략도1이다.
도 2는 본 출원의 다른 실시예에 따른 차량-도로 협업 정보 처리 방법의 개략도2이다.
도 3은 본 출원의 일 실시예에 따른 차량-도로 협업 정보 처리의 개략도이다.
도 4는 본 출원의 일 실시예에 따른 차량-도로 협업 정보 처리 장치의 개략도1이다.
도 5는 본 출원의 일 실시예에 따른 차량-도로 협업 정보 처리 장치의 개략도2이다.
도 6은 본 출원의 일 실시예에 따른 차량-도로 협업 정보 처리 장치의 개략도3이다.
도 7은 본 출원의 일 실시예에 따른 차량-도로 협업 정보 처리 장치의 개략도4이다.
도 8은 본 출원의 일 실시예에 따른 차량-도로 협업 정보 처리 장치의 개략도5이다.
도 9는 본 출원의 일 실시예에 따른 차량-도로 협업 정보 처리 장치의 개략도6이다.
도 10은 본 출원의 일 실시예에 따른 차량-도로 협업 정보 처리 장치의 개략도7이다.
도 11은 본 출원의 일 실시예에 따른 차량-도로 협업 정보 처리 장치의 개략도8이다.
도 12는 본 출원의 실시예에 따른 차량-도로 협업 정보 처리 방법을 구현하기 위한 전자기기의 블록도이다.
이하 도면과 결부하여 본 출원의 예시적인 실시예를 설명하되, 여기서 본 출원의 실시예를 포함하는 여러 가지 세부절차는 이해를 돕기 위한 것으로서, 이들은 응당 예시적인 것으로 간주해야 한다. 따라서 해당 분야 기술자들은 여기서 설명한 실시예에 대하여 여러 가지 변화와 수정을 진행할 수 있고, 이는 본 출원의 범위와 정신을 벗어나지 않는다는 것을 인식하여야 한다. 마찬가지로, 명확함과 간결함을 위하여, 아래의 설명에서는 공지 기능과 구조에 대한 설명을 생략한다.
본 출원의 실시예는 차량-도로 협업 정보 처리 방법을 제공하고, 도1에 도시된 바와 같이, 해당 방법은,
타겟 차량에 의해 감지되는 타겟 차량 주변에 위치한 장애물 데이터를 포함하는 타겟 차량의 제1 차량 탑재 감지 데이터를 획득하는 단계(S11);
타겟 차량의 포지셔닝 데이터에 근거하여, 타겟 차량을 표현하기 위한 가상 장애물 데이터를 생성하는 단계(S12);
가상 장애물 데이터 및 제1 차량 탑재 감지 데이터에 기반하여, 제2 차량 탑재 감지 데이터를 생성하는 단계(S13); 및
제2 차량 탑재 감지 데이터와 노변 감지 데이터를 융합하여, 융합 데이터를 획득하는 단계(S14); 를 포함하고, 융합 데이터는 제2 차량 탑재 감지 데이터와 노변 감지 데이터 내의 모든 장애물의 장애물 데이터를 포함하고, 노변 감지 데이터의 장애물 데이터는 타겟 차량을 표현하는 장애물 데이터를 포함한다.
본 실시예에서, 제1 차량 탑재 감지 데이터는 타겟 차량의 차량 탑재형 감지 시스템에 의해 획득될 수 있으며, 제1 차량 탑재 감지 데이터는, 타겟 차량 주변에 위치하고 타겟 차량에 의해 감지되는 장애물 데이터를 포함하며, 즉 제1 차량 탑재 감지 데이터는 복수의 장애물 데이터를 포함할 수 있다. 차량 탑재형 감지 시스템은 레이저 레이더, 동영상 촬영 장치 등을 포함할 수 있다.
본 실시예에서, 장애물은 사람, 차량, 동물 또는 도로 내의 고정된 장애물과 같은 차량 탑재형 감지 시스템에 의해 검출될 수 있는 모든 객체를 지칭할 수 있다. 차량 탑재형 감지 시스템에 의해 감지될 수 있는 각 장애물은 제1 차량 탑재 감지 데이터에서 대응하게 하나의 장애물 데이터를 생성한다. 예를 들어, 차량 탑재형 감지 시스템을 통해 타겟 차량 주위의 제1 차량, 제2 차량이 감지되면, 이에 상응하여, 제1 차량 탑재 감지 데이터는 제1 차량의 장애물 데이터 및 제 2 차량의 장애물 데이터를 포함한다.
다른 예를 들어, 차량 탑재형 감지 시스템을 통해, 타겟 차량 주위의 제1 보행자 및 제2 보행자가 감지되면, 이에 상응하여, 제 1 차량 탑재 감지 데이터는 제1 보행자의 장애물 데이터 및 제2 보행자의 장애물 데이터를 포함한다.
제1 차량 탑재 감지 데이터는 타겟 차량에 의해 차량 탑재형 감지 시스템을 통해 감지된 것이기 때문에, 제1 차량 탑재 감지 데이터는 타겟 차량 자체의 장애물 데이터를 포함하지 않고, 일반적으로 타겟 차량 주변의 기타 장애물의 장애물 데이터를 포함한다.
본 실시예에서, 타겟 차량의 포지셔닝 데이터는 차량 탑재형 포지셔닝 장치를 통해 획득될 수 있다. 예를 들어, 차량 탑재형 GPS (Global Position System, 전지구 위치파악시스템)를 통해 타겟 차량의 포지셔닝 데이터를 획득할 수 있다. 다른 예를 들어, 타겟 차량의 포지셔닝 데이터는 차량 탑재형 기지국 포지셔닝 시스템에 의해 획득될 수 있다.
타겟 차량의 포지셔닝 데이터는 구체적으로 타겟 차량의 지리적 좌표 위치, 고 정밀도 맵에서 타겟 차량이 위치한 도로 구간 및 차선 위치, 타겟 차량의 방향(heading) 등을 포함할 수 있다.
타겟 차량의 가상 장애물 데이터는 차량 탑재형 감지 시스템에 의해 실제로 수집된 것이 아니고, 차량 탑재 감지 데이터에서 가상적으로 생성된 것이다. 제1 차량 탑재 감지 데이터에는 타겟 차량의 장애물 데이터가 존재하지 않으므로, 타겟 차량의 포지셔닝 데이터에 근거하여 타겟 차량의 가상 장애물 데이터를 생성하도록 인위적으로 설정한다. 가상 장애물 데이터는 하나의 네모칸 및 방향 정보를 갖는 기타 도형일 수 있고, 가상 장애물 데이터의 방향 정보는 타겟 차량의 실제 방향에 근거하여 설정된다.
가상 장애물 데이터 및 제1 차량 탑재 감지 데이터에 기반하여, 제2 차량 탑재 감지 데이터를 생성하는 단계는, 타겟 차량의 중심의 포지셔닝 데이터에 근거하여, 차량이 위치한 지리적 위치를 확정하고, 가상 장애물의 중심을 제1 차량 탑재 감지 데이터 내의 포지셔닝 데이터에 대응하는 위치에 추가하고, 가상 장애물 데이터가 추가된 제1 차량 탑재 감지 데이터를 제2 차량 탑재 감지 데이터로 하는 것일 수 있다.
본 실시예에서, 노변 감지 데이터는 도로 양측 또는 도로 길목에 배치된 감지 장치에 의해 수집된 도로 상의 교통 데이터일 수 있다. 예를 들어, 노변 감지 데이터는 도로 길목에 배치된 레이더 장치에 의해 수집된 도로의 데이터일 수 있으며; 또는 도로의 양측에 배치된 영상 수집 장치에 의해 수집된 도로의 데이터일 수 있다. 노변 감지 데이터는 노변 감지 시스템에 의해 감지된 모든 장애물을 포함한다. 본 실시예에서 노변 감지 데이터는 타겟 차량과 동일한 도로 구간에 위치한 노변 감지 시스템에 의해 수집된 데이터이고, 노변 감지 시스템은 일반적으로 위치한 도로 구간의 모든 장애물을 감지할 수 있기 때문에, 노변 감지 데이터는 타겟 차량이 노변 감지 시스템에 의해 실제 감지되어 생성된 장애물 데이터가 포함된다.
본 출원의 실시예가 자율 주행 차량에 적용되는 경우, 자율 주행 차량은 차량 탑재 유닛(OBU,On Board Unit)을 통해 노변 감지 시스템과 통신할 수 있고, 노변 감지 시스템은 노변 감지 장치 및 노변 컴퓨팅 장치를 포함하고, 노변 감지 장치에 의해 획득된 감지 데이터는 노변 컴퓨팅 장치로 전송되어 처리되며, 자율 주행 차량은 노변 컴퓨팅 장치에 의해 처리되어 전송된 감지 데이터를 OBU를 통해 수신하여, 그 자체의 노변 감지 데이터와 융합시킨다. 노변 컴퓨팅 장치는 노변 유닛 RSU (Road Side Unit, 노변 유닛)를 통해 OBU와 무선으로 통신할 수도 있고, 또는 직접적으로 OBU 와 무선으로 통신할 수도 있다.
노변 감지 데이터는 적어도 하나 또는 한 그룹의 노변 감지 시스템에 의해 수집된 데이터를 포함한다. 하나 또는 한 그룹의 노변 감지 시스템 각각에 의해 수집된 데이터는 단일 경로 노변 감지 데이터로 되고, 복수 또는 복수 그룹의 노변 감지 시스템에 의해 수집된 데이터는 다중 경로 노변 감지 데이터로 된다. 융합 시에, 다중 경로 노변 감지 데이터가 존재하면, 다중 경로 노변 감지 데이터를 먼저 융합한 후, 다시 제2 차량 탑재 감지 데이터와 융합할 수 있다. 다중 경로 노변 감지 데이터와 제2 차량 탑재 감지 데이터를 동시에 융합할 수도 있다.
제2 차량 탑재 감지 데이터 및 노변 감지 데이터를 융합하는 것은, 제2 차량 탑재 감지 데이터 내의 장애물 데이터와 노변 감지 데이터 내의 장애물 데이터를 융합하여, 제2 차량 탑재 감지 데이터 내의 장애물 데이터와 노변 감지 데이터 내의 장애물 데이터의 합집합을 획득하는 것일 수 있다.
노변 감지 시스템이 타겟 차량의 장애물 데이터를 실제로 수집할 수 있고, 차량 탑재형 감지 장치가 타겟 차량 자체의 장애물 데이터를 수집할 수 없기 때문에, 타겟 차량의 차량 탑재형 감지 시스템에 의해 수집된 데이터와 노변 감지 시스템에 의해 수집된 데이터는 장애물이 일치하지 않는 경우가 있다. 본 발명의 실시예는 타겟 차량의 차량 감지 시스템에 의해 획득된 제1 차량 탑재 감지 데이터에, 타겟 차량의 가상 장애물 데이터를 추가하여, 제2 차량 탑재 감지 데이터를 획득한 후, 제2 차량 탑재 감지 데이터와 노변 감지 시스템에 의해 획득된 노변 감지 데이터를 융합시키고, 제1 차량 탑재 감지 데이터에 대한 처리가 비교적 용이하고, 차량 수집 시스템에 의한 수집 데이터가 생성된 후 바로 수행할 수 있기 때문에, 본 출원의 실시예에서 제공하는 방법은 메인 차량 (타겟 차량)의 병합 발견 전량 감지 융합 프레임워크에 적용되고, 간소화된 데이터 전처리 작업을 통해, 제2 차량 탑재 감지 데이터와 노변 감지 데이터를 더 빠른 융합 동작을 통해 융합할 수 있고, 하위 제품의 융합 데이터의 사용을 위해 더욱 효율적인 준비 데이터를 제공한다.
일 실시방식에서, 타겟 차량의 포지셔닝 데이터에 근거하여, 타겟 차량을 표현하기 위한 가상 장애물 데이터를 생성하는 단계는,
타겟 차량의 외관 정보를 획득하는 단계;
타겟 차량의 외관 정보에 근거하여, 가상 데이터 프레임을 생성하는 단계;
타겟 차량의 포지셔닝 데이터에 근거하여, 타겟 차량의 중심점 위치 및 방향을 획득하는 단계; 및
가상 데이터 프레임과 타겟 차량의 중심점 위치 및 방향에 기반하여, 타겟 차량을 표현하기 위한 가상 장애물 데이터를 생성하는 단계; 를 포함한다.
본 실시예에서, 타겟 차량의 외관 정보는 타겟 차량의 공장 설정 데이터에 의해 획득될 수 있고, 구체적으로 타겟 차량의 모델 번호, 색상 및 크기 등 정보를 포함할 수 있다. 가상 데이터 프레임의 크기 및 형상은 타겟 차량의 외관 정보와 일치할 수 있다.
다른 실시예에서, 포지셔닝 데이터에 근거하여 타겟 차량의 기타 고정 지점의 위치를 획득할 수 있고, 예를 들어, 타겟 차량의 전방 단부의 중점 위치 등을 획득한다. 가상 장애물 데이터 프레임을 타겟 차량의 중심점 위치와 방향 및 타겟 차량의 기타 외관 정보에 따라 설정하여, 가상 장애물 데이터가 제2 차량 탑재 감지 데이터에서 타겟 차량의 외관 정보, 방향 정보, 위치 정보와 일치하는 장애물을 나타내게 한다.
제1 차량 탑재 감지 데이터가 타겟 차량의 차량측에서 생성되므로, 타겟 차량에 대해서 말하자면, 그 자신을 나타내는 하나의 장애물을 제1 차량 탑재 감지 데이터에 추가하면 되고, 데이터 처리량이 적고, 데이터 처리 난이도가 작고, 노변 감지 데이터의 데이터 소스가 증가할 때, 타겟 차량에 대한 데이터 처리 작업도 많지 않아, 데이터 처리 효율이 높다.
하나의 실시방식에서, 가상 장애물 데이터 및 제1 차량 탑재 감지 데이터에 기반하여, 제2 차량 탑재 감지 데이터를 생성하는 단계는,
타겟 차량을 표현하기 위한 가상 장애물 데이터의 유형에 제1 타겟 값을 할당하는 단계; 및
제1 타겟 값이 할당된 가상 장애물 데이터를 제1 차량 탑재 감지 데이터에 추가하여, 제2 차량 탑재 감지 데이터를 획득하는 단계; 를 포함한다.
본 실시예에서, 타겟 차량의 가상 장애물 데이터는 유형 필드를 포함하고, 타겟 차량의 가상 장애물 데이터를 작성할 때, 유형 필드는해당 장애물이 타겟 차량인 것을 나타내기 위해 제1 타겟 값이 할당된다. 또는, 타겟 차량의 가상 장애물 데이터가 작성된 후, 타겟 차량의 가상 장애물 데이터를 제1 차량 탑재 감지 데이터에 추가하여, 제2 차량 탑재 감지 데이터를 획득한 후, 제2 차량 탑재 감지 데이터에서 타겟 차량의 가상 데이터의 유형에 제1 타겟 값을 할당한다.
본 발명의 실시예에서, 타겟 차량의 가상 장애물 데이터의 유형에 제1 타겟 값을 할당하여, 가상 장애물을 기타 장애물과 구별할 수 있으며, 융합 데이터에서 타겟 차량의 장애물 데이터를 식별하여, 타겟 차량 제거 등 동작을 수행하는 후속 동작을 용이하게 한다.
하나의 실시방식에서, 제2 차량 탑재 감지 데이터와 노변 감지 데이터를 융합하여, 융합 데이터를 획득하는 단계는,
제 2 차량 탑재 감지 데이터 내의 타겟 차량을 표현하기 위한 가상 장애물 데이터 및 노변 감지 데이터 내의 타겟 차량을 표현하는 장애물 데이터에 근거하여, 타겟 차량을 표현하기 위한 제1 장애물 데이터를 생성하는 단계;
제2 차량 탑재 감지 데이터 및 노변 감지 데이터에 근거하여, 사각지대 장애물을 확정하고, 사각지대 장애물에 기반하여 제2 장애물 데이터를 생성하는 단계, 여기서 제2장애물 데이터의 유형은 제2 타겟 값이 할당되며; 및
제1 장애물 데이터 및 제2 장애물 데이터에 근거하여, 융합 데이터를 획득하는 단계; 를 포함한다.
본 실시예에서, 제1 장애물 데이터의 유형은 가상 장애물 데이터의 유형에 근거하여 할당된다.
타겟 차량의 가상 장애물 데이터를 제1 장애물 데이터로 직접적으로 사용하고, 제1 장애물 데이터의 유형에 제1 타겟 값을 할당할 수 있다.
노변 감지 데이터 내의 타겟 차량의 장애물 데이터를 제1 장애물 데이터로 직접적으로 사용하고, 제1 장애물 데이터의 유형에 제1 타겟 값을 할당할 수 있다.
타겟 차량의 가상 장애물 데이터 및 타겟 차량의 장애물 데이터를 계산하고, 계산 결과를 제1 장애물 데이터로 사용하며, 제 1 장애물 데이터의 유형에 제1 타겟 값을 할당할 수 있다.
마지막으로, 제1 장애물 데이터 및 융합 데이터 내의 기타 장애물 데이터에 근거하여, 융합 데이터를 획득한다.
타겟 차량의 가상 장애물 데이터 및 타겟 차량의 장애물 데이터에 근거하여, 제1 장애물 데이터를 생성한 후, 제1 장애물 데이터에 근거하여 융합 데이터를 생성하고, 제 1 장애물 데이터의 유형에 제1 타겟 값을 할당하여, 데이터를 융합할 때, 차량 탑재 감지 데이터에서 노변 감지 데이터 내의 타겟 차량과 일치하는 장애물 데이터를 검색하지 못하는 것을 피하기 위해 노변 감지 데이터에서 타겟 차량을 제거할 필요는 없다. 그리고 후속적으로 융합 데이터에서 타겟 차량을 제거할 때, 복수의 장애물 데이터에서 검색할 필요하지 않고, 제1 타겟 값을 통해 제1 장애물 데이터를 직접적으로 식별할 수 있어, 후속 데이터 처리를 위해 편리를 제공한다.
제2 차량 탑재 감지 데이터 및 노변 감지 데이터에 근거하여, 사각지대 장애물을 결정하는 단계는,
제2 차량 탑재 감지 데이터에만 존재하는 장애물을 사각지대 장애물로 확정하는 단계; 및
노변 감지 데이터에만 존재하는 장애물을 사각지대 장애물로 확정하는 단계; 를 포함한다.
다른 실시예에서, 노변 감지 데이터는 또한 복수의 상이한 노변 감지 시스템에 의해 수집된 데이터일 수 있으며, 이런 경우, 각 노변 감지 시스템에 의해 수집된 노변 감지 데이터는 단일 경로 데이터이고, 어느 단일 경로 노변 감지 데이터에서는 누락되였지만 기타 노변 감지 데이터에 존재하거나, 또는 어느 단일 경로 노변 감지 데이터에서는 누락되였지만 제2 차량 탑재 감지 데이터에 존재하는 장애물은 사각지대 장애물이다.
제2 타겟 값은 장애물 데이터에 대응하는 장애물이 사각지대 장애물임을 나타내기 위해 사용된다.
다른 실시예에서, 제2 차량 탑재 감지 데이터 내의 사각지대 장애물 및 노변 감지 데이터 내의 사각지대 장애물에 대해 구분할 수 있다. 상이한 제2 타겟 값을 이용하여 제2 차량 탑재 감지 데이터 내의 사각지대 장애물 및 노변 감지 데이터 내의 사각지대 장애물을 구별하여 할당할 수 있다. 데이터를 융합할 때, 제1 장애물 데이터와 제2 장애물 데이터를 동시에 추가하고, 제1 장애물 데이터 유형에 제1 타겟 값을 할당하고, 제2 장애물 데이터 유형에 제2 타겟 값을 할당하며, 따라서, 융합된 데이터에서 어떤 장애물이 타겟 차량인지, 어느 장애물 또는 어떤 장애물들이 사각지대 장애물인지를 편리하고 신속하게 확정할 수 있고, 타겟 차량 또는 노변 수집 장치의 데이터 수집 사각지대를 확정하기 위해 데이터 지원을 제공할 수 있다.
본 실시예에서, 차량-도로 협업 정보 처리 방법은, 제2 차량 탑재 감지 데이터 내의 비-사각지대 장애물 및 노변 감지 데이터 내의 비-사각지대 장애물을 융합하여, 융합 데이터 내의 적어도 하나의 비-사각지대 장애물을 획득하는 단계를 더 포함한다. 그 후, 융합 데이터를 변환할 때, 비-사각지대 장애물에 대응하는 필드를 충전하고, 비-사각지대 장애물에 대해, 마킹을 하지 않을 수도 있다. 비-사각지대 장애물은 노변 감지 데이터 및 제2 차량 탑재 감지 데이터에 모두 존재하는 장애물이다.
하나의 실시방식에서, 도 2에 도시된 바와 같이, 차량-도로 협업 정보 처리 방법은 다음과 같은 단계를 더 포함한다.
단계(S21)에서, 융합 데이터에 근거하여, 타겟 포맷 내의 충전할 필드를 충전하여, 포맷이 변환된 융합 데이터를 획득하고, 그 중, 타겟 포맷의 데이터는 복수의 충전할 필드를 포함한다.
본 실시예에서, 데이터 포맷을 변환한 후, 융합 데이터를 타겟 차량의 일단에 표시할 수 있다.
본 실시예에서, 데이터를 융합하기 전에, 또한 제1 차량 탑재 감지 데이터와 노변 감지 데이터에 대해 포맷 변환을 각각 수행하여, 동일한 포맷으로 변환한다. 또는, 제2 차량 탑재 감지 데이터와 노변 감지 데이터에 대해 포맷 변환을 각각 수행하여, 동일한 포맷으로 변환한다.
데이터 변환 후, 융합 데이터는 용이하게 데이터 전송될 수 있어, 차량 통신 등의 용도를 구현할 수 있고, 융합된 데이터를 디스플레이 장치에 편리하게 표시할 수 있다.
하나의 실시 방식에서, 융합 데이터에 근거하여, 타겟 포맷 내의 충전할 필드를 충전하여, 포맷이 변환된 융합 데이터를 획득하는 단계는,
상기 타겟 포맷 내의 제1 장애물 데이터에 대응하는 제1 충전할 필드를 건너뛰어, 제1 충전 결과를 획득하는 단계;
상기 융합 데이터 내의 상기 제2 장애물 데이터를 상기 타겟 포맷에서 대응하는 제2 충전할 필드를 충전하고, 사각지대 장애물의 마킹을 추가하여, 제2 충전 결과를 획득하는 단계; 및
제1 충전 결과 및 제2 충전 결과에 근거하여, 포맷이 변환된 융합 데이터를 획득하는 단계; 를 포함하고, 본 실시예에서, 제1 장애물의 타겟 포맷의 데이터에서의 대응되는 필드를 충전할 때, 충전할 필드를 건너뛰어, 충전할 필드를 비워놓고, 따라서 포맷이 변환된 융합 데이터에서 타겟 차량을 제거할 수 있다.
제2 장애물의 타겟 포맷의 데이터에서의 대응하는 필드를 충전할 때, 충전할 필드에 대해 마킹을 하고, 마크를 이용하여 장애물이 사각지대 장애물임을 나타내고, 따라서, 하위의 데이터 사용에 유리하며, 예를 들어, 타겟 차량은 융합 데이터에 근거하여, 자신의 사각지대를 확정할 수 있다.
본 출원의 실시예에서 제공하는 차량-도로 협업 정보 처리 방법은 차량 탑재형 감지 시스템을 구비하지 않은 차량에 적용될 수도 있으며, 단일 경로 또는 다중 경로의 노변 감지 데이터를 융합하는데만 사용된다. 차량 탑재형 감지 시스템을 구비하지 않은 차량에 적용될 때, 단일 경로 또는 다중 경로의 노변 감지 데이터를 융합하여, 노변 감지 데이터에서, 타겟 차량을 식별하여 제거할 수 있고; 단일 경로 또는 다중 경로의 노변 감지 데이터가 융합된 데이터에서, 타겟 차량을 식별하여 제거할 수도 있다.
하나의 예시에서, 본 출원에서 제공하는 차량-도로 협업 정보 처리 방법에 의해 처리된 각 정보는 도 3에 도시된 바와 같이, 먼저, 위치 정보, 제1 차량 탑재 감지 정보 및 노변 감지 정보를 포함하는 다중 경로 콜백 정보를 획득하고, 다중 경로 콜백 정보의 PB (Protocol Buffers,프로토콜 버퍼) 포맷을 통일적인 Object (객체) 포맷의 데이터 구조로 변환하고, 그 후 Object포맷의 다중 경로 데이터를 융합하고, 융합하기 전에, 먼저, 포지셔닝 정보에 근거하여, 제1 차량 탑재 감지 정보에 타겟 차량의 가상 장애물 데이터를 추가하여, 제2 차량 탑재 감지 정보를 획득하고, 그 후 제 2 차량 탑재 감지 정보와 노변 감지 정보를 융합하며, 구체적으로 V2X (Vehicle to Everything, 차량용 무선 통신 기술)의 차량측 융합 어댑터 (Adapter)에 의해 데이터 융합이 수행할 수 있다.
구체적인 동작할 때, 제1 차량 탑재 감지 정보를 Object 데이터 포맷으로 변환하는 동시에, 타겟 차량의 가상 장애물 데이터를 제1 차량 탑재 감지 정보에 추가하여, Object 포맷의 제 2 차량 탑재 감지 정보를 획득한다.
Object 포맷의 제 2 차량 탑재 감지 정보와 Object 포맷의 노변 감지 정보를 융합한 후, Object 포맷의 융합 데이터를 획득하고, Object 포맷의 융합 데이터를 V2X PB 정보 포맷으로 변환할 수 있다.
또한, 차량 탑재 감지 시스템 또는 노변 감지 시스템이 데이터를 캡쳐할 때, 때때로 데이터 누락이 발생할 수 있고, 융합 후 또는 융합 전의 데이터에 대해 타겟 차량 추적을 수행할 수 있으며, 타겟 차량이 누락된 경우, 타겟 차량 데이터를 보충한다. 데이터 융합을 수행할 때, 타겟 차량 추적을 수행하며, 타겟 차량이 누락된 경우, 타겟 차량 데이터를 보충할 수도 있다.
동시에, 융합 후 또는 융합 전의 데이터에 대해 융합 추적을 수행할 수 있으며, 기타 장애물이 누락된 경우, 기타 장애물 데이터를 보충한다. 데이터 융합을 수행할 때, 융합 추적을 수행할 수도 있으며, 기타 장애물이 누락된 경우, 기타 장애물 데이터를 보충한다.
마지막으로, V2X PB 정보 포맷의 융합 데이터에 근거하여, 출력 결과를 획득할 수 있고, 출력 결과는 사각지대 장애물 데이터를 포함한다.
하나의 실시방식에서, 차량-도로 협업 정보 처리 방법은,
융합 데이터에 근거하여 타겟 차량을 제어하는 단계를 더 포함한다.
융합 데이터에 근거하여 타겟 차량을 제어하는 단계는 예를 들어 융합 데이터에 상 차량 탑재 사각지대 차량 및 좀비 차량(공공 도로 및 그의 양측, 주차장, 주택 단지, 녹화지대 등을 장기 점유하여 주차, 장기 무인 유지 및 사용, 외관이 낡고 파손, 먼지 확산, 타이어가 쭈그러듬, 번호판이 미싱 등과 같은 하나 또는 복수의 상황이 존재하는 자동차) 등 노변 감지 데이터 내의 특유한 메시지를 전시하고, 융합 데이터에 근거하여 자율 주행 차량에 대한 결책 및 제어를 수행한다. 예를 들어, 차량 탑재 감지 시스템에 의해 감지되지 않는 사각지대 차량 또는 기타 사각지대 장애물에 대해, 융합 데이터를 통해 발견한 후, 자율 주행 계획 경로에서 장애물을 제때에 피해, 안정상의 위험을 피할 수 있다. 다른 예를 들어, 융합 데이터에 근거하여 확정된 좀비 차량에 대해, 자율 주행 경로를 계획할 때 피할 수 있다.
본 실시예는 노변 감지 메시지 및 차량측 감지 메시지의 융합 문제를 해결하고, 보다 포괄적인 메시지를 제공하며, ,자율 주행 차량의 결책 및 제어를 위해 유리한 정보를 제공한다.
본 출원의 실시예는 차량-도로 협업 정보 처리 장치를 더 제공하고, 도 4에 도시된 바와 같이, 해당 장치는,
타겟 차량에 의해 감지되는 타겟 차량 주변에 위치한 장애물 데이터를 포함하는 타겟 차량의 제1 차량 탑재 감지 데이터를 획득하기 위한 제1 차량 탑재 감지 데이터 모듈(41);
타겟 차량의 포지셔닝 데이터에 근거하여, 타겟 차량을 표현하기 위한 가상 장애물 데이터를 생성하기 위한 가상 장애물 데이터 모듈(42);
가상 장애물 데이터 및 제1 차량 탑재 감지 데이터에 기반하여, 제2 차량 탑재 감지 데이터를 획득하기 위한 제2 차량 탑재 감지 데이터 모듈(43); 및
제2 차량 탑재 감지 데이터와 노변 감지 데이터를 융합하여, 융합 데이터를 획득하기 위한 제1 융합 모듈(44); 을 포함하고, 융합 데이터는 제2 차량 탑재 감지 데이터와 노변 감지 데이터 내의 모든 장애물의 장애물 데이터를 포함하고; 노변 감지 데이터의 장애물 데이터는 타겟 차량을 표현하는 장애물 데이터를 포함한다.
하나의 실시방식에서, 도 5에 도시된 바와 같이, 가상 장애물 데이터 모듈(42)은,
타겟 차량의 외관 정보를 획득하기 위한 외관 유닛(51);
타겟 차량의 외관 정보에 근거하여, 가상 데이터 프레임을 생성하기 위한 데이터 프레임 유닛(52);
타겟 차량의 포지셔닝 데이터에 근거하여, 타겟 차량의 중심점 위치 및 방향을 획득하기 위한 방위 유닛(53); 및
가상 데이터 프레임에 기반하고 타겟 차량의 중심점 위치 및 방향의 설정에 근거하여, 타겟 차량을 표현하기 위한 가상 장애물 데이터를 생성하기 위한 데이터 유닛(54); 을 포함한다.
하나의 실시방식에서, 도 6에 도시된 바와 같이, 제2 차량 탑재 감지 데이터 모듈(43)은,
타겟 차량을 표현하기 위한 가상 장애물 데이터의 유형에 제1 타겟 값을 할당하기 위한 제1 타겟 값 유닛(61); 및
제1 타겟 값이 할당된 가상 장애물 데이터를 제1 차량 탑재 감지 데이터에 추가하여, 제2 차량 탑재 감지 데이터를 획득하기 위한 추가 유닛(62); 을 포함한다.
하나의 실시방식에서, 도 7에 도시된 바와 같이, 제1 융합 모듈(44)은,
제 2 차량 탑재 감지 데이터 내의 타겟 차량을 표현하기 위한 가상 장애물 데이터 및 노변 감지 데이터 내의 타겟 차량을 표현하는 장애물 데이터에 근거하여, 타겟 차량을 표현하기 위한 제1 장애물 데이터를 생성하기 위한 제1 융합 유닛(71);
제2 차량 탑재 감지 데이터 및 노변 감지 데이터에 근거하여, 사각지대 장애물을 결정하고, 사각지대 장애물에 기반하여 제2 장애물 데이터를 생성하기 위한 제2 융합 유닛(72); 여기서, 제2 장애물 데이터의 유형에 제2 타겟 값이 할당되고; 및
제1 장애물 데이터 및 제2 장애물 데이터에 근거하여, 융합 데이터를 획득하기 위한 제3 융합 유닛(73); 을 포함한다.
하나의 실시방식에서, 도 8에 도시된 바와 같이, 장치는,
상기 융합 데이터에 근거하여, 타겟 포맷 내의 충전할 필드를 충전하여, 포맷이 변환된 융합 데이터를 획득하기 위한 변환 모듈(91)을 더 포함하고, 여기서, 상기 타겟 포맷은 복수의 충전할 필드를 포함한다.
하나의 실시방식에서, 도 9에 도시된 바와 같이, 변환 모듈(91)은,
상기 타겟 포맷 내의 제1 장애물 데이터에 대응하는 제1 충전할 필드를 건너뛰어, 제1 충전 결과를 획득하기 위한 제1 변환 유닛(101);
상기 융합 데이터 내의 상기 제2 장애물 데이터를 상기 타겟 포맷에서 대응하는 제2 충전할 필드를 충전하고, 사각지대 장애물의 마킹을 추가하여, 제2 충전 결과를 획득하기 위한 제2 변환 유닛(102); 및
제1 충전 결과 및 제2 충전 결과에 근거하여, 포맷이 변환된 융합 데이터를 획득하기 위한 제3 변환 유닛(103); 을 포함한다.
본 출원의 하나의 예시에서, 차량-도로 협업 정보 처리 장치는 도 10에 도시된 구조를 포함하고, 감지 정보 수신 모듈(111), 포지셔닝 모듈(112), 감지 모듈(113), 융합 모듈(114), 표시 모듈(115)을 포함한다.
감지 정보 수신 모듈(111)은 노변 감지 정보를 수신하는데 이용되고, 포지셔닝 모듈(112)은 타겟 차량의 포지셔닝 정보를 획득하는데 이용되고, 감지 모듈(113)은 타겟 차량의 차량 탑재형 감지 시스템에 의해 수집된 차량 탑재 감지 정보를 획득하는데 이용되고, 융합 모듈(114)은 포지셔닝 모듈(112)의 포지셔닝 정보, 감지 정보 수신 모듈(111)의 노변 감지 정보 및 감지 모듈(113)의 차량 탑재 감지 정보에 근거하여, 융합정보를 획득하는데 이용된다. 표시 모듈(115)은 융합 정보를 표시하거나 타겟 차량이 제거된 융합 정보를 표시하기 위한 HMI (Human Machine Interface, 인간-기계 인터페이스) 장치일 수 있다. 본 예시에서, 도 10에 도시된 감지 정보 수신 모듈(111), 포지셔닝 모듈(112), 감지 모듈(113), 융합 모듈(114), 표시 모듈(115)은 메인 차량 (타겟 차량)의 병합 발견 전량 감지 융합 프레임워크를 구성하고, 프레임워크는 구조가 간단하고, 모듈 수량이 적고, 데이터 처리 과정은 간소화되며, 동시에 노변 감지 메시지 및 차량 탑재 감지 메시지의 융합 문제를 해결하고, 보다 포괄적인 메시지를 제공하며, 차량측 융합 데이터에서 차량 탑재 사각지대 차량 및 좀비 차량 등 노변 감지의 특유한 메시지를 표시하는 제품 수요를 해결한다.
하나의 실시방식에서, 도 11에 도시된 바와 같이, 차량-도로 협업 정보 처리 장치는,
상기 융합 데이터에 근거하여 상기 타겟 차량을 제어하기 위한 제어 모듈(121)을 더 포함한다.
본 출원의 실시예에 따른 각 장치 내의 각 모듈의 기능은 상기 방법에서 대응하는 설명을 참조할 수 있으며, 여기서 설명을 생략한다.
본 출원의 실시예에 따르면, 본 출원은 전자기기 및 판독가능 저장 매체 더 제공한다.
도 12에 도시된 바와 같이, 본 출원의 실시예에 따른 차량-도로 협업 정보 처리 방법을 구현하기 위한 전자기기의 블록도이다. 전자기기는 랩톱 컴퓨터, 데스크톱 컴퓨터, 워크스테이션, 개인용 정보 단말기, 서버, 블레이드 서버, 메인프레임 컴퓨터, 및 기타 적절한 컴퓨터와 같은 다양한 형태의 디지털 컴퓨터를 가리킨다. 전자기기는 또한 개인 디지털 프로세싱, 셀룰러 전화기, 스마트 폰, 웨어러블 장치, 및 기타 유사한 컴퓨팅 장치와 같은 다양한 형태의 모바일 장치를 나타낼 수도 있다. 본 명세서에 나타낸 부품, 그들의 연결 및 관계, 및 그들의 기능은 단지 예시적인 것이며, 본 명세서에서 설명 및/또는 요구한 본 출원의 구현을 제한하기 위한 것이 아니다.
도 12에 도시된 바와 같이, 해당 전자기기는 하나 또는 복수의 프로세서(1201), 메모리(1202), 및 고속 인터페이스 및 저속 인터페이스를 포함하는 각 부품을 연결하기 위한 인터페이스를 포함한다. 각 부품은 상이한 버스를 이용하여 상호 연결되고, 공용 메인보드에 장착되거나 또는 필요에 근거하여 기타 방식으로 장착될 수도 있다. 프로세서는 전자 기기 내에서 실행되는 명령을 처리할 수 있고, 이는 메모리에 저장되거나 또는 메모리에 저장되어 외부 입력/출력 장치(예를 들어, 인터페이스에 결합된 디스플레이 장치)에 그래픽 사용자 인터페이스(Graphical User Interface,GUI)를 표시하는 그래프 정보의 명령을 포함한다. 기타 실시방식에서, 필요에 근거하여, 복수의 프로세서 및/또는 복수의 버스를 복수의 메모리와 함께 사용할 수 있다. 또한, 복수의 전자기기를 연결할 수 있고, 각 기기는 필요한 동작의 일부(예를 들어, 서버 어레이, 블레이드 서버 세트, 또는 멀티 프로세서 시스템)을 제공할 수 있다. 도 12에서는 하나의 프로세서(1201)를 예로 한다.
메모리(1202)는 본 출원에서 제공하는 비일시적 컴퓨터 판독가능 저장 매체이다. 그 중, 메모리는 적어도 하나의 프로세서에 의해 실행될 수 있는 명령을 저장하여, 적어도 하나의 프로세서로 하여금 본 출원에서 제공하는 차량-도로 협업 정보 처리 방법을 수행하도록 한다. 본 출원의 비일시적 컴퓨터 판독가능 저장 매체는 컴퓨터 명령을 저장하며, 해당 컴퓨터 명령은 컴퓨터로 하여금 본 출원에서 제공하는 차량-도로 협업 정보 처리 방법을 실행하도록 하기 위한 것이다.
메모리(1202)는 비일시적 컴퓨터 판독가능 저장 매체로서, 비일시적 소프트웨어 프로그램, 비일시적 컴퓨터 실행가능 프로그램 및 모듈, 예를 들어 본 출원의 실시예에 따른 차량-도로 협업 정보 처리 방법에 대응하는 프로그램 명령/모듈(예를 들어, 도4에 도시된 제1 차량 탑재 감지 데이터 모듈(41), 가상 장애물 데이터 모듈(42), 제2 차량 탑재 감지 데이터 모듈(43) 및 융합 모듈(44))을 저장하는데 사용될 수 있다. 프로세서(1201)는 메모리(1202)에 저장된 비일시적 소프트웨어 프로그램, 명령 및 모듈을 실행함으로써, 서버의 다양한 기능 응용 및 데이터 처리를 실행하며, 즉 전술한 방법의 실시예에서의 차량-도로 협업 정보 처리 방법을 구현한다.
메모리(1202)는 프로그램 저장구역 및 데이터 저장구역을 포함할 수 있으며, 그 중, 프로그램 저장구역은 운영 체제, 적어도 하나의 기능에 필요한 응용 프로그램을 저장할 수 있고; 데이터 저장구역은 차량-도로 협업 정보 처리 방법에 따른 전자기기의 사용에 의해 생성된 데이터 등을 저장할 수 있다. 또한, 메모리(1202)는 고속 랜덤 액세스 메모리를 포함할 수 있고, 또한 적어도 하나의 디스크 메모리, 플래시 메모리, 또는 기타 비일시적 솔리드 메모리와 같은 비일시적 메모리를 포함할 수도 있다. 일부 실시예에서, 메모리(1202)는 선택적으로 프로세서(1201)에 대해 원격으로 설치된 저장장치를 포함할 수 있고, 이들 원격 메모리는 네트워크를 통해 전술한 전자기기에 연결될 수 있다. 전술한 네트워크의 예는 인터넷, 인트라넷, 근거리 통신망, 이동 통신 네트워크, 및 이들의 조합을 포함하지만, 이에 제한되지 않는다.
상기 전자기기는 입력장치(1203) 및 출력장치(1204)를 더 포함할 수 있다. 프로세서(1201), 메모리(1202), 입력장치(1203), 및 출력장치(1204)는 버스 또는 기타 방식에 의해 연결될 수 있으며, 도 12에서는 버스를 통한 연결을 예로 한다.
입력장치(1203)는 입력된 숫자 또는 문자 정보를 수신할 수 있을 뿐만 아니라, 상기 전자기기의 사용자 설정 및 기능제어에 관련된 키 신호 입력을 생성할 수 있으며, 예를 들어, 터치 스크린, 키패드, 마우스, 트랙패드, 터치패드, 포인팅 스틱, 하나 또는 복수의 마우스 버튼, 트랙볼, 조이스틱 등 입력장치일 수 있다. 출력장치(15204)는 디스플레이 장치, 보조 조명 장치(예를 들어, LED), 및 촉각 피드백 장치(예를 들어, 진동 모터)등을 포함할 수 있다. 해당 디스플레이 장치는 액정표시장치(Liquid Crystal Display,LCD), 발광 다이오드(Light Emitting Diode,LED) 디스플레이 장치, 및 플라즈마 디스플레이를 포함할 수 있지만, 이에 한정되지 않는다. 일부 실시방식에서, 디스플레이 장치는 터치 스크린일 수 있다.
본 출원의 실시예는 자율 주행 차량을 제공하고, 본 출원의 임의의 한 항의 실시예에서 제공하는 전자기기를 포함하고, 메인 차량의 병합 발견 전량 감지 융합 프레임워크를 구현하고, 융합 데이터에서 차량 탑재 사각지대 차량 및 좀비 차량 등 노변 감지의 특유한 메시지를 표시한다.
여기서 설명하는 시스템과 기술의 여러 가지 실시형태는 디지털 전자회로 시스템, 집적회로 시스템, 전용 집적회로(Application Specific Integrated Circuits, ASIC), 컴퓨터 하드웨어, 펌웨어, 소프트웨어 및/또는 이들의 조합에서 실현할 수 있다. 이러한 여러 가지 실시형태는 하나 또는 복수의 컴퓨터 프로그램에서 실시되는 것을 포함할 수 있고, 해당 하나 또는 복수의 컴퓨터 프로그램은 적어도 하나의 프로그래머블 프로세서를 포함하는 프로그래머블 시스템에서 실행 및/또는 해석되며, 해당 프로그래머블 프로세서는 전용 또는 범용 프로그래머블 프로세서로서, 저장 시스템, 적어도 하나의 입력장치 및 적어도 하나의 출력장치에서 데이터와 명령을 수신할 수 있고, 데이터와 명령을 해당 저장 시스템, 해당 적어도 하나의 입력장치 및 해당 적어도 하나의 출력장치에 전송할 수 있다.
이러한 컴퓨팅 프로그램(프로그램, 소프트웨어, 소프트웨어 애플리케이션 또는 코드라고도 한다)은 프로그래머블 프로세서의 기계 명령을 포함하고, 고급 프로세스 및/또는 객체 지향 프로그래밍 언어 및/또는 어셈블리/기계 언어를 이용하여 이러한 컴퓨터 프로그램을 실시할 수 있다. 본 명세서에서 사용된 바와 같이, 용어 "기계 판독 가능 매체”와 "컴퓨터 판독 가능 매체”는 기계 명령 및/또는 데이터를 프로그래머블 프로세서에 제공하는 임의의 컴퓨터 프로그램 제품, 기기 및/또는 장치(예를 들면 자기 디스크, 시디롬, 메모리, 프로그래머블 로직 장치(programmable logic device, PLD))를 가리키고, 기계 판독 가능 신호로서의 기계 명령을 수신하는 기계 판독 가능 매체를 포함한다. 용어 "기계 판독 가능 신호”는 기계 명령 및/또는 데이터를 프로그래머블 프로세서에 제공하는 임의의 신호를 가리킨다.
사용자와의 상호작용을 제공하기 위하여, 여기서 설명하는 시스템과 기술을 컴퓨터에서 실시할 수 있으며, 해당 컴퓨터는, 사용자에게 정보를 디스플레이하는 디스플레이 장치(예를 들면 CRT(Cathode Ray Tube, 음극선관) 또는 LCD(액정 디스플레이) 모니터); 및 키보드와 포인팅 장치(예를 들면, 마우스 또는 트랙볼)를 구비하고, 사용자는 해당 키보드와 해당 포인팅 장치를 통해 컴퓨터에 입력을 제공할 수 있다. 기타 유형의 장치는 사용자와의 상호작용에 사용될 수도 있는 바, 예를 들면 사용자에게 제공된 피드백은 모든 형식의 감각 피드백(예를 들면 시각 피드백, 청각 피드백 또는 촉각 피드백) 일 수 있고, 모든 형식(소리 입력, 음성 입력 또는 촉각 입력을 포함)에 의해 사용자로부터의 입력을 수신할 수 있다.
여기서 설명한 시스템과 기술을 백그라운드 부품을 포함하는 컴퓨팅 시스템(예를 들면, 데이터 서버), 또는 미들웨어 부품을 포함하는 컴퓨팅 시스템(예를 들면, 애플리케이션 서버), 또는 프런트엔드 부품을 포함하는 컴퓨팅 시스템(예를 들면, 그래픽 사용자 인터페이스 또는 네트워크 브라우저를 구비한 사용자 컴퓨터, 사용자는 해당 그래픽 사용자 인터페이스 또는 해당 네트워크 브라우저를 통해 여기서 설명한 시스템과 기술의 실시형태와 상호작용할 수 있다), 또는 이러한 백그라운드 부품, 미들웨어 푸붐 또는 프런트엔드 부품을 포함하는 임의의 조합의 컴퓨팅 시스템에서 실시될 수 있다. 임의의 형태 또는 매체의 디지털 데이터 통신(예를 들면, 통신 네트워크)을 통해 시스템의 부품을 서로 연결할 수 있다. 통신 네트워크의 예시는 근거리 통신망 (Local Area Network, LAN), 광역 통신망 (Wide Area Network, WAN) 및 인터넷을 포함한다.
컴퓨터 시스템은 클라이언트 및 서버를 포함할 수 있다. 클라이언트와 서버는 일반적으로 서로 원격으로 설치되였으며, 통상적으로 통신 네트워크를 통해 상호작용한다. 클라이언트와 서버 사이의 관계는 대응하는 컴퓨터에서 실행되고 클라이언트-서버 관계를 갖는 컴퓨터 프로그램을 통해 생성된다.
본 출원의 실시예의 기술방안에 따르면, 타겟 차량의 차량 감지 시스템에 의해 획득된 제1 차량 탑재 감지 데이터에 타겟 차량의 가상 장애물 데이터를 추가하여, 제2 차량 탑재 감지 데이터를 획득한 후, 제2 차량 탑재 감지 데이터와 노변 감지 시스템에 의해 획득된 노변 감지 데이터를 융합시키고, 제1 차량 탑재 감지 데이터에 대한 처리가 용이하고, 차량 수집 시스템에 의한 수집 데이터가 생성된 후 바로 수행할 수 있기 때문에, 간소화된 데이터 전처리 작업을 통해, 제2 차량 탑재 감지 데이터와 노변 감지 데이터를 더 빠른 융합 동작을 통해 융합할 수 있고, 하위 제품의 융합 데이터 사용을 위해 더욱 효율적인 준비 데이터를 제공한다.
전술한 다양한 형태의 흐름을 사용하여, 단계를 재배열, 추가 또는 삭제할 수 있다는 것을 이해해야 한다. 예를 들어, 본 출원에서 기재한 각 단계는 동시에 수행할 수도 있고 순차적으로 수행할 수도 있으며 상이한 순서로 수행할 수도 있는 바, 본 출원에서 개시한 기술방안에서 기대하는 결과를 실현할 수만 있다면, 본 문은 이에 대해 한정하지 않는다.
상기 구체적인 실시형태는 본 출원의 보호범위에 대한 한정이 아니다. 해당 분야 기술자들은 설계 요구와 기타 요소에 근거하여 여러 가지 수정, 조합, 하위 조합과 대체를 진행할 수 있다는 것을 명백하여야 한다. 본 출원의 정신과 원칙 내에서 진행한 그 어떤 수정, 균등한 대체와 개량은 모두 본 출원의 보호범위 내에 포함된다.

Claims (18)

  1. 차량-도로 협업 정보 처리 방법에 있어서,
    상기 방법은 차량-도로 협업 정보 처리 장치에 의해 실행되고, 상기 방법은,
    타겟 차량의 제1 차량 탑재 감지 데이터를 획득하는 단계, 여기서 상기 제1차량 탑재 감지 데이터는 상기 타겟 차량에 의해 감지되는 상기 타겟 차량 주변에 위치한 장애물 데이터를 포함하며;
    상기 타겟 차량의 포지셔닝 데이터에 근거하여, 타겟 차량을 표현하기 위한 가상 장애물 데이터를 생성하는 단계;
    상기 가상 장애물 데이터 및 상기 제1 차량 탑재 감지 데이터에 기반하여, 제2 차량 탑재 감지 데이터를 생성하는 단계; 및
    상기 제2 차량 탑재 감지 데이터와 노변 감지 데이터를 융합하여, 융합 데이터를 획득하는 단계; 를 포함하고, 상기 융합 데이터는 상기 제2 차량 탑재 감지 데이터와 상기 노변 감지 데이터 내의 모든 장애물의 장애물 데이터를 포함하고; 상기 노변 감지 데이터의 장애물 데이터는 상기 타겟 차량을 표현하는 장애물 데이터를 포함하고,
    상기 가상 장애물 데이터 및 상기 제1 차량 탑재 감지 데이터에 기반하여, 제2 차량 탑재 감지 데이터를 생성하는 단계는,
    상기 타겟 차량을 표현하기 위한 가상 장애물 데이터의 유형에 제1 타겟 값을 할당하는 단계; 및
    제1 타겟 값이 할당된 상기 가상 장애물 데이터를 상기 제1 차량 탑재 감지 데이터에 추가하여, 상기 제2 차량 탑재 감지 데이터를 획득하는 단계; 를 포함하는
    것을 특징으로 하는 차량-도로 협업 정보 처리 방법.
  2. 제1항에 있어서,
    상기 타겟 차량의 포지셔닝 데이터에 근거하여, 타겟 차량을 표현하기 위한 가상 장애물 데이터를 생성하는 단계는,
    상기 타겟 차량의 외관 정보를 획득하는 단계;
    상기 타겟 차량의 외관 정보에 근거하여, 가상 데이터 프레임을 생성하는 단계;
    상기 타겟 차량의 포지셔닝 데이터에 근거하여, 상기 타겟 차량의 중심점 위치 및 방향을 획득하는 단계; 및
    상기 가상 데이터 프레임과 상기 타겟 차량의 중심점 위치 및 방향에 근거하여, 상기 타겟 차량을 표현하기 위한 상기 가상 장애물 데이터를 생성하는 단계; 를 포함하는
    것을 특징으로 하는 차량-도로 협업 정보 처리 방법.
  3. 삭제
  4. 제1항에 있어서,
    상기 제2 차량 탑재 감지 데이터와 노변 감지 데이터를 융합하여, 융합 데이터를 획득하는 단계는,
    상기 제 2 차량 탑재 감지 데이터 내의 상기 타겟 차량을 표현하기 위한 가상 장애물 데이터 및 상기 노변 감지 데이터 내의 상기 타겟 차량을 표현하는 장애물 데이터에 근거하여, 상기 타겟 차량을 표현하기 위한 제1 장애물 데이터를 생성하는 단계;
    상기 제2 차량 탑재 감지 데이터 및 노변 감지 데이터에 근거하여, 사각지대 장애물을 확정하고, 사각지대 장애물에 기반하여 제2 장애물 데이터를 생성하는 단계; 여기서, 상기 제2 장애물 데이터의 유형은 제2 타겟 값이 할당되며; 및
    상기 제1 장애물 데이터 및 상기 제2 장애물 데이터에 근거하여, 상기 융합 데이터를 획득하는 단계; 를 포함하는
    것을 특징으로 하는 차량-도로 협업 정보 처리 방법.
  5. 제4항에 있어서,
    상기 융합 데이터에 근거하여, 타겟 포맷 내의 충전할 필드를 충전하여, 포맷이 변환된 융합 데이터를 획득하는 단계를 더 포함하고; 여기서, 상기 타겟 포맷은 복수의 충전할 필드를 포함하는
    것을 특징으로 하는 차량-도로 협업 정보 처리 방법.
  6. 제5항에 있어서,
    상기 융합 데이터에 근거하여, 타겟 포맷 내의 충전할 필드를 충전하여, 포맷이 변환된 융합 데이터를 획득하는 단계는,
    상기 타겟 포맷 내의 제1 장애물 데이터에 대응하는 제1 충전할 필드를 건너뛰어, 제1 충전 결과를 획득하는 단계;
    상기 융합 데이터 내의 상기 제2 장애물 데이터를 상기 타겟 포맷에서 대응하는 제2 충전할 필드에 충전하고, 사각지대 장애물의 마킹을 추가하여, 제2 충전 결과를 획득하는 단계; 및
    상기 제1 충전 결과 및 상기 제2 충전 결과에 근거하여, 상기 포맷이 변환된 융합 데이터를 획득하는 단계; 를 포함하는
    것을 특징으로 하는 차량-도로 협업 정보 처리 방법.
  7. 제1항에 있어서,
    상기 융합 데이터에 근거하여, 상기 타겟 차량을 제어하는 단계를 더 포함하는
    것을 특징으로 하는 차량-도로 협업 정보 처리 방법.
  8. 차량-도로 협업 정보 처리 장치에 있어서,
    타겟 차량의 제1 차량 탑재 감지 데이터를 획득하기 위한 제1 차량 탑재 감지 데이터 모듈; 여기서, 상기 제1차량 탑재 감지 데이터는 상기 타겟 차량에 의해 감지되는 상기 타겟 차량 주변에 위치한 장애물 데이터를 포함하며;
    상기 타겟 차량의 포지셔닝 데이터에 근거하여, 타겟 차량을 표현하기 위한 가상 장애물 데이터를 생성하기 위한 가상 장애물 데이터 모듈;
    상기 가상 장애물 데이터 및 상기 제1 차량 탑재 감지 데이터에 기반하여, 제2 차량 탑재 감지 데이터를 획득하기 위한 제2 차량 탑재 감지 데이터 모듈; 및
    상기 제2 차량 탑재 감지 데이터와 노변 감지 데이터를 융합하여, 융합 데이터를 획득하기 위한 제1 융합 모듈; 을 포함하고, 상기 융합 데이터는 상기 제2 차량 탑재 감지 데이터와 상기 노변 감지 데이터 내의 모든 장애물에 대한 장애물 데이터를 포함하고; 상기 노변 감지 데이터의 장애물 데이터는 상기 타겟 차량을 표현하는 장애물 데이터를 포함하고,
    상기 제2 차량 탑재 감지 데이터 모듈은,
    상기 타겟 차량을 표현하기 위한 가상 장애물 데이터의 유형에 제1 타겟 값을 할당하기 위한 제1 타겟 값 유닛; 및
    제1 타겟 값이 할당된 상기 가상 장애물 데이터를 상기 제1 차량 탑재 감지 데이터에 추가하여, 상기 제2 차량 탑재 감지 데이터를 획득하기 위한 추가 유닛; 을 포함하는
    것을 특징으로 하는 차량-도로 협업 정보 처리 장치.
  9. 제8항에 있어서,
    상기 가상 장애물 데이터 모듈은,
    상기 타겟 차량의 외관 정보를 획득하기 위한 외관 유닛;
    상기 타겟 차량의 외관 정보에 근거하여, 가상 데이터 프레임을 생성하기 위한 데이터 프레임 유닛;
    상기 타겟 차량의 포지셔닝 데이터에 근거하여, 상기 타겟 차량의 중심점 위치 및 방향을 획득하기 위한 방위 유닛; 및
    상기 가상 데이터 프레임에 기반하고 상기 타겟 차량의 중심점 위치 및 방향의 설정에 근거하여, 상기 타겟 차량을 표현하기 위한 상기 가상 장애물 데이터를 생성하기 위한 데이터 유닛; 을 포함하는
    것을 특징으로 하는 차량-도로 협업 정보 처리 장치.
  10. 삭제
  11. 제8항에 있어서,
    상기 제1 융합 모듈은,
    상기 제 2 차량 탑재 감지 데이터 내의 상기 타겟 차량을 표현하기 위한 가상 장애물 데이터 및 상기 노변 감지 데이터 내의 상기 타겟 차량을 표현하는 장애물 데이터에 근거하여, 상기 타겟 차량을 표현하기 위한 제1 장애물 데이터를 생성하기 위한 제1 융합 유닛;
    상기 제2 차량 탑재 감지 데이터 및 노변 감지 데이터에 근거하여, 사각지대 장애물을 확정하고, 사각지대 장애물에 기반하여 제2 장애물 데이터를 생성하기 위한 제2 융합 유닛; 여기서, 상기 제2장애물 데이터의 유형은 제2 타겟 값을 할당되며; 및
    상기 제1 장애물 데이터 및 상기 제2 장애물 데이터에 근거하여, 상기 융합 데이터를 획득하기 위한 제3 융합 유닛; 을 포함하는
    것을 특징으로 하는 차량-도로 협업 정보 처리 장치.
  12. 제11항에 있어서,
    상기 장치는, 상기 융합 데이터에 근거하여, 타겟 포맷 내의 충전할 필드를 충전하여, 포맷이 변환된 융합 데이터를 획득하기 위한 변환 모듈을 더 포함하고; 여기서, 상기 타겟 포맷은 복수의 충전할 필드를 포함하는
    것을 특징으로 하는 차량-도로 협업 정보 처리 장치.
  13. 제12항에 있어서,
    상기 변환 모듈은,
    상기 타겟 포맷 내의 제1 장애물 데이터에 대응하는 제1 충전할 필드를 건너뛰어, 제1 충전 결과를 획득하기 위한 제1 변환 유닛;
    상기 융합 데이터 내의 상기 제2 장애물 데이터를 상기 타겟 포맷에서 대응하는 제2 충전할 필드를 충전하고, 사각지대 장애물의 마킹을 추가하여 제2 충전 결과를 획득하기 위한 제2 변환 유닛; 및
    상기 제1 충전 결과 및 상기 제2 충전 결과에 근거하여, 상기 포맷이 변환된 융합 데이터를 획득하기 위한 제3 변환 유닛; 을 포함하는
    것을 특징으로 하는 차량-도로 협업 정보 처리 장치.
  14. 제8항에 있어서,
    상기 융합 데이터에 근거하여 상기 타겟 차량을 제어하기 위한 제어 모듈을 더 포함하는
    것을 특징으로 하는 차량-도로 협업 정보 처리 장치.
  15. 적어도 하나의 프로세서; 및
    상기 적어도 하나의 프로세서에 통신 연결되는 메모리; 를 포함하는 전자기기에 있어서,
    상기 메모리에는 상기 적어도 하나의 프로세서에 의해 실행 가능한 명령이 저장되어 있고, 상기 명령은 상기 적어도 하나의 프로세서에 의해 실행되어, 상기 적어도 하나의 프로세서로 하여금 제 1항에 따른 차량-도로 협업 정보 처리 방법을 수행하도록 하는 것을 특징으로 하는 전자기기.
  16. 컴퓨터 명령이 저장되어 있는 비일시적 컴퓨터 판독가능 저장 매체에 있어서,
    상기 컴퓨터 명령은 상기 컴퓨터로 하여금 제1항에 따른 차량-도로 협업 정보 처리 방법을 수행하도록 하는 것을 특징으로 하는 비일시적 컴퓨터 판독가능 저장 매체.
  17. 제15항에 따른 전자기기를 포함하는 것을 특징으로 하는 자율 주행 차량.
  18. 컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램에 있어서,
    상기 컴퓨터 프로그램 중의 명령이 프로세서에 의해 실행될 경우, 제1항의 차량-도로 협업 정보 처리 방법을 구현하는 것을 특징으로 하는 컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
KR1020210038218A 2020-09-21 2021-03-24 차량-도로 협업 정보 처리 방법, 장치, 기기, 자율 주행 차량 및 컴퓨터 프로그램 KR102554621B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010995950.8 2020-09-21
CN202010995950.8A CN112085960A (zh) 2020-09-21 2020-09-21 车路协同信息处理方法、装置、设备及自动驾驶车辆

Publications (2)

Publication Number Publication Date
KR20210040325A KR20210040325A (ko) 2021-04-13
KR102554621B1 true KR102554621B1 (ko) 2023-07-11

Family

ID=73740047

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210038218A KR102554621B1 (ko) 2020-09-21 2021-03-24 차량-도로 협업 정보 처리 방법, 장치, 기기, 자율 주행 차량 및 컴퓨터 프로그램

Country Status (5)

Country Link
US (1) US11636764B2 (ko)
EP (1) EP3822848B1 (ko)
JP (1) JP2021102437A (ko)
KR (1) KR102554621B1 (ko)
CN (1) CN112085960A (ko)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113012429B (zh) * 2021-02-23 2022-07-15 云控智行(上海)汽车科技有限公司 一种车路多传感器数据融合方法及系统
CN113160571B (zh) * 2021-06-28 2021-10-01 智道网联科技(北京)有限公司 基于车路协同的多数据源的数据融合处理方法和装置
CN113205087B (zh) * 2021-07-06 2022-06-03 中汽创智科技有限公司 一种感知信息处理方法、装置、设备及计算机可读存储介质
CN113724519A (zh) * 2021-08-31 2021-11-30 上海商汤临港智能科技有限公司 一种车辆控制系统、路侧设备以及车路协同系统
CN113724520B (zh) * 2021-08-31 2023-06-13 上海商汤临港智能科技有限公司 车路协同信息处理方法、装置、电子设备以及存储介质
CN117795579A (zh) * 2021-12-02 2024-03-29 华为技术有限公司 一种数据融合方法、装置、设备、存储介质、车辆
CN114155731A (zh) * 2021-12-27 2022-03-08 阿波罗智联(北京)科技有限公司 自动驾驶车辆的数据处理方法、装置和自动驾驶车辆
CN114333312A (zh) * 2021-12-28 2022-04-12 阿波罗智联(北京)科技有限公司 一种道路交通环境信息的展示方法、装置以及电子设备
CN114228735A (zh) * 2021-12-29 2022-03-25 阿波罗智联(北京)科技有限公司 智能驾驶车辆的可视化方法、装置及系统
CN114584949B (zh) * 2022-03-02 2023-05-23 阿波罗智能技术(北京)有限公司 车路协同确定障碍物属性值的方法、设备及自动驾驶车辆
CN115273530A (zh) * 2022-07-11 2022-11-01 上海交通大学 一种基于协同感知的停车场定位与感知系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008191988A (ja) * 2007-02-06 2008-08-21 Denso Corp 車両周辺監視装置
JP2009122838A (ja) * 2007-11-13 2009-06-04 Denso Corp 走行支援装置
WO2014198484A1 (de) 2013-06-14 2014-12-18 Robert Bosch Gmbh Assistenzvorrichtung und verfahren zum unterstützen eines fahrers des fahrzeugs
JP2017173948A (ja) * 2016-03-22 2017-09-28 三菱電機株式会社 移動体認識システム

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4483589B2 (ja) 2005-01-12 2010-06-16 日産自動車株式会社 車両用情報提供装置
JP2011242846A (ja) 2010-05-14 2011-12-01 Hitachi Ltd 車載通信装置、周辺車両情報処理方法およびプログラム
KR102375411B1 (ko) * 2015-05-11 2022-03-18 삼성전자주식회사 차량 주변 영상 제공 방법 및 장치
CN106920412A (zh) * 2015-12-28 2017-07-04 上海擎感智能科技有限公司 适用于车路协同的智能交通运行系统及方法
CN107702716B (zh) * 2017-08-31 2021-04-13 广州小鹏汽车科技有限公司 一种无人驾驶路径规划方法、系统和装置
CN108010360A (zh) * 2017-12-27 2018-05-08 中电海康集团有限公司 一种基于车路协同的自动驾驶环境感知系统
CN108182817A (zh) * 2018-01-11 2018-06-19 北京图森未来科技有限公司 自动驾驶辅助系统、路侧端辅助系统和车载端辅助系统
US10866103B2 (en) * 2018-02-12 2020-12-15 Aptiv Technologies Limited Vehicle perception-data gathering system and method
CN108762245B (zh) * 2018-03-20 2022-03-25 华为技术有限公司 数据融合方法以及相关设备
CN108447291B (zh) * 2018-04-03 2020-08-14 南京锦和佳鑫信息科技有限公司 一种智能道路设施系统及控制方法
CN110874945A (zh) * 2018-08-31 2020-03-10 百度在线网络技术(北京)有限公司 基于车路协同的路侧感知系统及其车辆控制方法
CN110928284B (zh) * 2018-09-19 2024-03-29 阿波罗智能技术(北京)有限公司 辅助控制车辆的自动驾驶的方法、设备、介质和系统
DE102018217840A1 (de) 2018-10-18 2020-04-23 Volkswagen Aktiengesellschaft Verfahren und System zum Bestimmen eines Umfeldmodells für ein Fahrzeug
GB201906813D0 (en) * 2019-05-16 2019-06-26 Roboraca Ltd Metaverse
CN110083163A (zh) * 2019-05-20 2019-08-02 三亚学院 一种用于自动驾驶汽车的5g c-v2x车路云协同感知方法及系统
CN110244760A (zh) * 2019-06-06 2019-09-17 深圳市道通智能航空技术有限公司 一种避障方法、装置和电子设备
CN110335488A (zh) * 2019-07-24 2019-10-15 深圳成谷科技有限公司 一种基于车路协同的车辆自动驾驶方法和装置
CN112712717B (zh) * 2019-10-26 2022-09-23 华为技术有限公司 一种信息融合的方法、装置和设备
CN111127931B (zh) * 2019-12-24 2021-06-11 国汽(北京)智能网联汽车研究院有限公司 一种智能网联汽车的车路云协同方法、装置及系统
US11560159B2 (en) * 2020-03-25 2023-01-24 Baidu Usa Llc Group and combine obstacles for autonomous driving vehicles
CN111540237B (zh) * 2020-05-19 2021-09-28 河北德冠隆电子科技有限公司 基于多数据融合的车辆安全行驶保障方案自动生成的方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008191988A (ja) * 2007-02-06 2008-08-21 Denso Corp 車両周辺監視装置
JP2009122838A (ja) * 2007-11-13 2009-06-04 Denso Corp 走行支援装置
WO2014198484A1 (de) 2013-06-14 2014-12-18 Robert Bosch Gmbh Assistenzvorrichtung und verfahren zum unterstützen eines fahrers des fahrzeugs
JP2017173948A (ja) * 2016-03-22 2017-09-28 三菱電機株式会社 移動体認識システム

Also Published As

Publication number Publication date
CN112085960A (zh) 2020-12-15
KR20210040325A (ko) 2021-04-13
US11636764B2 (en) 2023-04-25
US20210225171A1 (en) 2021-07-22
JP2021102437A (ja) 2021-07-15
EP3822848A2 (en) 2021-05-19
EP3822848A3 (en) 2021-11-10
EP3822848B1 (en) 2023-05-31

Similar Documents

Publication Publication Date Title
KR102554621B1 (ko) 차량-도로 협업 정보 처리 방법, 장치, 기기, 자율 주행 차량 및 컴퓨터 프로그램
JP7059362B2 (ja) 地図データ構築方法、車両端末、およびサーバ
EP3772862B1 (en) Vehicle information interacting method, device, apparatus and storage medium
US11550623B2 (en) Distributed system task management using a simulated clock
US20180224284A1 (en) Distributed autonomous mapping
CN102822757A (zh) 具有影像辅助导航机制的导航系统及其操作方法
US11480964B2 (en) Distributed system execution using a serial timeline
US20200327811A1 (en) Devices for autonomous vehicle user positioning and support
CN110909585B (zh) 一种路线确定方法、可行进设备、和存储介质
CN111693055B (zh) 道路网络变化检测和所检测的变化的本地传播
CN110942665A (zh) 一种车辆的定位方法、车载设备及存储介质
WO2020017320A1 (ja) センサ共有システム、センサ共有装置、センサ共有方法、及びコンピュータプログラム
EP3919864B1 (en) Method and apparatus for processing map data
US20200271456A1 (en) Method for the generation of a merged free-space map, electronic control device and storage medium
US11441913B2 (en) Autonomous vehicle waypoint routing
CN111703371B (zh) 交通信息的显示方法、装置、电子设备和存储介质
CN111536984A (zh) 定位方法和装置、车端设备、车辆、电子设备和定位系统
CN111784837A (zh) 高精地图生成方法和装置
CN111609863B (zh) 导航信息生成方法、装置、电子设备和存储介质
CN112579614A (zh) 地图数据的采集方法、装置、电子设备和介质
US20200240800A1 (en) Routing multiple autonomous vehicles using local and general route planning
CN114964274A (zh) 地图更新方法、路径规划方法、装置、电子设备及介质
US11397610B2 (en) Architecture for simulation clock-based simulation of distributed systems
CN114779705A (zh) 用于控制自动驾驶车辆的方法、装置、电子设备及系统
CN115112132A (zh) 感知地图生成方法、装置及计算机可读存储介质

Legal Events

Date Code Title Description
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant