KR102631850B1 - Hd 지도의 생성 및 사용 - Google Patents

Hd 지도의 생성 및 사용 Download PDF

Info

Publication number
KR102631850B1
KR102631850B1 KR1020237005297A KR20237005297A KR102631850B1 KR 102631850 B1 KR102631850 B1 KR 102631850B1 KR 1020237005297 A KR1020237005297 A KR 1020237005297A KR 20237005297 A KR20237005297 A KR 20237005297A KR 102631850 B1 KR102631850 B1 KR 102631850B1
Authority
KR
South Korea
Prior art keywords
definition map
map
definition
rsu
unit
Prior art date
Application number
KR1020237005297A
Other languages
English (en)
Other versions
KR20230028810A (ko
Inventor
케이 사카구치
토마스 휴스테인
마르쿠스 그로스만
킴 말러
Original Assignee
프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에.베.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에.베. filed Critical 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에.베.
Publication of KR20230028810A publication Critical patent/KR20230028810A/ko
Application granted granted Critical
Publication of KR102631850B1 publication Critical patent/KR102631850B1/ko

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/003Transmission of data between radar, sonar or lidar systems and remote stations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • G01C21/32Structuring or formatting of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • G01C21/367Details, e.g. road map scale, orientation, zooming, illumination, level of detail, scrolling of road map or positioning of current position marker
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3691Retrieval, searching and output of information related to real-time traffic, weather, or environmental conditions
    • G01C21/3694Output thereof on a road map
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3841Data obtained from two or more sources, e.g. probe vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C21/00Systems for transmitting the position of an object with respect to a predetermined reference system, e.g. tele-autographic system
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9316Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles combined with communication equipment with other vehicles or with base stations

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Atmospheric Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Environmental & Geological Engineering (AREA)
  • Ecology (AREA)
  • Environmental Sciences (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Game Theory and Decision Science (AREA)
  • Business, Economics & Management (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Optics & Photonics (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

제1 고선명 지도를 제공하도록 구성된 프로세서 유닛, 장치의 주변부에서 환경 조건을 나타내는 센서 데이터를 제공하도록 구성된 센서 유닛, 및 제2 고선명 지도를 나타내는 데이터를 수신하도록 구성된 수신기 유닛을 포함하는 장치. 프로세서 유닛은 제1 고선명 지도를 제공하도록 제2 고선명 지도와 센서 데이터를 융합하도록 구성된다. 장치는 제2 고선명 지도와 센서 데이터를 융합 한 결과를 송신하도록 구성된 송신기 유닛을 더 포함하고, 제1 고선명 지도에 기초하여 장치를 소지하는 차량에 대한 차량 제어 명령을 나타내는 명령 신호를 생성하도록 구성된 명령 생성기 유닛을 포함한다.

Description

HD 지도의 생성 및 사용{GENERATION AND USE OF HD MAPS}
본 발명은 무선 통신 분야에 관한 것으로, 보다 상세하게는 고선명(high definition, HD) 지도를 생성하기 위한 장치, 및 HD 지도를 생성하는 방법, HD 지도를 사용하는 무선 통신 네트워크 및 차량에 관한 것이다. 본 발명은 또한 자율 주행을 위한 HD 지도 전달 네트워크에 관한 것이다.
자율 주행은 [1]에서 보고된 바와 같이 5G 시스템에서 3대 애플리케이션 중 하나로 간주된다. 자율 주행을 위해서는, 자동차 네비게이션 시스템에 대한 현재 지도의 해상도가 충분하지 않으며, [2]에서 보고된 바와 같이 더 높은 해상도와 실시간 지도가 필요하다. 이런 종류의 새로운 지도를 HD(고선명) 지도 또는 동적 지도라고 한다. 도 7은 LiDAR(Light Detection and Ranging, 광 검출 및 거리 측정)에 의해 수집된 HD 지도의 예를 도시하며, LiDAR는 자동차의 근거리 환경의 물체를 감지하는 레이저 기반 프로세스이다. 도 7은 LiDAR가 HD 지도를 위해 수집한 포인트 클라우드 이미지를 도시한다. 본 명세서에 설명된 기술적 해결책은 넓은 커버리지 HD 지도를 실시간으로 전달함으로써 자율 주행을 가능하게 하기 위한 CIU와 RSU 및 CIU 및/또는 RSU로 구성된 네트워크에 관한 것이다. 자율 주행을 위한 CIU는 HD 지도를 위한 정보를 수집하는 HD 센서 유닛, 예를 들어 LiDAR, 주변부 자동차, 즉 다른 CIU 및/또는 RSU로부터 예를 들어 2.2Gbps를 초과하는 처리량으로 그리고 10ms 미만의 대기 시간으로 실시간으로 HD 지도를 수신하는 밀리미터 파 Rx(수신기) 유닛을 포함할 수 있다. CIU는 RSU에 의해 수신된 다수의 HD 지도를 결합함으로써 적어도 300m 전방을 지원하는 HD 지도를 계산하는 HD 지도 처리 유닛을 포함할 수 있다. 이러한 CIU는 CIU 중계기에서 계산된 HD 지도를 실시간으로, 예를 들어 2.2Gbps 처리량 초과 및 10밀리초 미만의 대기 시간으로 주변부 자동차 또는 RSU에 중계하는 밀리미터 파 Tx(송신기) 유닛을 포함할 수 있다. CIU는 CIU 중계기에서 계산된 HD 지도에 기초하여 가속기, 브레이크, 스티어링 등을 위한 자동차 주행 명령을 생성하는 자율 주행 유닛을 포함할 수 있다. [2]에서, 1시간 주행 동안의 HD 지도의 총 데이터 크기는 2.2Gbps 데이터 레이트에 해당하는 약 1Tbyte가 된다고 보고되었다. [2]에서, HD 지도의 프레임을 수신하기 위해서는 대기 시간이 10ms보다 작아야 한다는 것에 또한 유의한다.
최신 3GPP Release 14는 도로 안전 서비스를 지원하기 위해 V2V(vehicular to vehicular, 차량 대 차량) 통신을 지원하려고 한다 [3]. IEEE802.11p, ETSI CAM, 및 US SAE와 같은 3GPP V2V 및 관련 표준은 안전 주행을 돕기 위해 비상 상황, 경고, 위치, 속도 등과 같은 주행 정보를 차량 간에 교환하기 위해 개발되었다. 그러나, V2V 링크의 데이터 레이트가 제한되어 있어, 교환될 수 있는 데이터 크기가 HD 지도를 위해 큰 데이터 크기를 요구하는 자율 주행을 위해서는 너무 작다. 또한, 모든 차량에 V2V를 통합하는 것은 차량의 수명 주기가 길어지기 때문에 문제가 된다.
최신 3GPP Release 14는 또한 인프라를 통해 도로 안전 서비스를 지원하기 위해 V2X(vehicular to everything, 차량 대 모든 것) 통신을 지원하고자 한다 [3]. 3GPP V2X는 인프라를 통해 도로 및 차량 간의 교통 정체, 교통 사고, 교통 공사 등에 대한 정보를 교환하는 현재 VICS(vehicle information and communication system, 차량 정보 및 통신 시스템) 및 DSRC(dedicated short range communication, 전용 단거리 통신)의 확장이다. 도 8은 자동차 사고 및 도로를 가로지르는 보행자를 경고하기 위한 V2X의 예를 도시하며, 여기서 RSU(road side unit, 도로변 유닛)가 도로 상의 이벤트를 검출한다. 도 8에서, 교통 안전 서버의 역할은 RSU가 검출한 교통 이벤트에 대한 정보로 교통지도를 업데이트하고 동일한 지역이나 도시에 있는 자동차에 지도를 전달하는 것이다. 교통 안전 서버가 네트워크 내부 깊숙이 자리 잡고 있기 때문에, 교통 지도 전달의 대기 시간은 10ms보다 훨씬 길다.
밀리미터 파 자동차 레이더와 밀리미터 파 통신을 결합하여 하드웨어 비용을 증가시키지 않으면서 밀리미터 파 기술을 사용하여 차량 간의 데이터 레이트를 증가시키는 것이 제안되었다 [4]. [5]에서, 자동차 그룹(호송) 또는 RSU에서 또는 심지어 RSU로부터 감지 정보(예를 들어, LiDAR 정보)를 교환하여 안 보이는 물체를 해결함으로써 협력 감지 및 협력 조작에 대한 제안이 있었다.
따라서, 자율 주행을 개선할 필요가 있다.
안전하고 신뢰할 수 있는 자율 주행을 가능하게 하는 개념을 제공하는 것이 목적이다.
본 발명자들은 수신 HD 지도를 자체 센서 데이터와 결합함으로써, 각각의 장치를 소지하는 차량에 대한 제어 명령이 신뢰할 수 있는 것으로 획득될 수 있는데, 그것은 자체 센서에 의해 스캔된 영역에 정보를 포함하고, 아마도 자체 센서에 의해 보이지 않지만 수신된 지도에 의해 보이는 영역에 정보를 포함하기 때문이다. 따라서, 명령 신호를 필요로 하는 시나리오는 장치 자체에 의해 보이거나 보이지 않는 영역에 대해 신뢰할 수 있다. 적응된 지도 또는 생성된 지도를 송신함으로써, 동일한 신뢰성이 다른 장치에 제공될 수 있다.
일 실시예에 따르면, 장치는 제1 고선명 지도를 제공하도록 구성된 프로세서 유닛, 장치의 주변부에서 환경 조건을 나타내는 센서 데이터를 제공하도록 구성된 센서 유닛, 및 제2 고선명 지도를 나타내는 데이터를 수신하도록 구성된 수신기 유닛을 포함한다. 프로세서 유닛은 제1 고선명 지도를 제공하도록 제2 고선명 지도와 센서 데이터를 융합하도록 구성된다. 장치는 제2 고선명 지도와 센서 데이터를 융합한 결과를 송신하도록 구성된 송신기 유닛을 포함한다. 장치는 제1 고선명 지도에 기초하여 장치를 소지하는 차량에 대한 차량 제어 명령을 나타내는 명령 신호를 생성하도록 구성된 명령 생성기 유닛을 더 포함한다.
장치는 외부 지도를 자체 센서 데이터와 융합시킴으로써, 그러한 리프레시된 HD 지도에 기초하여 주행 명령을 생성함으로써, 그리고 리프레시된 지도를 재배포함으로써 안전하고 신뢰할 수 있는 자율 주행을 허용할 수 있다.
일 실시예에 따르면, 통신 네트워크는 복수의 장치를 포함하고, 여기서 복수의 장치는 복수의 장치에 의해 생성된 고선명 지도를 교환하도록 구성된다. 적어도 하나의 장치 또는 복수의 장치는 누적 고선명 지도를 생성하기 위해 통신 네트워크의 다른 장치로부터 수신된 고선명 지도를 융합하도록 구성된다. 이는 넓은 지역 또는 영역을 커버하는 고선명 지도를 허용 할 수 있다, 즉 누적 고선명 지도는 넓은 커버리지 범위를 포함할 수 있고, 지도가 상이한 시점에 기초하여 생성될 수 있으므로 낮은 로킹(rocking) 문제를 더 포함할 수 있다.
일 실시예에 따르면, 도로변 유닛(RSU)은 제1 고선명 지도를 제공하도록 구성된 프로세서 유닛을 포함한다. RSU는 RSU의 주변부의 환경 조건을 나타내는 센서 데이터를 제공하도록 구성된 센서 유닛 및 제2 고선명 지도를 나타내는 데이터를 수신하도록 구성된 수신기 유닛을 더 포함한다. 프로세서 유닛은 제1 고선명 지도를 제공하도록 제2 고선명 지도와 센서 데이터를 융합하도록 구성된다. RSU는 제2 고선명 지도와 센서 데이터를 융합한 결과를 송신하도록 구성된 송신기 유닛을 더 포함한다. 제1 고선명 지도는 RSU 주변부에서 적어도 300미터의 반경 내에 있는 지도 정보를 포함할 수 있다. 이는 RSU 주위의 반경 내에 있는 지도의 매우 정확한 정보를 제공할 수 있는 도로변 유닛이 차량과 같은 위탁화물이 정확하게 길을 찾을 수 있도록 허용할 수 있다.
일 실시예에 따르면, 네트워크는 복수의 RSU를 포함하고, 여기서 RSU는 교통 시스템의 이동 경로를 커버하도록 서로 거리를 두고 위치된다. 이는 정보가 교통 시스템의 이동 경로를 따라 이용 가능하도록 로컬 분산 포인트에서의 자율 주행을 위한 정보를 제공할 수 있게 할 수 있다.
일 실시예에 따르면, 통신 네트워크는 복수의 RSU를 포함하고, 여기서 복수의 RSU는 복수의 RSU에 의해 생성된 고선명 지도를 교환하도록 구성된다. 적어도 하나의 RSU 또는 복수의 RSU는 누적 고선명 지도를 생성하기 위해 통신 네트워크의 다른 RSU로부터 수신된 고선명 지도를 융합하도록 구성된다. 이는 도로변 유닛에 의해 생성되는 누적 고선명 지도의 이점을 허용할 수 있다.
일 실시예에 따르면, 통신 네트워크는 복수의 전술한 장치 및 복수의 RSU를 포함한다. 복수의 장치 및 상기 복수의 RSU는 복수의 장치 및 복수의 RSU에 의해 생성된 고선명 지도를 교환하도록 구성된다. 통신 네트워크의 적어도 하나의 장치 또는 적어도 하나의 RSU는 누적 고선명 지도를 생성하기 위해 수신된 고선명 지도를 융합하도록 구성된다. 따라서, 누적 고선명 지도는 장치 및 RSU에 의해 협력적으로 생성될 수 있다.
일 실시예에 따르면, 차량은 전술한 장치를 포함한다. 차량은 차량 제어 명령을 나타내는 명령 신호에 응답하여 자율적으로 움직이도록 구성된다.
다른 실시예는 종속항에서 정의된다.
본 발명의 실시예가 도면을 참조하여 보다 상세히 설명되며, 여기서:
도 1은 일 실시예에 따른 자동차 내부 유닛(car inside unit, CIU)의 개략적인 블록도를 도시한다;
도 2는 일 실시예에 따른 도로변 유닛(RSU)의 개략적인 블록도를 도시한다;
도 3은 일 실시예에 따른 HD 지도의 개략적인 블록도를 도시한다;
도 4a는 일 실시예에 따른 통신 네트워크의 개략적인 블록도를 도시한다;
도 4b는 일 실시예에 따른 고선명 지도의 개략적인 블록도를 도시한다;
도 5는 일 실시예에 따른, 복수의 RSU를 포함하는 네트워크의 개략적인 블록도를 도시한다;
도 6은 일 실시예에 따른, 복수의 CIU를 포함하는 네트워크의 개략적인 블록도를 도시한다;
도 7은 LiDAR가 수집한 HD 지도의 예를 도시한다; 그리고
도 8은 종래 기술에 따라 RSU(도로변 유닛)가 도로 상의 이벤트를 검출하는, 자동차 사고 및 도로를 가로지르는 보행자를 경고하기 위한 V2X의 예를 도시한다.
동일 또는 등가의 요소 또는 동일한 또는 동등한 기능을 가진 요소는 상이한 도면에서 발생한다고 해도 동일 또는 유사한 참조 번호로 다음의 설명에서 표시된다.
이하의 설명에서, 본 발명의 실시예에 대한 보다 완전한 설명을 제공하기 위해 다수의 세부 사항이 제시된다. 그러나, 본 발명의 실시예가 이러한 특정 세부 사항 없이 실시될 수 있음은 본 기술분야의 통상의 기술자에게 명백할 것이다. 다른 예에서, 잘 알려진 구조 및 디바이스는 본 발명의 실시예를 모호하게 하는 것을 피하기 위해 상세하게가 아니라 블록도 형태로 도시된다. 또한, 이하에서 설명되는 상이한 실시예의 특징은 특별히 언급하지 않는 한, 서로 결합될 수 있다.
본 명세서에서 설명된 실시예는 고선명 지도(HD 지도)와 관련될 수 있다. 이러한 지도는 다중 모드의 센서 종합으로 획득되는 데이터를 포함할 수 있다. 이는 루트(root)에 존재하는 물체와 관련된 데이터 및/또는 속도 제한 등과 같은 부가적인 데이터와 조합된 루팅(rooting) 정보와 같은 지리적 데이터를 포함할 수 있지만, 이에 제한되지는 않는다. 종합된 정보는 고선명, 즉 수 미터, 수십 또는 심지어 수 센티미터의 해상도를 포함하여 제공될 수 있다. HD 지도는 정보를 제공할 수 있거나, 이미 데카메트릭 차트로 사용되는 지도일 수 있다, 즉 경로가 어느 거리에서 어떤 방향으로 방해되는지 추론할 수 있다. HD 지도에 포함된 정보는 자동차, 보행자, 다른 횡단하는 물체, 교통 신호등, 및 교통과 관련된 모든 다른 정보를 포함할 수 있다.
본 명세서에 설명된 일부 실시예는 차량에 관한 것이다. 차량은 도로 차량과 관련하여 설명될 수 있지만, 본 명세서에서 주어진 설명은 항공 차량에도 적용된다. 도로 차량과 마찬가지로, 항공 차량은 다른 물체와의 충돌을 피해야 하고, 특정 교통 규칙을 따라야 하며, 보통 하나의 부가적인 공간 차원을 더 사용하기는 하지만 시작 지점에서 목표 지점으로 이동한다.
본 명세서에서 설명된 일부 실시예는 도로변 유닛(RSU)에 관한 것으로, 여기서 본 명세서에서 설명된 다른 실시예는 자동차 내부 유닛(CIU)과 관련될 수 있다. 이러한 용어는 차량에 장착 가능한 장치와 교통로를 따라 규정된 위치에 대해 구성된 장치를 구별하기 위해 사용된다. 용어 "자동차"를 사용하지만, 이는 본 명세서에서 설명된 실시예를 제한하지 않는다. CIU는 본 명세서에서 설명된 차량에 대한 것과 동일한 방법으로 드론과 같은 항공 차량에도 장착 가능할 수 있으며, 도로 차량에 대한 것으로 제한되지 않는다. 또한, RSU는 특히 항공 차량의 데이터 또는 HD 지도를 제공할 때 도로 옆에 장착되는 것으로 제한되지 않는다. RSU는 또한 건물의 지붕, 산, 나무, 가로등과 같은 다른 지점 또는 물체에 장착될 수 있으며, 벌룬 또는 임의의 다른 차량과 같은 비교적 정적인 항공 차량에 추가로 장착될 수 있다. 간단한 용어로, CIU는 차량을 제어하기 위해 HD 지도를 사용하기 위한 장치일 수 있으며, 여기서 RSU는 CIU를 지원하는 인프라의 일부일 수 있다.
도 1은 일 실시예에 따른 자동차 내부 유닛(car inside unit, CIU)의 개략적인 블록도를 도시한다. CIU는 고선명 지도를 제공하도록 구성되는 프로세서 유닛(110)을 포함한다. CIU(100)는 장치의 주변부의 환경 조건을 나타내는 센서 데이터를 제공하도록 구성되는 센서 유닛(120)을 더 포함한다. 예를 들어, 센서 유닛(120)은 레이더(무선 검출 및 거리 측정) 또는 LiDAR(광 검출 및 거리 측정)과 같은 물체 검출 및 거리 측정을 위한 센서를 포함할 수 있다. 환경 조건은 예를 들어 인접하거나 다른 물체에 대한 장치의 거리, 장치의 속도, HD 지도에서의 장치의 위치, 및/또는 장치의 높이를 포함하는 절대 좌표계 등일 수 있다. 센서 데이터(122)는 예를 들어 센서 유닛(120)으로 감지 가능하거나 검출 가능한 물체의 크기, 속도, 및/또는 위치에 관한 정보를 포함할 수 있다. 센서 유닛(120)은 센서 데이터(122)를 제공하기 위해 이미징 기술을 사용하여 장치의 주변부를 스캔하도록 구성될 수 있다. 환경 조건은 주변부에서 검출된 물체까지의 거리일 수 있다.
CIU(100)는 추가 CIU 및/또는 RSU 및/또는 CIU 및/또는 RSU인 복수의 장치를 포함하는 네트워크와 같은 외부 소스에 의해 제공되는 고선명 지도를 나타내는 데이터(132)를 수신하도록 구성되는 수신기 유닛(130)을 더 포함한다.
프로세서 유닛(110)은 수신된 HD 지도와 센서 데이터(122)를 융합하여 CIU(100)의 HD 지도를 생성하여 제공하도록 구성된다.
CIU(140)는 프로세서 유닛(110)에 의해 수행된 융합의 결과(112)를 송신하도록 구성되는 송신기 유닛(140)을 포함한다. 송신기 유닛(140)은 결과(112)를 송신하기 위한 신호(142)를 제공하도록 구성되며, 여기서 신호(142)는 바람직하게는 무선 신호이다.
CIU(100)는 CIU(100)를 소지하는 차량에 대한 차량 제어 명령을 나타내는 명령 신호(152)를 생성하도록 구성되는 명령 생성기 유닛(150)을 더 포함한다. 프로세서 유닛(110)은 명령 생성기 유닛(150)이 그에 기초하여 명령 신호(152)를 도출할 수 있도록 명령 생성기(150)에 정보(114)를 제공하도록 구성된다. 정보(114)는 프로세서 유닛(110)에 의해 생성된 HD 지도에 기초한다. 일 예에 따르면, 정보(114)는 HD 지도가다. 다른 예에 따르면, 정보(114)는 결과(112)에 대응한다. 결과(112)는 예를 들어 수신된 HD 지도에 포함된 정보를 데이터(122)에 의해 수정함으로써 획득된다. 데이터(132)를 통해 수신된 HD 지도는 예를 들어 지도 내의 다른 물체의 속도 또는 위치에 관한 정보를 포함할 수 있다. 자체 센서 데이터는 보다 정확한 데이터 또는 보다 실제 데이터를 포함하여 처리 유닛(110)이 자체 센서 데이터에 의해 수신된 HD 지도의 데이터를 갱신 또는 업데이트할 수 있다. 일 예에 따르면, 수신된 HD 지도는 센서 유닛(120)으로 감지된 범위와 비교할 때 더 넓거나 큰 지역을 커버한다. 처리 유닛(110)은 다른 데이터가 이용 가능한 수신된 HD 지도 내의 그러한 지역 또는 데이터 물체만을 업데이트 또는 리프레시하도록 구성될 수 있다. 다른 데이터는 센서 유닛(120)에 의해 생성될 수 있거나, 추가 HD 지도를 수신하는 수신기 유닛(130)을 사용하여 수신될 수 있다. 추가 HD 지도는 제2 HD 지도와 상이한 지역을 커버할 수 있고/있거나 상이한 타임 스탬프를 가질 수 있다.
CIU는 소위 기본 지도에 기초하여 명령 신호(152)를 결정하도록 구성될 수 있다. 이러한 기본 지도는 강, 거리 등과 같은 교통로에 대한 정보를 포함할 수 있으며, 예를 들어 네비게이션 시스템에서 사용될 수 있다. 이러한 기본 지도는 복수의 CIU 또는 RSU에 대해 공통적일 수 있고, HD 지도의 데이터와 결합될 수 있다. 장치(100)는 이러한 기본 지도가 이미 수신 노드에 존재할 수 있으므로 그러한 기본 지도의 송신을 생략하도록 구성될 수 있다. 대역폭 및 에너지를 절약하기 위해, 장치는 이러한 기본 지도가 없는 경우에 신호(132)에 의해 수신된 HD 지도와 센서 데이터(122)의 융합의 결과를 송신하도록 구성될 수 있다. 따라서, 수신된 HD 지도(132)은 또한 상기 기본 지도가 없는 지도일 수 있으며, 여기서 처리 유닛(110)은 수신된 고선명 지도를 센서 데이터 및 정적 지도라고도 불리는 기본 지도와 융합하도록 구성될 수 있다. 관련 동적 정보를 배포하기 위해, 융합의 결과를 수신 노드에서 정적 지도와 융합된 고선명 지도로만 배포, 즉 송신하는 것으로 충분할 수 있다.
명령 신호(152)는 차량을 제어하도록 구성될 수 있다. 명령 신호(152)는 예를 들어 차량에게 브레이크, 가속, 선회, 상승, 싱크, 링크 등을 표시하는 신호와 관련될 수 있다.
CIU(100)는 수신기 유닛(130)으로 적어도 하나의 추가 HD 지도를 나타내는 추가 데이터를 수신하고, 수신된 HD 지도와 센서 데이터(122)를 융합하여 그 자체의 HD 지도를 제공하도록 구성될 수 있다.
신호(142)에 의해 송신되거나 신호(132)에 의해 수신된 HD 지도는 많은 양의 데이터를 포함할 수 있다. 많은 양의 데이터를 수신하고/또는 많은 양의 데이터를 송신하기 위해, 수신기 유닛(130) 및 송신기 유닛(140)은 각각 밀리미터 파장 신호를 수신하여 밀리미터 파장 신호를 송신하도록 구성된다. 밀리미터 파장 신호로서, 30Gigahertz 이상 300Gigahertz 이하이고 송신될 높은 비트 레이트를 허용하는 주파수 범위에 대응할 수 있는 1 밀리미터 이상 10 밀리미터 이하의 파장을 포함하도록 송신되는 신호인 것으로 이해할 수 있다. 비제한적인 예로서, 밀리미터 파 주파수는 세계의 무선 규제를 고려하여 24.25Gigahertz에서 시작될 수 있다. 송신기 유닛(140)은 적어도 2Gbps, 적어도 2.1Gbps, 또는 적어도 2.2Gbps의 비트 레이트로 고선명 지도를 송신하도록 구성될 수 있다. 예를 들어, 특히 융합된 고선명 지도를 송신할 때, 고선명 지도를 송신하기 위해 프레임 당 적어도 2.75Mbyte의 프레임 크기가 프레임당 데이터 크기로 필요할 수 있다. 프로세서 유닛(110)은 적어도 2.75Mbyte, 적어도 3.25Mbyte, 또는 적어도 3.75Mbyte인 데이터 크기를 포함하도록 고선명 지도를 제공하도록 구성될 수 있다.
또한, 프로세서 유닛은 HD 지도의 연속적인 업데이트를 제공하기 위해 시간 간격으로 HD 지도를 생성하도록 구성될 수 있다. 그러면, 단일 HD 지도는 HD 지도의 프레임으로 이해될 수 있다. 예를 들어, 프로세서는 각각 최대 10ms, 8ms, 또는 심지어 7ms인 시간 거리를 갖는 HD 지도, 프레임을 생성하도록 구성될 수 있다. 이는 HD 지도의 실시간 업데이트를 허용할 수 있다. 실시간은 아직 존재하는 지연에 의해 수신기 측에서 지연 또는 부정적인 효과가 없도록 데이터를 충분히 일찍 제공하는 것으로 이해될 수 있다. 예를 들어 시속 180km, 즉 초속 50m로 이동하고 10ms의 시간 거리를 가진 HD 지도를 수신하거나 생성하는 것은 약 0.5m의 CIU를 소지하는 차량의 움직임과 같다. 차량의 센서는 0.5m 또는 10ms의 지연이 임의의 부정적인 효과 없이 보상될 수 있도록, 예를 들어 적어도 10m, 적어도 30m, 또는 적어도 100m의 물체를 훨씬 더 멀리 감지할 수 있으므로, 단일 프레임 간에 시간 스텝을 가지지만 실시간으로 여겨질 수 있다.
동일한 110은 CIU 주위로 적어도 300미터의 반경을 갖는 지도 정보를 포함하도록 고선명 지도를 생성하도록 구성될 수 있다.
CIU(100)는 레거시 V2V 또는 V2X 통신 방식에 따라 데이터를 송신하도록 구성되는 선택적인 레거시 인터페이스(160)를 포함할 수 있다. 이를 위해, 처리 유닛(110)은 수신된 HD 지도와 관련하여 및/또는 센서 데이터(122)와 관련하여 수신된 데이터의 세부 사항(116)을 결정하거나 추출하도록 구성될 수 있다. 처리 유닛(110)은 도로 안전 서비스, 예를 들어, 교통 정체, 교통 사고, 교통 건설 에 관한 정보를 추출된 세부 사항(116)를 통신 방식에 일치시키고, 이러한 추출된 세부 사항(116)을 통신 방식에 따라 송신하도록 구성될 수 있다. 간단히 말해, CIU는 데이터 변환이 필요할 수 있지만 기존 통신 방식과 호환 가능할 수 있다.
프로세서 유닛(110)은 수신된 HD 선명 지도(132)과 비교될 때 동일한 좌표계를 포함하도록 고선명 지도를 생성하도록 구성될 수 있다. 이는 전체적으로 지도의 지역을 증가시키고 및/또는 재송신 및/또는 사용될 수 있는 누적 지도를 획득하는 것을 허용할 수 있다.
CIU(100)는 예를 들어 수신기 유닛(130)을 사용하여 선택적인 정보(134)를 수신하도록 구성될 수 있다. 정보(134)는 생성될 고선명 지도에서 관심 영역을 표시하는 정보를 포함할 수 있다. 처리 유닛은 관심 영역 외부의 영역과 비교할 때 관심 영역에서 고도의 해상도, 즉 고도의 정보를 포함하도록 고선명 지도를 생성하도록 구성될 수 있다. 관심 영역은 예를 들어 차량 또는 CIU를 소지하는 차량의 기울기 또는 목표일 수 있다. 예를 들어, 차량이 이동될 경로를 따라, 차량이 이동하지 않는 경로를 제외하고 영역 또는 도로와 비교할 때 고선명 지도가 보다 고도의 해상도로 생성될 수 있다.
다시 말해, 도 1은 CIU의 블록도를 도시한다. HD 센서 유닛은 예를 들어 LiDAR를 사용하여 HD 지도에 대한 정보를 수집한다. 밀리미터 파 RX 유닛은 주변부 자동차 및/또는 RSU로부터 실시간으로 예를 들어 2.2Gbps 처리량 초과 10ms 미만의 대기 시간으로 HD 지도를 수신한다. HD 지도 처리 유닛은 밀리미터 파 Rx 유닛에 의해 수신된 다수의 HD 지도를 결합함으로써 적어도 300미터 전방을 지원하는 HD 지도를 계산한다. 밀리미터 파 Tx 유닛은 HD 지도 처리 유닛에서 계산된 HD 지도를 주변부의 자동차 및/또는 RSU에 실시간으로, 예를 들어 2.2Gbps 처리량 초과 10ms 미만의 대기 시간으로 중계한다. 자율 주행 유닛은 HD 지도 처리 유닛에서 계산된 HD 지도에 기초하여 가속, 브레이크 및 조종을 위한 자동차 주행 명령을 생성한다.
도 2는 일 실시예에 따른 도로변 유닛(RSU)의 개략적인 블록도를 도시한다. RSU(200)는 CIU(100)에 대해 설명된 바와 같이 HD 지도를 제공하도록 구성될 수 있다. CIU(100)와는 대조적으로, RSU(200)는 각각 자율 주행 유닛, 명령 생성기(150) 없이 구현될 수 있다. 도로변 유닛(200)은 특히 CIU를 소지하는 차량이 다른 차량을 놓쳐서 HD 지도를 제공하는 시나리오에서 차량에 HD 지도를 제공할 수 있다.
RSU(200)는 처리 유닛(110)과 동일할 수 있고 HD 지도를 제공하도록 구성된 처리 유닛(210)을 포함할 수 있다. RSU(200)는 센서 유닛(120)과 동일한 센서 유닛(220)을 포함할 수 있고 센서 데이터(122)와 동일 할 수 있고 RSU(200)의 주변부의 환경 조건을 나타내는 센서 데이터(222)를 제공하도록 구성되는 센서 유닛(220)을 포함할 수 있다. RSU(200)는 수신기 유닛(130)과 동일할 수 있고 데이터(132)에 대해 설명된 바와 같은 제2의 외부 고선명 지도를 나타내는 데이터(232)를 수신하도록 구성될 수 있는 수신기 유닛(230)을 포함한다.
프로세서 유닛(210)은 신호(212)에 의해 표시되는 바와 같은 고선명 지도를 제공하도록 외부 고선명 지도(232)과 센서 데이터(222)를 융합하도록 구성된다. RSU(200)는 신호(242)를 사용하는 것에 의해 제2 고선명 지도와 센서 데이터(222)를 융합한 결과를 송신하도록 구성된 송신기 유닛(240)을 포함한다. 결과는 CIU(100)와 관련하여 설명된 바와 같이, 명시된 지도가 없는 경우 HD 지도의 오버레이 또는 융합일 수 있다. 대안적으로, 명시된 지도가 송신되어 부가적인 데이터의 비용에 대한 보다 완전한 데이터 세트가 될 수 있다.
신호(242)에 의해 송신된 고선명 지도는 RSU 주위로 적어도 300미터, 적어도 350미터, 또는 적어도 400미터의 반경 내의 지도 정보를 포함한다.
CIU(100)에 대해 설명된 바와 같이, RSU(200)는 백홀 네트워크에 레거시 V2X 통신 방식에 따라 추출된 세부 사항을 송신하고 및/또는 세부 사항(216)을 송신하도록 구성된 레거시 인터페이스(260)를 포함할 수 있다. 따라서, CIU(100), RSU(200)는 레거시 네트워크와 통신하도록 구성될 수 있으며, 여기서 RSU(200)는 차량 대 차량 통신을 백홀 통신으로 대체할 수 있다.
CIU(100)와 관련하여 설명된 통신, 송신, 또는 제공된 데이터의 양에 제공된 세부 사항은 또한 RSU(200)에 적용될 수 있는데, 즉 생성된 고선명 지도는 센서 유닛(220)에 의해 감지되는 영역보다 클 수 있으며, 수신기 유닛(230) 및 송신기 유닛(240)은 통신을 위해 밀리미터 파장을 사용할 수 있고, 송신기 유닛(240)은 적어도 2Gbps인 비트 레이트로 고선명 지도를 송신하도록 구성될 수 있고, 고선명 지도는 적어도 2.75Mbyte, 적어도 3.25Mbyte, 또는 적어도 3.75Mbyte인 데이터 크기를 포함할 수 있다. 또한, 프로세서 유닛은 복수의 프레임의 프레임으로서 고선명 지도를 생성하도록 구성될 수 있으며, 2개의 후속 프레임은 최대 10ms, 바람직하게는 8ms, 그리고 보다 바람직하게는 6ms의 거리만큼 시간적으로 이격된다.
센서 유닛(220)은 센서 유닛(120)에 대해 전술된 바와 같이 센서 데이터(222)를 제공하기 위해 이미징 기술을 사용할 수 있으며, 예를 들어, 센서 유닛(220)은 LiDAR 센서를 포함할 수 있다.
도 1을 참조하면, 수신된 고선명 지도(132)은 신호(242)에 의해 송신된 고선명 지도, 즉 고선명 지도(242)일 수 있다. 반대로, 고선명 지도(332)은 CIU(100)에 의해 송신된 고선명 지도(142)일 수 있다. 융합이 또한 수신된 지도의 일부를 적응시키는 것으로 이해 될 수 있을 때, 센서 유닛(120 또는 220)은 LiDAR 센서를 사용하여 각각의 장치(100 또는 200)의 주변부를 스캔하도록 구성될 수 있으며, 여기서 환경 조건은 주변부 내에서 검출된 물체까지의 거리일 수 있다. 수신된 고선명 지도(132 또는 232)은 추가 장치로부터 수신된 지도일 수 있고, 수신된 고선명 지도는 각각의 추가 장치에 의해 생성되는 수신된 고선명 지도의 지역에 있는 물체에 관한 정보를 포함할 수 있다. 프로세서 유닛(110, 210) 각각은 각각의 장치와 센서 유닛(120, 220)에 의해 검출된 물체 사이의 거리를 사용하여, 그리고 각각의 프로세서 유닛(110 또는 210)을 소지하는 장치의 실제 위치를 사용하여, 수신된 지도 내의 하나 이상의 물체에 관한 정보를 적응시키도록 구성될 수 있다.
CIU와 유사할 가능성이 있는 RSU는 또한 수신기 유닛(230)은 적어도 제3 고선명 지도를 나타내는 데이터를 수신하도록 구성되고, 프로세서 유닛(210)은 제1 고선명 지도를 제공하기 위해 제2 및 제3 고선명 지도를 센서 데이터와 융합하도록 구성되는 것으로 이해할 수 있다. 또한, 프로세서 유닛(110)은 수신된 HD 선명 지도와 비교될 때 동일한 좌표계를 포함하도록 고선명 지도를 생성하도록 구성될 수 있다. 또한, 프로세서 유닛은 수신된 고선명 지도, 센서 데이터, 및 정적 지도를 융합시켜 제1 고선명 지도를 제공하도록 구성될 수 있다. RSU는 고선명 지도와 센서 데이터를 융합한 결과를 송신할 때 정적 지도를 송신하지 않도록 구성될 수 있다.
다시 말해, 도 2는 RSU의 블록도를 도시한다. HD 센서 유닛은 예를 들어 LiDAR를 사용하여 HD 지도에 대한 정보를 수집한다. 밀리미터 파 RX 유닛은 주변부 RSU 및/또는 자동차로부터 실시간으로 예를 들어 2.2Gbps 처리량 초과 10ms 미만의 대기 시간으로 HD 지도를 수신한다. HD 지도 처리 유닛은 밀리미터 파 Rx 유닛으로 수신된 다수의 HD 지도를 결합함으로써 도로 또는 도로를 따라 적어도 300m 전방을 지원하는 HD 지도를 계산한다. 밀리미터 파 Tx 유닛은 HD 지도 처리 유닛으로 계산된 HD 지도를 주변부의 RSU 및/또는 자동차에 실시간으로, 예를 들어 2.2Gbps 처리량 초과 10ms 미만의 대기 시간으로 중계한다. 자율 주행을 위한 RSU는 HD 지도에 대한 정보를 수집하기 위해 LiDAR 센서와 같은 HD 센서 유닛을 포함할 수 있다. 주변부 RSU 및/또는 자동차로부터 실시간으로 예를 들어 2.2Gbps 초과 처리량으로 그리고 10밀리초 미만의 대기 시간으로 HD 지도를 수신하는 밀리미터 파 RX 유닛을 더 포함할 수 있다. CIU 또는 CIU 또는 RSU에 의해 수신된 다수의 HD 지도들을 결합함으로써 도로(들)를 따라 적어도 300미터 전방을 지원하는 HD 지도를 계산하는 HD 지도 처리 유닛을 더 포함할 수 있다. CIU 중계에서 계산된 지도를 주변부의 RSU 및/또는 자동차(CIU)에 실시간으로, 예를 들어 2.2Gbps 초과 처리량으로 그리고 10ms 미만의 대기 시간으로 중계하는 밀리미터 파 Tx 유닛을 더 포함할 수 있다.
도 3은 예를 들어 CIU(100) 또는 RSU(200)에 의해 수신될 수 있는 HD 지도(302)의 개략적인 블록도를 도시한다. 도 3은 CIU(100)의 존재를 도시하지만, 대안적으로 RSU(200)가 존재할 수 있다. 또한, 본 명세서에서 설명된 실시예에 따라, 추가 CIU 또는 RSU가 존재할 수 있다. CIU(100)는 예를 들어 센서 유닛(120)을 사용하여 주변부(304)을 스캔하도록 구성될 수 있다. HD 지도(132)일 수 있는 HD 지도(302)을 수신할 때, CIU(100)는 자체 센서 데이터를 얻은 HD 지도(302)의 지역을 적응시키도록 구성될 수 있다. 따라서, CIU(100) 또는 RSU(200)에 의해 생성된 고선명의 지역은 주변부(304)의 지역보다 클 수 있다.
HD 지도는 HD 지도(302) 내의 지역 또는 물체(306)에 관한 타임 스탬프와 같은 메타데이터를 포함할 수 있다. 따라서, 프로세서 유닛(110 또는 210)은 지역 또는 물체(306)에 관한 정보의 에이지(age)를 결정하도록 구성될 수 있다. 대안적으로, HD 지도는 고선명 지도의 다른 부분의 에이지를 표시하는 정보를 포함하도록 생성될 수 있다. 정보의 에이지를 사용하여, 프로세서 유닛(110 또는 210)은 특정 임계 값을 초과하는 에이지를 포함하는 정보를 디스카운트하도록 구성될 수 있다, 즉 오래되었거나 너무 많거나 너무 오래된 정보는 폐기될 수 있다. 예를 들어, 거리를 가로지르는 보행자인 물체(306)에 관한 정보는 다른 CIU 또는 RSU가 더 이상 보행자를 검출하지 못한 특정 시간 후에 폐기될 수 있다. 간단히 말해서, 보행자가 길을 건넜고 떠났을 수 있다. 정보의 에이징에 대한 임계 값은 특정 물체 클래스에 따라 상이할 수 있는데, 예를 들어 보행자, 동물, 또는 다른 차량이 위치를 떠날 수 있으며, 여기서 건물 등이 오랫동안 특정 위치에 머물러 있을 가능성이 높다. 예를 들어, 움직이는 것으로 간주되는 물체에 대한 정보의 에이징에 대한 임계 값은 예를 들어 1시간, 30분, 또는 5분 이하일 수 있다. 정적인 것으로 간주되는 물체의 클래스에 대한 에이징에 대한 임계 값은 예를 들어 월, 주, 또는 일 이하일 수 있다.
도 4는 예를 들어 자동차 또는 드론일 수 있는 차량(450a 내지 450d)에 소지되거나 장착되는 복수의 CIU(100a 내지 100e)를 포함하는 통신 네트워크(400)의 개략적인 블록도를 도시한다. 차량은 대안적으로 임의의 다른 주행 또는 비행 차량일 수 있다. 통신 네트워크(400)는 복수의 RSU(200a 내지 200f)를 더 포함한다. 각각의 CIU(100a 내지 100e) 및 RSU(200a 내지 200f)는 부분적으로 또는 완전히 오버랩될 수 있지만 서로 이격될 수 있는 각각의 주변부(304a 내지 304h)과 연관된다. 영역(304a 내지 304h) 각각은 센서 유닛(120 또는 220)과 같은 HD 센서의 커버리지를 표시할 수 있다. 각각의 CIU(100a 내지 100e)는 예를 들어 고선명 지도(132, 142, 232, 및/또는 242)일 수 있는 양방향 통신 링크(432a 및 432b)에 의해 표시된 바와 같이 인접한 CIU 및/또는 인접한 RSU와 통신하도록 구성될 수 있다.
하나 이상의 CIU(100a 내지 100e 및/또는 RSU)는 네트워크 내의 노드에 대해, 현재의 5G의 종래의 V2X 및/또는 속도, 브레이크 등을 표시하는 정보를 수신 및/또는 송신하는 백홀 네트워크와 통신하도록 구성될 수 있다. CIU 및/또는 RSU 각각은 실시간 자율 주행 및/또는 비행을 위한 HD 지도(470)를 제공할 수 있다.
따라서, 복수의 네트워크 노드, 즉 RSU 및 CIU는 각각의 노드에 의해 생성된 고선명 지도(470)를 교환하도록 구성될 수 있다. RSU 및/또는 CIU의 적어도 하나의 장치는 누적 고선명 지도를 생성하기 위해 노드의 고선명 지도를 융합하도록 구성될 수 있다.
HD 지도(470)에 대해 나타내어진 바와 같이, 주변부(304f)을 "볼" 수는 없지만, CIU(100a), 따라서 차량(450a)은 이 지역 내의 물체 등을 인식할 수 있다.
이는 예를 들어 양방향 통신(432c)에 의해 표시된 RSU 간의 통신에 의해 달성될 수 있다.
차량(550a 내지 550d)은 차량 제어 명령을 나타내는 명령 신호(152)에 응답하여 자율적으로 움직이도록 구성된다. 차량(540)에 장착된 CIU는 생성된 고선명 지도를 다른 CIU, 통신 네트워크 구조, 네트워크, 예를 들어 도 5 및 도 6과 관련하여 설명된 네트워크, 추가 차량, 및/또는 RSU에 송신하도록 구성될 수 있다.
다시 말해, 도 4는 본 명세서에 설명된 실시예의 통상적인 시나리오를 도시한다. 실시예의 제안은 자동차 또는 드론의 자율 주행을 실현하는 것일 수 있다. 여러 자동차가 CIU에 의해 계산된 HD 지도를 사용함으로써 도 1과 관련하여 설명된 CIU를 구현하거나 소지하여 자율 주행을 실현한다. 도 4에서, 도 2와 관련하여 설명 RSU는 예를 들어 CIU를 구비한 자동차에 HD 지도를 전달함으로써 자율 주행을 보조하기 위한 거리가 매 100미터인 가로등 기둥과 교통 신호등에 위치한다. 주변부 차량의 다수의 CIU 및 도로(교차로를 포함하는 도로)의 상이한 가로등 기둥에 있는 다수의 RSU는 다수의 HD 지도를 결합함으로써 로컬 지도를 형성하여 HD 지도 정보를 교환해 HD 지도의 커버리지를 넓히고 차단 문제를 피하는 기능이 있다. 목표 자율 주행 자동차에 더 가까운 지역에서는 HD 지도의 필요한 정확도가 관심 장소로부터의 거리에 의존하기 때문에(즉, 더 높은 정확도가 필요할 수 있기 때문에), CIU 및 RSU는 관심 위치로부터의 거리의 차이에 기초하여 중계될 HD 지도의 적응 해상도 감소를 지원할 수 있다. CIU는 레거시 V2V 및 V2X 통신에 대한 인터페이스를 지원하여 비상 상황, 경고, 위치, 속도 등과 같은 감소된 정보를 주변부 차량 V2V 또는 V2X를 통한 교통 안전 서버와 교환할 수 있다. 유사하게, RSU는 비상 상황, 경고, 위치, 속도 등과 같은 감소된 정보를 교환하기 위해 교통 안전 서버에 연결된 수신 통신 및 백홀 네트워크에 의한 레거시에 대한 인터페이스를 지원한다. 본 명세서에 설명된 실시예는 자율 주행이 필수일 수 있는 도시에서 비행하는 드론에 적용될 수 있다. 실시예는 HD 지도의 실시간 전달, 차량 및 드론의 자율 주행의 실현, 및/또는 도로 안전 서비스의 개선을 실현할 수 있게 할 수 있다.
특히, 일부 시나리오에서와 같이, LiDAR 센서는 300미터까지 거리를 측정할 수 없으며, 상이한 RSU 및/또는 CIU 간의 협업으로 인해 많은 교차로와 가로막는 물체를 지닌 특히 도시의 도시 환경에서 적어도 300 미터의 지도를 생성할 수 있게 할 수 있다. 실시예는 자율 주행을 실현하기 위해 자동차에 HD 지도 정보를 전달하기 위한 인프라 네트워크를 실현하기 위한 아이디어 및 개념을 제공한다. 설명된 실시예의 개념은 또한 자율 주행이 장거리 주행 또는 비행을 위해 필수적일 수 있는 드론을 위한 장래의 교통 시스템에도 적용될 수 있다.
도 4는은 일 실시예에 따른 고선명 지도(470)의 개략적인 블록도를 도시한다. 고선명 지도(470)는 예를 들어 CIU와 관련된 관심 영역(475)을 포함할 수 있다. 예를 들어, 고선명 지도(470)를 생성하는 CIU 또는 RSU는 관심 영역(475)을 표시하는 정보를 수신하고 표시하는 CIU에 제공될 고선명 지도를 생성하도록 구성될 수 있다. 관심 영역에서, 고선명 지도(470)의 해상도는 관심 영역(475) 외부의 영역(477)과 비교할 때 더 높은 정도를 포함할 수 있다. 해상도의 정도는 고선명 지도에서 나타내어지는 물체의 유형과 관련될 수 있지만, 고선명 지도(470)에서 물체의 확장의 정밀도의 관점에서의 해상도와 관련될 수도 있다. 예를 들어, 관심 영역(475)에서 떨어진 영역(477)은 관심 영역(475)이 관련된 CIU에 대해 높은 거리로 배열될 수 있거나, 관심 영역(475)이 관련된 CIU의 스케줄링된 이동이 없는 영역일 수 있다. 이 떨어져 있는 위치의 거리에 있는 차량과 같은 물체의 존재, 위치, 또는 크기는 관심 영역(475)와 비교할 때 영역(477)에서 고선명 지도(470)의 더 낮은 데이터 크기를 획득하기 위해 지도의 데이터 크기에 대해 제외되거나 적어도 감소될 수 있다. 고선명 지도(470)은 복수의 영역(475, 477) 및 선택적으로 479(즉, 3 이상의 영역)를 포함하도록 생성될 수 있으며, 여기서 각각의 영역은 상이한 정도의 해상도를 포함할 수 있다. 관심 영역(475)에서의 해상도의 정도는 영역(477 및/또는 479)에서보다 적어도 2배, 적어도 3배, 적어도 4배 이상 더 클 수 있다. 관심 영역은 고선명 지도(470)의 최대 50%의 부분, 바람직하게는 고선명 지도(470)의 최대 40% 또는 보다 바람직하게는 최대 30%의 부분을 포함할 수 있다.
도 5는 복수의 RSU(200a 내지 200f)를 포함하는 네트워크(500)의 개략적인 블록도를 도시한다. 예를 들어, 통신 네트워크(400)의 RSU(200a 내지 200f)는 적어도 부분적으로 네트워크(500)를 형성할 수 있다. 도 4에 도시된 바와 같이, RSU는 도로 또는 비행 루트와 같은 교통 시스템의 이동 경로를 커버하도록 서로 거리를 두고 위치된다. RSU들은 양방향 통신 링크(432a 내지 432f)의 송신 범위에 따라 서로 통신할 수 있다. RSU는 두 RSU의 센서 유닛의 범위의 최대 합인 서로 거리를 두고 위치될 수 있어, RSU의 주변부는 본질적으로 갭이 없다, 즉 이동 경로를 따른 지점 또는 간격의 각각에 대해 HD 지도에 이용 가능하다. 예를 들어, 인접 RSU 간의 거리(502)는 최대 500미터, 최대 400미터, 또는 최대 300미터일 수 있다.
네트워크(500)는 대안적으로 RSU(200a 내지 200f)를 포함할 수 있으며, 여기서 RSU는 RSU(200a 내지 200f)에 의해 생성된 고선명 지도를 교환하도록 구성된다. 적어도 하나의 RSU(200a 내지 200f)는 누적 고선명 지도를 생성하기 위해 통신 네트워크(500)의 다른 RSU로부터 수신된 고선명 지도를 융합하도록 구성될 수 있다. 따라서, 네트워크(400)와 비교할 때, 네트워크(500)를 형성하는 RSU는 누적 고선명 지도를 생성할 수 있다.
도 6은 복수의 CIU(100a 내지 100f)를 포함하는 네트워크(600)의 개략적인 블록도를 도시하며, 여기서 CIU는 예를 들어 각각 차량(450a 내지 450f)에 의해 장착되거나 소지될 수 있다. 통신 네트워크(500)와 유사하게, CIU(100a 내지 100f)는 CIU(100a 내지 100f)에 의해 생성된 고선명 지도를 교환하기 위해 통신 링크(432a 내지 432h)에 의해 서로 통신할 수 있다. CIU 중 적어도 하나는 누적 고선명 지도를 생성하기 위해 통신 네트워크의 다른 장치로부터의 고선명 지도를 융합하도록 구성될 수 있다.
도 4 내지 도 6과 관련하여 설명된 고선명 지도의 통신 및 교환은 고선명 지도를 수신하는 네트워크 노드가 이 지도를 기존 지도에 포함시킬 수 있고 이에 의해 획득된 지도를 추가 노드로 더 송신하는 것으로 이해될 수 있다. 따라서, 단계별로, 지도의 크기가 증가할 수 있고, 장치에 의해 생성된 고선명 지도는 입력 지도를 송신하는 장치 또는 고선명 지도를 생성하는 장치에 의해 보이지 않는 영역을 포함할 수 있다. 간단히 말해서, CIU 또는 RSU의 센서에 의해 스캔된 주변부는 네트워크의 대부분 또는 심지어 전체 네트워크에 배포될 수 있다.
주변부 CIU 또는 RSU가 존재하지 않더라도, 독립형 CIU는 자율 주행 시스템과 같이 여전히 수행할 수 있다, 즉 다른 CIU 및/또는 RSU와의 통신은 유용할 수 있지만 반드시 필요한 것은 아니다.
CIU 중계기는 다수의 CIU 간에 HD 지도 정보를 교환함으로써 더 넓은 커버리지 및 더 적은 블로킹 문제를 갖는 HD 지도를 계산하기 위해 복수의 또는 다수의 CIU를 포함하는 네트워크(600)와 같은 통신 네트워크에 관련될 수 있다. RSU 중계기는 다수의 RSU 간에서 HD 지도 정보를 교환함으로써 보다 넓은 커버리지 및 더 적은 블로킹 문제를 갖는 HD 지도를 계산하기 위해 복수의 또는 다수의 RSU를 포함하는 네트워크(500)와 같은 통신 네트워크와 관련될 수 있다. CIU-RSU 중계기는 다수의 CIU와 RSU 간에 HD 지도 정보를 교환함으로써 더 넓은 커버리지 및 더 적은 블로킹 문제가 적은 HD 지도를 계산하기 위해 복수의 또는 다수의 CIU 및 복수의 또는 다수의 RSU를 포함하는 통신 네트워크(400)와 같은 통신 네트워크에 관련될 수 있다. CIU는 통신 네트워크에서 사용될 수 있으며, 관심 위치로부터의 거리의 차이에 기초하여 관련될 HD 지도의 적응적 해상도 감소 기능을 포함한다. 이것은 CIU-AdapRes라고 할 수 있다. RSU-AdapRes로서, 기능이 이해될 수 있는데, RSU는 통신 네트워크에서 사용되며, 고선명 지도를 요청하거나 수신하는 CIU와 관련되는 관심 위치로부터의 거리의 차이에 기초하여 중계될 HD 지도의 적응적 해상도 감소 기능을 갖는다. 즉, CIU 또는 RSU는 관심 영역을 표시하는 정보에 기초하여 생성되는 지도의 해상도를 적응시키도록 구성될 수 있다. 특히, HD 지도 융합이 CIU 또는 RSU에 의해 수행될 때, 데이터 프레임의 데이터 크기는 2.75Mbyte의 크기를 초과할 수 있다. 이는 예를 들어 실시간으로 데이터를 송신할 때 2.2Gbps를 초과하는 데이터 레이트를 초래할 수 있다. AdapRes는, 즉 상이한 해상도의 정도를 포함하는 상이한 영역을 포함하도록 고선명 지도를 제공함으로써, 데이터 크기 및/또는 데이터 레이트의 초과를 방지하거나 적어도 감소시킬 수 있다. 다시 말해, 10ms의 대기 시간을 보장하기 위해, 2.2Gbps 데이터 속도의 경우 프레임당 데이터 크기가 2.75MB 미만이어야 하나, 이 데이터 크기 또는 데이터 레이트는 초과될 수 있으며, 여기서 지도의 부분 또는 영역의 해상도를 감소시킴으로써 초과 수준을 허용 가능한 수준으로 제한될 수 있다.
CIU는 비상 상황, 경고, 위치, 속도 등과 같은 감소된 정보를 교환하기 위해 레거시 V2V 및 V2X 통신(CIU 레거시)에 대한 인터페이스를 포함할 수 있다. RSU는 레거시 V2X 통신(RSU 레거시) 및 백홀 네트워크 통신에 대한 인터페이스를 포함할 수 있으며, 백홀 네트워크는 비상 상황, 경고, 위치, 속도 등과 같은 감소된 정보를 교환하기 위해 교통 안전 서버에 연결된다. 드론(무인 항공기)은 주위의 드론 및/또는 RSU와 HD 지도 정보를 교환하여 자율 주행을 위해 CIU를 구현하거나 소지할 수 있다.
본 명세서에서 설명된 실시예를 위한 애플리케이션은 예를 들어 자동차 및/또는 드론을 위한 자율 주행 또는 비행, 충돌 회피와 같은 도로 안전 서비스일 수 있고/있거나, 스마트 시티, 즉 네비게이션, 시티 가이드, 주차 등의 범위 내에 있을 수 있다.
일부 양태가 장치의 맥락에서 설명되었지만, 이러한 양태가 또한 대응하는 방법의 설명을 나타내는 것이 명백하며, 여기서 블록 및 디바이스는 방법 단계 또는 방법 단계의 특징에 대응한다. 유사하게, 방법 단계의 문맥에서 설명된 양태는 또한 대응하는 블록 또는 아이템의 설명 또는 대응하는 장치의 특징을 나타낸다.
특정 구현 요건에 따라, 본 발명의 실시예는 하드웨어로 또는 소프트웨어로 구현될 수 있다. 구현은 각각의 방법이 수행되도록 프로그래밍 가능한 컴퓨터 시스템과 협력하는(또는 협력할 수 있는) 전자적으로 판독 가능한 제어 신호가 저장된, 디지털 저장 매체, 예를 들어 플로피 디스크, DVD, CD, ROM, PROM, EPROM, EEPROM 또는 플래시 메모리를 사용하여 수행될 수 있다.
본 발명에 따른 일부 실시예는 본 명세서에 설명된 방법 중 하나가 수행되도록 프로그래밍 가능 컴퓨터 시스템과 협력할 수 있는 전자적으로 판독 가능한 제어 신호를 갖는 데이터 캐리어를 포함한다.
일반적으로, 본 발명의 실시예는 컴퓨터 프로그램 제품이 컴퓨터 상에서 실행되는 경우 방법들 중 하나를 수행하도록 동작하는 프로그램 코드를 갖는 컴퓨터 프로그램 제품으로서 구현될 수 있다. 프로그램 코드는 예를 들어 머신 판독 가능 캐리어에 저장될 수 있다.
다른 실시예는 기계 판독 가능 캐리어 상에 저장된, 본 명세서에 설명된 방법 중 하나를 수행하기 위한 컴퓨터 프로그램을 포함한다.
다시 말해, 본 발명의 방법의 실시예는, 따라서, 컴퓨터 프로그램이 컴퓨터 상에서 실행되는 경우, 본 명세서에 설명된 방법 중 하나를 수행하기 위한 프로그램 코드를 갖는 컴퓨터 프로그램이다.
따라서, 본 발명의 방법의 다른 실시예는 그 위에 기록된, 본 명세서에 설명된 방법 중 하나를 수행하기 위한 컴퓨터 프로그램을 포함하는 데이터 캐리어(또는 디지털 저장 매체 또는 컴퓨터 판독 가능 매체)이다.
따라서, 본 발명의 방법의 다른 실시예는 본 명세서에 설명된 방법 중 하나를 수행하기 위한 컴퓨터 프로그램을 나타내는 데이터 스트림 또는 신호의 시퀀스이다. 데이터 스트림 또는 신호의 시퀀스는 데이터 통신 연결을 통해, 예를 들어 인터넷을 통해 전송되도록 구성될 수 있다.
다른 실시예는 본 명세서에 설명된 방법 중 하나를 수행하도록 구성되거나 적응된 처리 수단, 예를 들어 컴퓨터 또는 프로그램 가능 논리 디바이스를 포함한다.
다른 실시예는 본 명세서에 설명된 방법 중 하나를 수행하기 위한 컴퓨터 프로그램이 설치된 컴퓨터를 포함한다.
일부 실시예에서, 프로그램 가능 논리 디바이스(예를 들어, 필드 프로그램 가능 게이트 어레이)는 본 명세서에 설명된 방법의 기능 중 일부 또는 전부를 수행하는 데 사용될 수 있다. 일부 실시예에서, 필드 프로그램 가능 게이트 어레이는 본 명세서에 설명된 방법 중 하나를 수행하기 위해 마이크로프로세서와 협력할 수 있다. 일반적으로, 방법은 바람직하게는 임의의 하드웨어 장치에 의해 수행된다.
위에서 설명된 실시예는 본 발명의 원리를 예시하기 위한 것일 뿐이다. 본 명세서에 설명된 구성 및 세부사항의 수정 및 변형은 본 기술분야의 통상의 기술자에게 명백할 것임을 이해한다. 따라서, 곧 있을 청구범위의 범위에 의해서만 제한되고 본 명세서의 실시예에 대한 기술 및 설명에 의해 제공된 특정 세부사항에 의해서만 한정되는 것은 아니다.
참고문헌
[1] "5G Automotive Vision," 5GPPP White Paper, Oct. 20, 2015.
[2] Heiko G. Seif, Xiaolong Hu, "Autonomous Driving in the iCity - HD Maps as a Key Challenge of the Automotive Industry," ELSEVIER, Engineering, pp. 159-162, June 2016.
[3] Philippe Gicquel, "Autonomous Vehicles Needs Realtime Dynamic Map Data," Geospatial World, Nov. 2015.
[4] "Study on LTE Support for Vehicle to Everything(V2X) Services," 3GPP TR22. 885, V14.0.0, Dec. 2015.
[5] V Va. T. Shimizu, G. Bansal and R.W. Heath Jr,. "Millimeter Wave Vehicular Communications: A Survey," Foundations and Trends® in Networking, vol. 10, no. 1, pp. 1-113, June 2016.
[6] L Hobert, A. Festag, I. Llatser, L. Altomare, F. Visintainer, A. Kovacs, "Enhancements of V2X Communication in Support of Cooperative Autonomous Driving," IEEE Commun. Mag., vol. 53, no. 12, pp. 64-70, Dec 2015.
본 분할출원은 원출원 최초 청구항의 내용을 실시예로 아래에 포함하였다.
[실시예 1]
장치(100)에 있어서,
제1 고선명 지도(470)를 제공하도록 구성된 프로세서 유닛(110);
상기 장치의 주변부(304)에서의 환경 조건을 나타내는 센서 데이터(122)를 제공하도록 구성된 센서 유닛(120);
제2 고선명 지도(132)를 나타내는 데이터를 수신하도록 구성된 수신기 유닛(130);
- 상기 프로세서 유닛(110)은 상기 제1 고선명 지도(470)를 제공하기 위해 상기 제2 고선명 지도(132)와 상기 센서 데이터(122)를 융합하도록 구성됨 -
상기 제2 고선명 지도(132)와 상기 센서 데이터(122)를 융합한 결과(112)를 송신하도록 구성된 송신기 유닛(140); 및
상기 제1 고선명 지도(470)에 기초하여 상기 장치(100)를 소지하는 차량(450a-f)에 대한 차량 제어 명령을 나타내는 명령 신호(152)를 생성하도록 구성된 명령 생성기 유닛(150);을 포함하는 것을 특징으로 하는 장치.
[실시예 2]
제1실시예에 있어서,
상기 수신기 유닛(130)은 적어도 제3 고선명 지도를 나타내는 데이터를 수신하도록 구성되고;
상기 프로세서 유닛(110)은 상기 제1 고선명 지도(470)를 제공하기 위해 상기 제2 고선명 지도(132), 상기 제3 고선명 지도, 및 상기 센서 데이터(122)를 융합하도록 구성되는 것을 특징으로 하는 장치.
[실시예 3]
제1실시예 또는 제2실시예에 있어서,
상기 제1 고선명 지도(470)의 영역은 상기 주변부(304)의 영역보다 큰 것을 특징으로 하는 장치.
[실시예 4]
제1실시예 내지 제3실시예 중 어느 한 실시예에 있어서,
상기 수신기 유닛(130)은 밀리미터 파장 신호를 사용하여 상기 제2 고밀도 지도(132)를 수신하고/하거나 상기 밀리미터 파장 신호를 사용하여 상기 제1 고밀도 지도(470)를 송신하도록 구성되는 것을 특징으로 하는 장치.
[실시예 5]
제1실시예 내지 제4실시예 중 어느 한 실시예에 있어서,
상기 프로세서 유닛(110)은 관심 영역에서 제1 정도의 해상도를 구성하고 상기 관심 영역의 외부 영역에서 제2 정도의 해상도를 구성하기 위해 상기 제1 고선명 지도(470)에서 관심 영역을 나타내는 정보(134)를 수신하여 상기 제1 고선명 지도(470)를 제공하도록 구성되고, 상기 제1 정도의 해상도는 상기 제2 정도의 해상도보다 높은 것을 특징으로 하는 장치.
[실시예 6]
제5실시예에 있어서,
상기 제1 정도는 상기 제2 정도보다 적어도 2배 높은 것을 특징으로 하는 장치.
[실시예 7]
제5실시예 또는 제6실시예에 있어서,
상기 관심 영역은 상기 고선명 지도(470)의 최대 50% 부분을 포함하는 것을 특징으로 하는 장치.
[실시예 8]
제1실시예 내지 제7실시예 중 어느 한 실시예에 있어서,
상기 송신기 유닛(140)은 적어도 2Gbps인 비트레이트로 상기 제1 고선명 지도(470)를 송신하도록 구성되는 것을 특징으로 하는 장치.
[실시예 9]
제1실시예 내지 제8실시예 중 어느 한 실시예에 있어서,
상기 프로세서 유닛(110)은 상기 제1 고선명 지도(470)를 상기 제1 고선명 지도(470)의 프레임으로서 생성하도록 구성되고, 상기 프로세서 유닛(110)은 상기 제1 고선명 지도(470)의 복수의 프레임을 생성하도록 구성되고, 상기 프로세서 유닛(110)은 최대 10ms인 시간 간격을 두고 상기 복수의 프레임을 생성하도록 구성되는 것을 특징으로 하는 장치.
[실시예 10]
제1실시예 내지 제9실시예 중 어느 한 실시예에 있어서,
상기 프로세서 유닛(110)은 적어도 2.75Mbyte인 데이터 크기를 포함하는 상기 제1 고선명 지도(470)를 생성하도록 구성되는 것을 특징으로 하는 장치.
[실시예 11]
제1실시예 내지 제10실시예 중 어느 한 실시예에 있어서,
상기 프로세서 유닛(110)은 상기 장치 주위의 적어도 300m의 반경 내의 지도 정보를 포함하도록 상기 제1 고선명 지도(470)를 생성하도록 구성되는 것을 특징으로 하는 장치.
[실시예 12]
제1실시예 내지 제11실시예 중 어느 한 실시예에 있어서,
상기 센서 유닛(120)은 상기 센서 데이터(122)를 제공하기 위해 이미징 기술을 사용하여 상기 장치의 주변부(304)를 스캔하도록 구성되고, 상기 환경 조건은 상기 주변부(304) 내의 검출된 물체까지의 거리인 것을 특징으로 하는 장치.
[실시예 13]
제1실시예 내지 제12실시예 중 어느 한 실시예에 있어서,
상기 센서 유닛(120)은 LiDAR 센서를 포함하는 것을 특징으로 하는 장치.
[실시예 14]
제1실시예 내지 제13실시예 중 어느 한 실시예에 있어서,
상기 프로세서 유닛(110)은 상기 제1 고선명 지도(470)에서 상기 장치의 교통 파라미터와 관련하여 상기 제1 고선명 지도(470)의 세부 사항(116)의 부분을 결정하도록 구성되고, 상기 장치는 레거시 V2V 또는 V2X 통신 방식에 따라 상기 세부 사항(116)의 부분을 송신하도록 구성된 레거시 인터페이스(160)를 포함하는 것을 특징으로 하는 장치.
[실시예 15]
제1실시예 내지 제14실시예 중 어느 한 실시예에 있어서,
상기 센서 유닛(120)은 LiDAR 센서를 사용하여 상기 장치의 주변부(304)를 스캔하도록 구성되고, 상기 환경 조건은 상기 주변부(304) 내의 검출된 물체까지의 거리이고;
상기 제2 고선명 지도(132)는 추가 장치로부터 수신된 지도가고, 상기 제2 고선명 지도(132)는 상기 추가 장치에 의해 생성된 상기 제2 고선명 지도(132)의 영역에 있는 물체에 관한 정보를 포함하고;
상기 프로세서 유닛(110)은 상기 장치와 상기 센서 유닛(120)에 의해 검출된 물체 사이의 거리 및 상기 장치의 실제 위치를 사용하여 상기 물체에 관한 정보를 적응시키도록 구성되는 것을 특징으로 하는 장치.
[실시예 16]
제1실시예 내지 제15실시예 중 어느 한 실시예에 있어서,
상기 프로세서 유닛(110)은 상기 제2 고선명 지도(132)과 비교할 때 동일한 좌표 시스템을 포함하도록 상기 제1 고선명 지도(470)를 생성하도록 구성되는 것을 특징으로 하는 장치.
[실시예 17]
제1실시예 내지 제16실시예 중 어느 한 실시예에 있어서,
상기 프로세서 유닛(110)은 상기 제1 고선명 지도(470)를 제공하기 위해 상기 제2 고선명 지도(132), 상기 센서 데이터(122), 및 정적 지도를 융합하도록 구성되고, 상기 장치는 상기 제2 고선명 지도(132)와 상기 센서 데이터(122)를 융합한 결과(112)를 송신할 때 상기 정적 지도를 송신하지 않도록 구성되는 것을 특징으로 하는 장치.
[실시예 18]
제1실시예 내지 제17실시예 중 어느 한 실시예에 있어서,
상기 프로세서 유닛(110)은 상기 제1 고선명 지도(470)의 정보의 에이지를 표시하는 정보를 포함하도록 상기 제1 고선명 지도(470)를 생성하도록 구성되고, 상기 프로세서 유닛(110)은 상기 제1 고선명 지도(470)를 제공할 때 상기 제2 고선명 지도(132) 내의 오래된 정보(306)를 디스카운트하도록 구성되고, 상기 오래된 정보는 임계 값을 초과하는 에이지를 포함하는 것을 특징으로 하는 장치.
[실시예 19]
제1실시예 내지 제16실시예 중 어느 한 실시예에 따른 복수의 장치(100a-f)를 포함하는 통신 네트워크(600)에 있어서,
상기 복수의 장치(100a-f)는 상기 복수의 장치(100a-f)에 의해 생성된 고선명 지도(470)를 교환하도록(432a-g) 구성되고;
상기 복수의 장치(100a-f) 중 적어도 하나의 장치는 누적 고선명 지도를 생성하기 위해 상기 통신 네트워크의 다른 장치로부터 수신된 상기 고선명 지도를 융합하도록 구성되는 것을 특징으로 하는 통신 네트워크.
[실시예 20]
RSU(Road Side Unit)에 있어서,
제1 고선명 지도(470)를 제공하도록 구성된 프로세서 유닛(210);
상기 RSU의 주변부(304)에서의 환경 조건을 나타내는 센서 데이터(222)를 제공하도록 구성된 센서 유닛(220);
제2 고선명 지도(232)를 나타내는 데이터를 수신하도록 구성된 수신기 유닛(230); 및
- 상기 프로세서 유닛(210)은 상기 제1 고선명 지도(470)를 제공하기 위해 상기 제2 고선명 지도(232)와 상기 센서 데이터(222)를 융합하도록 구성됨 -
상기 제2 고선명 지도(232)와 상기 센서 데이터(222)를 융합한 결과(212)를 송신하도록 구성된 송신기 유닛(240);을 포함하고,
상기 제1 고선명 지도(470)는 상기 RSU 주위의 적어도 300m의 반경 내의 지도 정보를 포함하는 것을 특징으로 하는 RSU.
[실시예 21]
제20실시예에 있어서,
상기 수신기 유닛(230)은 적어도 제3 고선명 지도를 나타내는 데이터를 수신하도록 구성되고;
상기 프로세서 유닛(210)은 상기 제1 고선명 지도(470)를 제공하기 위해 상기 제2 고선명 지도(232), 상기 제3 고선명 지도, 및 상기 센서 데이터(222)를 융합하도록 구성되는 것을 특징으로 하는 RSU.
[실시예 22]
제20실시예 또는 제21실시예에 있어서,
상기 제1 고선명 지도(470)의 영역은 상기 주변부(304)의 영역보다 큰 것을 특징으로 하는 RSU.
[실시예 23]
제20실시예 내지 제22실시예 중 어느 한 실시예에 있어서,
상기 수신기 유닛(230)은 밀리미터 파장 신호를 사용하여 상기 제2 고밀도 지도(232)를 수신하고/하거나 상기 밀리미터 파장 신호를 사용하여 상기 제1 고밀도 지도(470)를 송신하도록 구성되는 것을 특징으로 하는 RSU.
[실시예 24]
제20실시예 내지 제23실시예 중 어느 한 실시예에 있어서,
상기 프로세서 유닛(210)은 관심 영역에서 제1 정도의 해상도를 구성하고 상기 관심 영역의 외부 영역에서 제2 정도의 해상도를 구성하기 위해 상기 제1 고선명 지도(470)에서 관심 영역을 나타내는 정보를 수신하여 상기 제1 고선명 지도(470)를 제공하도록 구성되고, 상기 제1 정도의 해상도는 상기 제2 정도의 해상도보다 높은 것을 특징으로 하는 RSU.
[실시예 25]
제24실시예에 있어서,
상기 제1 정도는 상기 제2 정도보다 적어도 2배 높은 것을 특징으로 하는 RSU.
[실시예 26]
제24실시예 또는 제25실시예에 있어서,
*상기 관심 영역은 상기 고선명 지도(470)의 최대 50% 부분을 포함하는 것을 특징으로 하는 RSU.
[실시예 27]
제20실시예 내지 제26실시예 중 어느 한 실시예에 있어서,
상기 송신기 유닛(240)은 적어도 2Gbps인 비트레이트로 상기 제1 고선명 지도(470)를 송신하도록 구성되는 것을 특징으로 하는 RSU.
[실시예 28]
제20실시예 내지 제27실시예 중 어느 한 실시예에 있어서,
상기 프로세서 유닛(210)은 상기 제1 고선명 지도(470)를 상기 제1 고선명 지도(470)의 프레임으로서 생성하도록 구성되고, 상기 프로세서 유닛(210)은 상기 제1 고선명 지도(470)의 복수의 프레임을 생성하도록 구성되고, 상기 프로세서 유닛(210)은 최대 10ms인 시간 간격을 두고 상기 복수의 프레임을 생성하도록 구성되는 것을 특징으로 하는 RSU.
[실시예 29]
제20실시예 내지 제28실시예 중 어느 한 실시예에 있어서,
상기 프로세서 유닛(210)은 적어도 2.75Mbyte인 데이터 크기를 포함하는 상기 제1 고선명 지도(470)를 생성하도록 구성되는 것을 특징으로 하는 RSU.
[실시예 30]
제20실시예 내지 제29실시예 중 어느 한 실시예에 있어서,
상기 센서 유닛(220)은 상기 센서 데이터(222)를 제공하기 위해 이미징 기술을 사용하여 상기 RSU의 주변부(304)를 스캔하도록 구성되고, 상기 환경 조건은 상기 주변부(304) 내의 검출된 물체까지의 거리인 것을 특징으로 하는 RSU.
[실시예 31]
제20실시예 내지 제30실시예 중 어느 한 실시예에 있어서,
상기 센서 유닛(220)은 LiDAR 센서를 포함하는 것을 특징으로 하는 RSU.
[실시예 32]
제20실시예 내지 제31실시예 중 어느 한 실시예에 있어서,
상기 프로세서 유닛(210)은 상기 제1 고선명 지도(470)에서 상기 RSU의 교통 파라미터와 관련하여 상기 제1 고선명 지도(470)의 세부 사항(216)의 부분을 결정하도록 구성되고, 상기 RSU는 백홀 네트워크에 V2X 통신 방식에 따라 상기 세부 사항(216)의 부분을 송신하거나 세부 사항의 부분을 송신하도록 구성된 레거시 인터페이스(260)를 포함하는 것을 특징으로 하는 RSU.
[실시예 33]
제20실시예 내지 제32실시예 중 어느 한 실시예에 있어서,
상기 센서 유닛(220)은 LiDAR 센서를 사용하여 상기 RSU의 주변부(304)를 스캔하도록 구성되고, 상기 환경 조건은 상기 주변부(304) 내의 검출된 물체까지의 거리이고;
상기 제2 고선명 지도(232)는 추가 장치로부터 수신된 지도가고, 상기 제2 고선명 지도(232)는 상기 추가 장치에 의해 생성된 상기 제2 고선명 지도(232)의 영역에 있는 물체에 관한 정보를 포함하고;
상기 프로세서 유닛(210)은 상기 RSU와 상기 센서 유닛(220)에 의해 검출된 물체 사이의 거리 및 상기 RSU의 실제 위치를 사용하여 상기 물체에 관한 정보를 적응시키도록 구성되는 것을 특징으로 하는 RSU.
[실시예 34]
제20실시예 내지 제33실시예 중 어느 한 실시예에 있어서,
상기 프로세서 유닛(210)은 상기 제2 고선명 지도(232)과 비교할 때 동일한 좌표 시스템을 포함하도록 상기 제1 고선명 지도(470)를 생성하도록 구성되는 것을 특징으로 하는 RSU.
[실시예 35]
제20실시예 내지 제34실시예 중 어느 한 실시예에 있어서,
상기 프로세서 유닛(210)은 상기 제1 고선명 지도(470)를 제공하기 위해 상기 제2 고선명 지도(232), 상기 센서 데이터(222), 및 정적 지도를 융합하도록 구성되고, 상기 RSU는 상기 제2 고선명 지도(232)와 상기 센서 데이터(222)를 융합한 결과(212)를 송신할 때 상기 정적 지도를 송신하지 않도록 구성되는 것을 특징으로 하는 RSU.
[실시예 36]
제20실시예 내지 제35실시예 중 어느 한 실시예에 있어서,
상기 프로세서 유닛(210)은 상기 제1 고선명 지도(470)의 정보의 에이지를 표시하는 정보를 포함하도록 상기 제1 고선명 지도(470)를 생성하도록 구성되고, 상기 프로세서 유닛(210)은 상기 제1 고선명 지도(470)를 제공할 때 상기 제2 고선명 지도(232) 내의 오래된 정보(306)를 디스카운트하도록 구성되고, 상기 오래된 정보는 임계 값을 초과하는 에이지를 포함하는 것을 특징으로 하는 RSU.
[실시예 37]
제20실시예 내지 제36실시예 중 어느 한 실시예에 따른 복수의 RSU(200a-f)를 포함하는 네트워크(500)에 있어서,
상기 복수의 RSU(200a-f)는 교통 시스템의 주행로를 커버하도록 서로 거리(502)를 두고 위치되는 것을 특징으로 하는 네트워크.
[실시예 38]
제37실시예에 있어서,
상기 RSU는 상기 주행로를 갭 없이 커버하도록 서로 거리(502)를 두고 위치되는 것을 특징으로 하는 네트워크.
[실시예 39]
제37실시예 또는 제38실시예에 있어서,
상기 거리(502)는 최대 500m인 것을 특징으로 하는 네트워크.
[실시예 40]
제22실시예 내지 제36실시예 중 어느 한 실시예에 따른 복수의 RSU를 포함하는 통신 네트워크에 있어서,
상기 복수의 RSU는 상기 복수의 RSU에 의해 생성된 고선명 지도를 교환하도록 구성되고;
상기 복수의 RSU(200a-f) 중 적어도 하나의 RSU는 누적 고선명 지도를 생성하기 위해 통신 네트워크(500)의 다른 RSU로부터 수신된 상기 고선명 지도를 융합하도록 구성되는 것을 특징으로 하는 통신 네트워크.
[실시예 41]
통신 네트워크(400)에 있어서,
제1실시예 내지 제18실시예 중 어느 한 실시예에 따른 복수의 장치(100a-e); 및
제22실시예 내지 제36실시예 중 어느 한 실시예에 따른 복수의 RSU(200a-f);를 포함하고,
상기 복수의 장치 및 상기 복수의 RSU(200a-f)는 상기 복수의 장치(100a-f) 및 상기 복수의 RSU(200a-f)에 의해 생성된 고선명 지도를 교환하도록(432a-b) 구성되고;
상기 통신 네트워크(400)의 적어도 하나의 장치 또는 적어도 RSU는 누적 고선명 지도를 생성하기 위해 수신된 상기 고선명 지도를 융합하도록 구성되는 것을 특징으로 하는 통신 네트워크.
[실시예 42]
제1실시예 내지 제16실시예 중 어느 한 실시예에 따른 장치(100)를 포함하는 차량(450)에 있어서,
상기 차량(450)은 차량 제어 명령을 나타내는 명령 신호(152)에 응답하여 자율적으로 움직이도록 구성되는 것을 특징으로 하는 차량.
[실시예 43]
제42실시예에 있어서,
상기 차량(450)은 도로 차량 또는 무인 항공기인 것을 특징으로 하는 차량.
[실시예 44]
제42실시예 또는 제43실시예에 있어서,
상기 장치(100)는 추가 장치(100a-f), 제17실시예에 따른 통신 네트워크(600), 제18실시예 내지 제28실시예 중 어느 한 실시예에 따른 RSU(200a-f), 추가 차량(450a-b), 제33실시예 내지 제35실시예 중 어느 한 실시예에 따른 네트워크(500), 및 제36실시예에 따른 통신 네트워크(400) 중 하나에 제1 고선명 지도(470)를 송신하도록 구성되는 것을 특징으로 하는 차량.

Claims (48)

  1. 장치(100)에 있어서,
    제1 고선명 지도(470)를 제공하도록 구성된 프로세서 유닛(110);
    상기 장치의 주변부(304)에서의 환경 조건을 나타내는 센서 데이터(122)를 제공하도록 구성된 센서 유닛(120);
    제2 고선명 지도(132)를 나타내는 데이터를 수신하도록 구성된 수신기 유닛(130) - 고선명 지도는 높은 정보 해상도 및 실시간 정보를 갖는 맵이며, 상기 고선명 지도는 차량이 자율 주행을 가능하도록 하고, 상기 제2 고선명 지도는 상기 센서 유닛(120)으로 감지되는 범위와 비교할 때 더 넓거나 더 큰 지역을 커버하며,
    상기 프로세서 유닛(110)은 상기 제1 고선명 지도(470)를 제공하기 위해 상기 제2 고선명 지도(132)와 상기 센서 데이터(122)를 융합하도록 구성됨 -;
    상기 제2 고선명 지도(132)와 상기 센서 데이터(122)를 융합한 결과(112)를 송신하도록 구성된 송신기 유닛(140); 및
    상기 제1 고선명 지도(470)에 기초하여 상기 장치(100)를 소지하는 차량(450a-f)에 대한 차량 제어 명령을 나타내는 명령 신호(152)를 생성하도록 구성된 명령 생성기 유닛(150);을 포함하며,
    상기 제2 고선명 지도(132)와 상기 센서 데이터(122)를 융합하는 것은 상기 제2 고선명 지도(132)의 일부를 적응시키는 것을 포함하는 것을 특징으로 하는 장치.
  2. 제1항에 있어서,
    상기 수신기 유닛(130)은 외부 소스에 의해 제공되는 제2 고선명 지도(132)를 나타내는 데이터를 수신하도록 구성되며,
    상기 송신기 유닛(140)은 또다른 장치의 수신기 유닛에; 통신 네트워크 구조에; 네트워크에; 차량 또는 도로변 유닛(road-side unit)에; 융합한 결과(112)를 송신하도록 구성되는 것을 특징으로 하는 장치.
  3. 제1항에 있어서,
    상기 수신기 유닛(130)은 적어도 제3 고선명 지도를 나타내는 데이터를 수신하도록 구성되고;
    상기 프로세서 유닛(110)은 상기 제1 고선명 지도(470)를 제공하기 위해 상기 제2 고선명 지도(132), 상기 제3 고선명 지도, 및 상기 센서 데이터(122)를 융합하도록 구성되는 것을 특징으로 하는 장치.
  4. 제1항에 있어서,
    상기 제1 고선명 지도(470)의 영역은 상기 주변부(304)의 영역보다 큰 것을 특징으로 하는 장치.
  5. 제1항에 있어서,
    상기 수신기 유닛(130)은 밀리미터 파장 신호를 사용하여 상기 제2 고선명 지도(132)를 수신하고/하거나 상기 밀리미터 파장 신호를 사용하여 상기 제1 고선명 지도(470)를 송신하도록 구성되는 것을 특징으로 하는 장치.
  6. 제1항에 있어서,
    상기 프로세서 유닛(110)은 관심 영역에서 제1 정도의 해상도를 구성하고 상기 관심 영역의 외부 영역에서 제2 정도의 해상도를 구성하기 위해 상기 제1 고선명 지도(470)에서 관심 영역을 나타내는 정보(134)를 수신하여 상기 제1 고선명 지도(470)를 제공하도록 구성되고, 상기 제1 정도의 해상도는 상기 제2 정도의 해상도보다 높은 것을 특징으로 하는 장치.
  7. 제6항에 있어서,
    상기 제1 정도는 상기 제2 정도보다 적어도 2배 높은 것을 특징으로 하는 장치.
  8. 제6항에 있어서,
    상기 관심 영역은 상기 고선명 지도(470)의 최대 50% 부분을 포함하는 것을 특징으로 하는 장치.
  9. 제1항에 있어서,
    상기 송신기 유닛(140)은 적어도 2Gbps인 비트레이트로 상기 제1 고선명 지도(470)를 송신하도록 구성되는 것을 특징으로 하는 장치.
  10. 제1항에 있어서,
    상기 프로세서 유닛(110)은 상기 제1 고선명 지도(470)를 상기 제1 고선명 지도(470)의 프레임으로서 생성하도록 구성되고, 상기 프로세서 유닛(110)은 상기 제1 고선명 지도(470)의 복수의 프레임을 생성하도록 구성되고, 상기 프로세서 유닛(110)은 최대 10ms인 시간 간격을 두고 상기 복수의 프레임을 생성하도록 구성되는 것을 특징으로 하는 장치.
  11. 제1항에 있어서,
    상기 프로세서 유닛(110)은 적어도 2.75Mbyte인 데이터 크기를 포함하는 상기 제1 고선명 지도(470)를 생성하도록 구성되는 것을 특징으로 하는 장치.
  12. 제1항에 있어서,
    상기 프로세서 유닛(110)은 상기 장치 주위의 적어도 300m의 반경 내의 지도 정보를 포함하도록 상기 제1 고선명 지도(470)를 생성하도록 구성되는 것을 특징으로 하는 장치.
  13. 제1항에 있어서,
    상기 센서 유닛(120)은 상기 센서 데이터(122)를 제공하기 위해 이미징 기술을 사용하여 상기 장치의 주변부(304)를 스캔하도록 구성되고, 상기 환경 조건은 상기 주변부(304) 내의 검출된 물체까지의 거리인 것을 특징으로 하는 장치.
  14. 제1항에 있어서,
    상기 센서 유닛(120)은 LiDAR 센서를 포함하는 것을 특징으로 하는 장치.
  15. 제1항에 있어서,
    상기 프로세서 유닛(110)은 상기 제1 고선명 지도(470)에서 상기 장치의 교통 파라미터와 관련하여 상기 제1 고선명 지도(470)의 세부 사항(116)의 부분을 결정하도록 구성되고, 상기 장치는 레거시 V2V 또는 V2X 통신 방식에 따라 상기 세부 사항(116)의 부분을 송신하도록 구성된 레거시 인터페이스(160)를 포함하는 것을 특징으로 하는 장치.
  16. 제1항에 있어서,
    상기 센서 유닛(120)은 LiDAR 센서를 사용하여 상기 장치의 주변부(304)를 스캔하도록 구성되고, 상기 환경 조건은 상기 주변부(304) 내의 검출된 물체까지의 거리이고;
    상기 제2 고선명 지도(132)는 추가 장치로부터 수신된 지도가고, 상기 제2 고선명 지도(132)는 상기 추가 장치에 의해 생성된 상기 제2 고선명 지도(132)의 영역에 있는 물체에 관한 정보를 포함하고;
    상기 프로세서 유닛(110)은 상기 장치와 상기 센서 유닛(120)에 의해 검출된 물체 사이의 거리 및 상기 장치의 실제 위치를 사용하여 상기 물체에 관한 정보를 적응시키도록 구성되는 것을 특징으로 하는 장치.
  17. 제1항에 있어서,
    상기 프로세서 유닛(110)은 상기 제2 고선명 지도(132)과 비교할 때 동일한 좌표 시스템을 포함하도록 상기 제1 고선명 지도(470)를 생성하도록 구성되는 것을 특징으로 하는 장치.
  18. 제1항에 있어서,
    상기 프로세서 유닛(110)은 상기 제1 고선명 지도(470)를 제공하기 위해 상기 제2 고선명 지도(132), 상기 센서 데이터(122), 및 정적 지도를 융합하도록 구성되고, 상기 장치는 상기 제2 고선명 지도(132)와 상기 센서 데이터(122)를 융합한 결과(112)를 송신할 때 상기 정적 지도를 송신하지 않도록 구성되는 것을 특징으로 하는 장치.
  19. 제1항에 있어서,
    상기 프로세서 유닛(110)은 상기 제1 고선명 지도(470)의 정보의 에이지를 표시하는 정보를 포함하도록 상기 제1 고선명 지도(470)를 생성하도록 구성되고, 상기 프로세서 유닛(110)은 상기 제1 고선명 지도(470)를 제공할 때 상기 제2 고선명 지도(132) 내의 임계 값을 초과하는 에이지(age)를 포함하는 오래된 정보(306)를 버리도록 구성되는 것을 특징으로 하는 장치.
  20. 제1항에 따른 복수의 장치(100a-f)를 포함하는 통신 네트워크(600)에 있어서,
    상기 복수의 장치(100a-f)는 상기 복수의 장치(100a-f)에 의해 생성된 고선명 지도(470)를 교환하도록(432a-g) 구성되고;
    상기 복수의 장치(100a-f) 중 적어도 하나의 장치는 누적 고선명 지도를 생성하기 위해 상기 통신 네트워크의 다른 장치로부터 수신된 상기 고선명 지도를 융합하도록 구성되는 것을 특징으로 하는 통신 네트워크.
  21. RSU(Road Side Unit)에 있어서,
    제1 고선명 지도(470)를 제공하도록 구성된 프로세서 유닛(210);
    상기 RSU의 주변부(304)에서의 환경 조건을 나타내는 센서 데이터(222)를 제공하도록 구성된 센서 유닛(220);
    제2 고선명 지도(232)를 나타내는 데이터를 수신하도록 구성된 수신기 유닛(230) - 고선명 지도는 높은 정보 해상도 및 실시간 정보를 갖는 맵이며, 상기 고선명 지도는 차량이 자율 주행을 가능하도록 하고, 상기 제2 고선명 지도는 상기 센서 유닛(220)으로 감지되는 범위와 비교할 때 더 넓거나 더 큰 지역을 커버하며,
    상기 프로세서 유닛(210)은 상기 제1 고선명 지도(470)를 제공하기 위해 상기 제2 고선명 지도(232)와 상기 센서 데이터(222)를 융합하도록 구성됨 -;
    상기 제2 고선명 지도(232)와 상기 센서 데이터(222)를 융합한 결과(212)를 송신하도록 구성된 송신기 유닛(240);을 포함하고,
    상기 제1 고선명 지도(470)는 상기 RSU 주위의 적어도 300m의 반경 내의 지도 정보를 포함하며,
    상기 제2 고선명 지도(232)와 상기 센서 데이터(222)를 융합하는 것은 상기 제2 고선명 지도(232)의 일부를 적응시키는 것을 포함하는 것을 특징으로 하는 RSU.
  22. 제21항에 있어서,
    상기 수신기 유닛(230)은 외부 소스에 의해 제공되는 제2 고선명 지도(232)를 나타내는 데이터를 수신하도록 구성되며,
    상기 송신기 유닛(240)은 또다른 장치의 수신기 유닛에; 통신 네트워크 구조에; 네트워크에; 차량 또는 도로변 유닛(road-side unit)에; 융합한 결과(212)를 송신하도록 구성되는 것을 특징으로 하는 장치.
  23. 제21항에 있어서,
    상기 수신기 유닛(230)은 적어도 제3 고선명 지도를 나타내는 데이터를 수신하도록 구성되고;
    상기 프로세서 유닛(210)은 상기 제1 고선명 지도(470)를 제공하기 위해 상기 제2 고선명 지도(232), 상기 제3 고선명 지도, 및 상기 센서 데이터(222)를 융합하도록 구성되는 것을 특징으로 하는 RSU.
  24. 제21항에 있어서,
    상기 제1 고선명 지도(470)의 영역은 상기 주변부(304)의 영역보다 큰 것을 특징으로 하는 RSU.
  25. 제21항에 있어서,
    상기 수신기 유닛(230)은 밀리미터 파장 신호를 사용하여 상기 제2 고선명 지도(232)를 수신하고/하거나 상기 밀리미터 파장 신호를 사용하여 상기 제1 고선명 지도(470)를 송신하도록 구성되는 것을 특징으로 하는 RSU.
  26. 제21항에 있어서,
    상기 프로세서 유닛(210)은 관심 영역에서 제1 정도의 해상도를 구성하고 상기 관심 영역의 외부 영역에서 제2 정도의 해상도를 구성하기 위해 상기 제1 고선명 지도(470)에서 관심 영역을 나타내는 정보를 수신하여 상기 제1 고선명 지도(470)를 제공하도록 구성되고, 상기 제1 정도의 해상도는 상기 제2 정도의 해상도보다 높은 것을 특징으로 하는 RSU.
  27. 제26항에 있어서,
    상기 제1 정도는 상기 제2 정도보다 적어도 2배 높은 것을 특징으로 하는 RSU.
  28. 제26항에 있어서,
    상기 관심 영역은 상기 고선명 지도(470)의 최대 50% 부분을 포함하는 것을 특징으로 하는 RSU.
  29. 제21항에 있어서,
    상기 송신기 유닛(240)은 적어도 2Gbps인 비트레이트로 상기 제1 고선명 지도(470)를 송신하도록 구성되는 것을 특징으로 하는 RSU.
  30. 제21항에 있어서,
    상기 프로세서 유닛(210)은 상기 제1 고선명 지도(470)를 상기 제1 고선명 지도(470)의 프레임으로서 생성하도록 구성되고, 상기 프로세서 유닛(210)은 상기 제1 고선명 지도(470)의 복수의 프레임을 생성하도록 구성되고, 상기 프로세서 유닛(210)은 최대 10ms인 시간 간격을 두고 상기 복수의 프레임을 생성하도록 구성되는 것을 특징으로 하는 RSU.
  31. 제21항에 있어서,
    상기 프로세서 유닛(210)은 적어도 2.75Mbyte인 데이터 크기를 포함하는 상기 제1 고선명 지도(470)를 생성하도록 구성되는 것을 특징으로 하는 RSU.
  32. 제21항에 있어서,
    상기 센서 유닛(220)은 상기 센서 데이터(222)를 제공하기 위해 이미징 기술을 사용하여 상기 RSU의 주변부(304)를 스캔하도록 구성되고, 상기 환경 조건은 상기 주변부(304) 내의 검출된 물체까지의 거리인 것을 특징으로 하는 RSU.
  33. 제21항에 있어서,
    상기 센서 유닛(220)은 LiDAR 센서를 포함하는 것을 특징으로 하는 RSU.
  34. 제21항에 있어서,
    상기 프로세서 유닛(210)은 상기 제1 고선명 지도(470)에서 상기 RSU의 교통 파라미터와 관련하여 상기 제1 고선명 지도(470)의 세부 사항(216)의 부분을 결정하도록 구성되고, 상기 RSU는 백홀 네트워크에 V2X 통신 방식에 따라 상기 세부 사항(216)의 부분을 송신하거나 세부 사항의 부분을 송신하도록 구성된 레거시 인터페이스(260)를 포함하며, 상기 교통 파라미터는 도로 안전 서비스, 교통 정체, 교통 사고 및 교통 공사 중 적어도 하나에 관련되는 것을 특징으로 하는 RSU.
  35. 제21항에 있어서,
    상기 센서 유닛(220)은 LiDAR 센서를 사용하여 상기 RSU의 주변부(304)를 스캔하도록 구성되고, 상기 환경 조건은 상기 주변부(304) 내의 검출된 물체까지의 거리이고;
    상기 제2 고선명 지도(232)는 추가 장치로부터 수신된 지도가고, 상기 제2 고선명 지도(232)는 상기 추가 장치에 의해 생성된 상기 제2 고선명 지도(232)의 영역에 있는 물체에 관한 정보를 포함하고;
    상기 프로세서 유닛(210)은 상기 RSU와 상기 센서 유닛(220)에 의해 검출된 물체 사이의 거리 및 상기 RSU의 실제 위치를 사용하여 상기 물체에 관한 정보를 적응시키도록 구성되는 것을 특징으로 하는 RSU.
  36. 제21항에 있어서,
    상기 프로세서 유닛(210)은 상기 제2 고선명 지도(232)과 비교할 때 동일한 좌표 시스템을 포함하도록 상기 제1 고선명 지도(470)를 생성하도록 구성되는 것을 특징으로 하는 RSU.
  37. 제21항에 있어서,
    상기 프로세서 유닛(210)은 상기 제1 고선명 지도(470)를 제공하기 위해 상기 제2 고선명 지도(232), 상기 센서 데이터(222), 및 정적 지도를 융합하도록 구성되고, 상기 RSU는 상기 제2 고선명 지도(232)와 상기 센서 데이터(222)를 융합한 결과(212)를 송신할 때 상기 정적 지도를 송신하지 않도록 구성되는 것을 특징으로 하는 RSU.
  38. 제21항에 있어서,
    상기 프로세서 유닛(210)은 상기 제1 고선명 지도(470)의 정보의 에이지를 표시하는 정보를 포함하도록 상기 제1 고선명 지도(470)를 생성하도록 구성되고, 상기 프로세서 유닛(210)은 상기 제1 고선명 지도(470)를 제공할 때 상기 제2 고선명 지도(232) 내의 오래된 정보(306)를 디스카운트하도록 구성되고, 상기 오래된 정보는 임계 값을 초과하는 에이지를 포함하는 것을 특징으로 하는 RSU.
  39. 제21항에 따른 복수의 RSU(200a-f)를 포함하는 네트워크(500)에 있어서,
    상기 복수의 RSU(200a-f)는 교통 시스템의 주행로를 커버하도록 서로 거리(502)를 두고 위치되는 것을 특징으로 하는 네트워크.
  40. 제39항에 있어서,
    상기 RSU는 상기 주행로를 갭 없이 커버하도록 서로 거리(502)를 두고 위치되는 것을 특징으로 하는 네트워크.
  41. 제39항에 있어서,
    상기 거리(502)는 최대 500m인 것을 특징으로 하는 네트워크.
  42. 제21항에 따른 복수의 RSU를 포함하는 통신 네트워크에 있어서,
    상기 복수의 RSU는 상기 복수의 RSU에 의해 생성된 고선명 지도를 교환하도록 구성되고;
    상기 복수의 RSU(200a-f) 중 적어도 하나의 RSU는 누적 고선명 지도를 생성하기 위해 통신 네트워크(500)의 다른 RSU로부터 수신된 상기 고선명 지도를 융합하도록 구성되는 것을 특징으로 하는 통신 네트워크.
  43. 통신 네트워크(400)에 있어서,
    제1항에 따른 복수의 장치(100a-e); 및
    제21항에 따른 복수의 RSU(200a-f);를 포함하고,
    상기 복수의 장치 및 상기 복수의 RSU(200a-f)는 상기 복수의 장치(100a-f) 및 상기 복수의 RSU(200a-f)에 의해 생성된 고선명 지도를 교환하도록(432a-b) 구성되고;
    상기 통신 네트워크(400)의 적어도 하나의 장치 또는 적어도 RSU는 누적 고선명 지도를 생성하기 위해 수신된 상기 고선명 지도를 융합하도록 구성되는 것을 특징으로 하는 통신 네트워크.
  44. 제1항에 따른 장치(100)를 포함하는 차량(450)에 있어서,
    상기 차량(450)은 차량 제어 명령을 나타내는 명령 신호(152)에 응답하여 자율적으로 움직이도록 구성되는 것을 특징으로 하는 차량.
  45. 제44항에 있어서,
    상기 차량(450)은 도로 차량 또는 무인 항공기인 것을 특징으로 하는 차량.
  46. 제44항에 있어서,
    상기 장치(100)는 추가 장치(100a-f), 제20항에 따른 통신 네트워크(600), 제21항에 따른 RSU(200a-f), 추가 차량(450a-b), 제39항에 따른 네트워크(500), 및 제43항에 따른 통신 네트워크(400) 중 하나에 제1 고선명 지도(470)를 송신하도록 구성되는 것을 특징으로 하는 차량.
  47. 제1항에 있어서,
    상기 수신기 유닛은 무선 신호로 상기 제2 고선명 지도를 나타내는 데이터를 수신하도록 구성되는 것을 특징으로 하는 장치.
  48. 제1항에 있어서,
    상기 프로세서 유닛은 상기 융합과 함께 상기 센서 데이터에 의해 수신되는 제2 고선명 지도의 데이터를 갱신 또는 업데이트하도록 구성되는 것을 특징으로 하는 장치.
KR1020237005297A 2017-01-05 2017-12-29 Hd 지도의 생성 및 사용 KR102631850B1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
EP17150342 2017-01-05
EP17150342.8 2017-01-05
PCT/EP2017/084835 WO2018127461A1 (en) 2017-01-05 2017-12-29 Generation and use of hd maps
KR1020217027854A KR20210111890A (ko) 2017-01-05 2017-12-29 Hd 지도의 생성 및 사용

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020217027854A Division KR20210111890A (ko) 2017-01-05 2017-12-29 Hd 지도의 생성 및 사용

Publications (2)

Publication Number Publication Date
KR20230028810A KR20230028810A (ko) 2023-03-02
KR102631850B1 true KR102631850B1 (ko) 2024-02-02

Family

ID=57758492

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020237005297A KR102631850B1 (ko) 2017-01-05 2017-12-29 Hd 지도의 생성 및 사용
KR1020197022384A KR20190099521A (ko) 2017-01-05 2017-12-29 Hd 지도의 생성 및 사용
KR1020217027854A KR20210111890A (ko) 2017-01-05 2017-12-29 Hd 지도의 생성 및 사용

Family Applications After (2)

Application Number Title Priority Date Filing Date
KR1020197022384A KR20190099521A (ko) 2017-01-05 2017-12-29 Hd 지도의 생성 및 사용
KR1020217027854A KR20210111890A (ko) 2017-01-05 2017-12-29 Hd 지도의 생성 및 사용

Country Status (9)

Country Link
US (2) US11815617B2 (ko)
EP (2) EP4293319A3 (ko)
JP (1) JP7134977B2 (ko)
KR (3) KR102631850B1 (ko)
CN (1) CN110383101A (ko)
CA (1) CA3049155C (ko)
MX (1) MX2019008120A (ko)
RU (1) RU2721677C1 (ko)
WO (1) WO2018127461A1 (ko)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3358754A1 (en) * 2017-02-02 2018-08-08 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Antenna array codebook with beamforming coefficients adapted to an arbitrary antenna response of the antenna array
US11003193B2 (en) * 2017-12-29 2021-05-11 Intel Corporation Broadcasting map segments for individualized maps
US20190322367A1 (en) * 2018-04-23 2019-10-24 Lear Corporation Method of controlling an unmanned aerial road side unit drone
US20190339082A1 (en) * 2018-05-02 2019-11-07 Blackberry Limited Method and system for hybrid collective perception and map crowdsourcing
JP6793883B2 (ja) * 2018-06-11 2020-12-02 三菱電機株式会社 車両走行制御装置、車両走行制御方法、制御回路および記憶媒体
EP3588800A1 (en) 2018-06-29 2020-01-01 FRAUNHOFER-GESELLSCHAFT zur Förderung der angewandten Forschung e.V. Antenna array codebook with beamforming coefficients adapted to an arbitrary antenna response of the antenna array
CN110940347B (zh) * 2018-09-21 2024-04-12 斑马智行网络(香港)有限公司 一种辅助车辆导航方法和系统
CN112042262A (zh) * 2018-10-18 2020-12-04 惠普发展公司,有限责任合伙企业 用于无线访问边缘计算资源的扩展坞
US11486716B2 (en) * 2018-11-01 2022-11-01 Lg Electronics Inc. Vehicular electronic device, operation method of vehicular electronic device, and system
US11635301B2 (en) * 2018-11-02 2023-04-25 Lg Electronics Inc. Electronic device for vehicle, and method and system for operating electronic device for vehicle
CN109714421B (zh) * 2018-12-28 2021-08-03 国汽(北京)智能网联汽车研究院有限公司 基于车路协同的智能网联汽车运行系统
CN109657031B (zh) * 2018-12-28 2020-08-04 国汽(北京)智能网联汽车研究院有限公司 一种基于智能网联汽车的高精度动态地图生成与应用方法
CN111508250B (zh) * 2019-01-30 2021-12-31 杭州海康威视数字技术股份有限公司 一种路况信息处理方法及系统
DE112020000925T5 (de) * 2019-02-25 2021-11-04 Mobileye Vision Technologies Ltd. Systeme und verfahren zur fahrzeugnavigation
US11507084B2 (en) * 2019-03-27 2022-11-22 Intel Corporation Collaborative 3-D environment map for computer-assisted or autonomous driving vehicles
US10992752B2 (en) 2019-03-28 2021-04-27 Intel Corporation Sensor network configuration mechanisms
US11556127B2 (en) * 2020-04-03 2023-01-17 Baidu Usa Llc Static obstacle map based perception system
WO2021246550A1 (ko) * 2020-06-04 2021-12-09 엘지전자 주식회사 경로 제공 장치 및 그것의 경로 제공 방법
WO2022024120A1 (en) * 2020-07-28 2022-02-03 Ception Technologies Ltd. Guidance of a transport vehicle to a loading point
CN111896010A (zh) * 2020-07-30 2020-11-06 北京百度网讯科技有限公司 车辆定位方法、装置、车辆以及存储介质
CN115812227A (zh) * 2020-08-25 2023-03-17 华为技术有限公司 一种动态信息的获取方法及其相关设备
DE102020213831B4 (de) 2020-11-03 2023-02-02 Volkswagen Aktiengesellschaft Verfahren zum Ermitteln einer Existenzwahrscheinlichkeit eines möglichen Elements in einer Umgebung eines Kraftfahrzeugs, Fahrerassistenzsystem und Kraftfahrzeug
KR102368576B1 (ko) * 2020-11-09 2022-02-25 한국교통대학교산학협력단 지역 동적 지도를 이용한 채널상태 예측을 통한 무선 통신을 수행하기 위한 방법 및 장치
KR102256541B1 (ko) * 2020-11-30 2021-05-25 에스케이증권 주식회사 라이다 센서를 가지는 스마트폴을 이용한 자율주행 시스템
US20230194717A1 (en) * 2021-12-16 2023-06-22 Gm Cruise Holdings Llc Utilizing light detection and ranging sensors for vehicle-to-everything communications
DE102022213238A1 (de) 2022-11-24 2024-05-29 Continental Autonomous Mobility Germany GmbH Verfahren und System zum Bereitstellen einer Umgebungsrepräsentation an ein autonomes Bodenfahrzeug

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002005672A (ja) 2000-06-23 2002-01-09 Sony Corp 地図情報表示装置
CN100449444C (zh) * 2006-09-29 2009-01-07 浙江大学 移动机器人在未知环境中同时定位与地图构建的方法
CN101446495A (zh) * 2007-11-27 2009-06-03 华晶科技股份有限公司 更新导航地图数据的方法
US8126642B2 (en) * 2008-10-24 2012-02-28 Gray & Company, Inc. Control and systems for autonomously driven vehicles
US8229663B2 (en) 2009-02-03 2012-07-24 GM Global Technology Operations LLC Combined vehicle-to-vehicle communication and object detection sensing
WO2011116375A1 (en) * 2010-03-19 2011-09-22 Northeastern University Roaming mobile sensor platform for collecting geo-referenced data and creating thematic maps
AU2012376428B2 (en) * 2012-04-05 2015-06-25 Hitachi, Ltd. Map data creation device, autonomous movement system and autonomous movement control device
RU2571871C2 (ru) * 2012-12-06 2015-12-27 Александр ГУРЕВИЧ Способ определения границ дороги, формы и положения объектов, находящихся на дороге, и устройство для его выполнения
US8880273B1 (en) * 2013-01-16 2014-11-04 Google Inc. System and method for determining position and distance of objects using road fiducials
JP6354120B2 (ja) 2013-05-21 2018-07-11 株式会社デンソー 道路情報送信装置、地図生成装置、道路情報収集システム
US9170115B2 (en) * 2013-06-03 2015-10-27 Hyundai Motor Company Method and system for generating road map using data of position sensor of vehicle
US9098753B1 (en) 2014-04-25 2015-08-04 Google Inc. Methods and systems for object detection using multiple sensors
US9628565B2 (en) * 2014-07-23 2017-04-18 Here Global B.V. Highly assisted driving platform
KR101610502B1 (ko) * 2014-09-02 2016-04-07 현대자동차주식회사 자율주행차량의 주행환경 인식장치 및 방법
DE102014217847A1 (de) * 2014-09-08 2016-03-10 Conti Temic Microelectronic Gmbh Fahrerassistenzsystem, Verkehrstelematiksystem und Verfahren zum Aktualisieren einer digitalen Karte
KR20160040911A (ko) * 2014-10-06 2016-04-15 현대모비스 주식회사 V2x 통신 기반의 차량 주변환경 인식 장치 및 그 동작 방법
KR102231638B1 (ko) * 2014-11-20 2021-03-24 현대엠엔소프트 주식회사 지도 디스플레이 속도 향상을 위한 우선순위를 고려한 지도 표출 방법
CN104636763B (zh) * 2014-12-01 2018-10-09 北京工业大学 一种基于无人驾驶车的道路与障碍物检测方法
DE102015001631B4 (de) * 2015-02-07 2021-06-24 Audi Ag Verfahren zum Betrieb eines Kraftfahrzeugs in einer Navigationsumgebung und Navigationsumgebung
EP3885217A1 (en) 2015-02-10 2021-09-29 Mobileye Vision Technologies Ltd. Sparse map for autonomous vehicle navigation
JP5997797B2 (ja) * 2015-03-03 2016-09-28 富士重工業株式会社 車両の地図データ処理装置
US9625582B2 (en) * 2015-03-25 2017-04-18 Google Inc. Vehicle with multiple light detection and ranging devices (LIDARs)
WO2016166791A1 (ja) 2015-04-13 2016-10-20 三菱電機株式会社 運転支援装置
DE102015206605A1 (de) * 2015-04-14 2016-10-20 Continental Teves Ag & Co. Ohg Kalibrierung und Überwachung von Umfeldsensoren mit Hilfe hochgenauer Karten
EP3109589B1 (en) * 2015-06-23 2019-01-30 Volvo Car Corporation A unit and method for improving positioning accuracy
DE102015008879A1 (de) * 2015-07-09 2016-03-24 Daimler Ag Verfahren zur Selbstlokalisation eines Fahrzeugs
CN105425803B (zh) * 2015-12-16 2020-05-19 纳恩博(北京)科技有限公司 自主避障方法、装置和系统
KR20170082674A (ko) * 2016-01-06 2017-07-17 한국전자통신연구원 차량안전 주행지원 단말장치 및 차량안전 주행지원 방법
CN105675000B (zh) * 2016-01-15 2018-06-19 武汉中海庭数据技术有限公司 一种基于高精度地图的车道级路径规划方法及系统
CN105488498B (zh) * 2016-01-15 2019-07-30 武汉中海庭数据技术有限公司 一种基于激光点云的车道边线自动提取方法及系统
US9829884B1 (en) * 2016-05-10 2017-11-28 Dura Operating, Llc Scalable driver assistance system
US10309777B2 (en) * 2016-12-30 2019-06-04 DeepMap Inc. Visual odometry and pairwise alignment for high definition map creation

Also Published As

Publication number Publication date
US20240069150A1 (en) 2024-02-29
CA3049155C (en) 2023-09-19
EP3566069B1 (en) 2023-10-25
MX2019008120A (es) 2019-10-24
RU2721677C1 (ru) 2020-05-21
CN110383101A (zh) 2019-10-25
WO2018127461A1 (en) 2018-07-12
EP3566069A1 (en) 2019-11-13
US20190323855A1 (en) 2019-10-24
CA3049155A1 (en) 2018-07-12
KR20210111890A (ko) 2021-09-13
EP4293319A2 (en) 2023-12-20
US11815617B2 (en) 2023-11-14
JP2020505678A (ja) 2020-02-20
KR20230028810A (ko) 2023-03-02
KR20190099521A (ko) 2019-08-27
JP7134977B2 (ja) 2022-09-12
EP4293319A3 (en) 2024-03-20

Similar Documents

Publication Publication Date Title
KR102631850B1 (ko) Hd 지도의 생성 및 사용
CN111915917B (zh) 计算机实现的方法、存储介质和运载工具
US11669653B2 (en) Simulated vehicle traffic for autonomous vehicles
CN110603497B (zh) 自主车辆操作管理控制的自主车辆和方法
CN110431037B (zh) 包括运用部分可观察马尔可夫决策过程模型示例的自主车辆操作管理
US10186148B2 (en) Roadside control apparatus, computer program, and information processing method
US20190325751A1 (en) Multi-Level Hybrid Vehicle-to-Anything Communications for Cooperative Perception
KR20210003909A (ko) 하이브리드 집합적 지각 및 맵 크라우드소싱을 위한 방법 및 시스템
US11568741B2 (en) Communication device, control method thereof, and communication system including the same
CN113196356A (zh) 交通灯估计
US11961403B2 (en) Lane monitoring during turns in an intersection
US20210200241A1 (en) Mobility information provision system, server, and vehicle
WO2023189878A1 (en) Intersection-based offboard vehicle path generation
WO2023189879A1 (en) Intersection-based map message generation and broadcasting
WO2023189880A1 (en) Path prediction based on intersection information from map messages
WO2023189881A1 (en) Collision warning based on intersection information from map messages
US20240129248A1 (en) Communicating precedence using vehicle to everything (v2x) messages
US20240127633A1 (en) Dynamic autonomous vehicle modem orchestration
DK180220B1 (en) Sharing classified objects perceived by autonomous vehicles
US20240025435A1 (en) V2-based roll-over alert in an intersection
JP2022116616A (ja) 車両用通信システム、通信制御方法

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right