KR102604821B1 - 차량의 위치 추정 장치 및 방법 - Google Patents

차량의 위치 추정 장치 및 방법 Download PDF

Info

Publication number
KR102604821B1
KR102604821B1 KR1020180137424A KR20180137424A KR102604821B1 KR 102604821 B1 KR102604821 B1 KR 102604821B1 KR 1020180137424 A KR1020180137424 A KR 1020180137424A KR 20180137424 A KR20180137424 A KR 20180137424A KR 102604821 B1 KR102604821 B1 KR 102604821B1
Authority
KR
South Korea
Prior art keywords
vehicle
information
location
probability
driving
Prior art date
Application number
KR1020180137424A
Other languages
English (en)
Other versions
KR20200053920A (ko
Inventor
이태경
Original Assignee
에스케이텔레콤 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이텔레콤 주식회사 filed Critical 에스케이텔레콤 주식회사
Priority to KR1020180137424A priority Critical patent/KR102604821B1/ko
Priority to PCT/KR2019/015283 priority patent/WO2020096437A1/ko
Priority to CN201980065118.3A priority patent/CN112789208A/zh
Publication of KR20200053920A publication Critical patent/KR20200053920A/ko
Priority to US17/188,242 priority patent/US11898851B2/en
Priority to KR1020230105416A priority patent/KR102601134B1/ko
Priority to US18/513,510 priority patent/US20240094008A1/en
Application granted granted Critical
Publication of KR102604821B1 publication Critical patent/KR102604821B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0141Measuring and analyzing of parameters relative to traffic conditions for specific applications for traffic information dissemination
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • G08G1/0175Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096708Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
    • G08G1/096716Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information does not generate an automatic action on the vehicle control
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096733Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place
    • G08G1/096741Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place where the source of the transmitted information selects which information to transmit to each vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096775Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is a central station
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/20Monitoring the location of vehicles belonging to a group, e.g. fleet of vehicles, countable or determined number of vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0019Control system elements or transfer functions
    • B60W2050/0022Gains, weighting coefficients or weighting functions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0019Control system elements or transfer functions
    • B60W2050/0026Lookup tables or parameter maps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/42Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates

Abstract

일 실시예에 따른 차량의 위치 추정 장치는, 정보 제공 차량으로부터 상기 정보 제공 차량 주변의 주행 차량에 대한 식별 정보 및 위치 정보를 수신하는 통신부; 상기 수신된 식별 정보를 기초로 상기 위치 정보에 대한 가중치를 획득하는 가중치 획득부; 상기 가중치가 적용된 상기 위치 정보를 이용하여 상기 주행 차량의 복수의 시점 각각에 대한 확률 격자 지도를 생성하는 격자 지도 생성부; 및 상기 확률 격자 지도를 기초로 상기 주행 차량의 주행 경로를 결정하고, 상기 결정된 주행 경로를 기초로 상기 주행 차량의 최종 위치를 추정하는 위치 추정부를 포함한다.

Description

차량의 위치 추정 장치 및 방법{APPARATUS AND METHOD FOR ESTIMATING LOCATION OF VEHICLE}
본 발명은 차량의 카메라에 의해 획득된 영상으로부터 주행 차량의 위치를 추정하는 차량의 위치 추정 장치 및 방법에 관한 것이다.
일반적으로 차량은 화석 연료, 전기 등을 동력원으로 하여 도로 또는 선로를 주행하는 운송 장치를 의미한다.
차량은 기술의 발달에 따라 운전자에게 다양한 기능을 제공할 수 있도록 발전해왔다. 특히, 차량의 전장화 추세에 따라, 사고 직전 또는 사고 순간에 사고를 방지하기 위해 동작하는 능동형 안전 시스템(ASS: Active Safety System)을 구비하는 차량이 등장하였다.
나아가, 최근에는 운전자의 부담을 경감시켜주고 편의를 증진시켜주기 위하여 차량 상태, 운전자 상태, 및 주변 환경과 같은 주행 환경에 대한 정보를 능동적으로 제공하는 첨단 운전자 지원 시스템(ADAS: Advanced Driver Assist System)이 탑재된 차량에 대한 연구가 활발히 진행되고 있다.
첨단 운전자 지원 시스템은 주변 차량과의 관계에서 결정되는 주행 환경에 따라 동작하므로, 동작에 앞서 주변 차량의 위치 추정이 선행될 수 있다. 이 때, 복수의 차량 각각에 탑재된 복수의 첨단 운전자 지원 시스템에 의해 추정되는 주변 차량의 위치를 수집할 경우, 도로를 주행 중인 복수의 주행 차량에 대한 모니터링이 가능할 수 있다.
한국등록특허공보, 제 10-1584693호 (2016.01.14. 공고)
본 발명이 해결하고자 하는 과제는, 주변 영상 내 주행 차량의 식별 정보를 기초로 획득된 가중치를 주행 차량의 위치 정보에 적용하여 주행 차량의 최종 위치를 추정하는 차량의 위치 추정 장치 및 방법을 제공하는 것이다.
다만, 본 발명이 해결하고자 하는 과제는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 발명의 일 실시예에 따른 차량의 위치 추정 장치는, 정보 제공 차량으로부터 상기 정보 제공 차량 주변의 주행 차량에 대한 식별 정보 및 위치 정보를 수신하는 통신부; 상기 수신된 식별 정보를 기초로 상기 위치 정보에 대한 가중치를 획득하는 가중치 획득부; 상기 가중치가 적용된 상기 위치 정보를 이용하여 상기 주행 차량의 복수의 시점 각각에 대한 확률 격자 지도를 생성하는 격자 지도 생성부; 및 상기 확률 격자 지도를 기초로 상기 주행 차량의 주행 경로를 결정하고, 상기 결정된 주행 경로를 기초로 상기 주행 차량의 최종 위치를 추정하는 위치 추정부를 포함한다.
본 발명의 일 실시예에 따른 차량의 위치 추정 방법은, 정보 제공 차량에 마련된 카메라에 의해 복수의 시점마다 획득된 주변 영상으로부터 상기 정보 제공 차량 좌표계를 기준으로 주행 차량의 상대 위치 정보를 획득하는 단계; 절대 좌표계 기준 상기 정보 제공 차량의 절대 위치 정보를 기초로 상기 주행 차량의 절대 위치 정보를 획득하는 단계; 상기 주변 영상으로부터 상기 주행 차량에 대한 속성 정보를 추출하는 단계; 상기 복수의 시점 각각에서 추출된 상기 속성 정보를 누적하여 상기 속성 정보를 가질 확률 정보를 포함하는 식별 정보를 추정하는 단계; 및 상기 주행 차량의 위치 정보 및 식별 정보를 위치 추정 장치로 전송하는 단계를 포함한다.
본 발명의 일 실시예에 따른 차량의 위치 추정 장치 및 방법은, 정보 제공 차량에서 주행 차량의 속성 정보를 누적하여 속성 정보에 대한 확률 정보를 획득하고, 위치 추정 장치에서 속성 정보에 대한 확률 정보를 기초로 결정된 가중치를 주행 차량의 위치 정보에 적용하므로, 주행 차량에 대한 위치 추정의 정확도를 높일 수 있다.
구체적으로, 해상도가 낮은 카메라에 의해 획득된 주변 영상으로부터 번호판에 대한 속성 정보를 추정하는 경우, 주행 차량의 식별 정확도가 낮아질 수 있다. 반면, 본 발명의 일 실시에에 따른 차량의 위치 추정 장치 및 방법은 번호판 이외의 속성에 대한 속성 정보를 확률적으로 고려하므로, 낮은 해상도에 따른 오인식의 가능성을 낮출 수 있다.
도 1 은 본 발명의 일 실시예에 따른 차량의 위치 추정 시스템의 기능 블록도이다.
도 2는 본 발명의 일 실시예에 따른 정보 제공 차량에 의해 수행되는 위치 추정 방법의 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 정보 제공 차량에 의해 획득되는 주변 영상을 예시한 도면이다.
도 4는 본 발명의 일 실시예에 따른 정보 제공 차량이 주행 차량의 상대 위치 정보를 획득하는 방법을 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 정보 제공 차량이 주행 차량의 절대 위치 정보를 획득하는 방법을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따른 정보 제공 차량이 주행 차량의 식별 정보를 획득하는 방법을 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따른 위치 추정 장치에 의해 수행되는 위치 추정 방법의 흐름도이다.
도 8은 본 발명의 일 실시예에 따른 위치 추정 장치에 의해 생성되는 확률 격자 지도를 예시한 도면이다.
도 9는 본 발명의 일 실시예에 따른 위치 추정 장치에 의해 획득되는 인접 시점에서의 위치에 대한 확률 분포를 예시한 도면이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
도 1 은 본 발명의 일 실시예에 따른 차량의 위치 추정 시스템의 기능 블록도이다.
본 발명의 차량의 위치 추정 시스템은 ADAS 모듈이 탑재된 정보 제공 차량으로부터 수집된 주변 차량의 위치 정보 및 식별 정보를 이용하여 도로를 주행 중인 차량을 실시간으로 모니터링 할 수 있는 모든 시스템을 의미한다.
주행 중인 차량을 모니터링 하는 것은 해당 차량이 주행하는 도로의 주행 환경을 개선하는데 이용될 뿐만 아니라, 소정의 목적에 따라 특정 차량의 위치 및 주행 경로를 획득하는데 기초가 될 수 있다. 예를 들어, 방범의 목적으로 용의 차량을 추적하기 위해서 상술한 모니터링 결과를 이용할 수 있다.
CCTV를 이용하여 차량의 위치를 추정하는 경우, CCTV가 설치된 위치에 따라 위치 추정 결과의 정확도가 달라질 수 있다. CCTV는 설치된 시점 이후로 위치 변경이 용이하지 않으므로, 위치를 추정하고자 하는 차량이 CCTV 설치 위치가 배제된 주행 경로를 선택한다면, 추정이 어려울 수 있다.
이를 해결하기 위해, 차량에 탑재된 블랙박스를 이용하여 도로를 주행하는 차량을 모니터링 할 수 있다. 차량의 주행에 따라 블랙박스도 함께 이동하면서 주변 영상을 획득할 수 있어, 다양한 위치에서 주행하는 차량에 대한 정보를 획득할 수 있다. 그러나, 이와 같은 방법은 블랙박스 내 카메라의 해상도에 따라 정확도가 결정될 수 있다. 만약, 블랙박스 내 카메라의 해상도가 극히 낮은 경우에 차량의 위치 추정이 불가능할 수 있다. 뿐만 아니라, 위치 추정이 가능하더라도, 카메라에 의해 획득된 영상으로부터 차량의 번호판과 같은 속성 정보를 추출하는 것은 언제나 오인식의 가능성이 존재하므로, 이에 기초한 추정의 결과 역시 정확도를 보장할 수 없다.
따라서, 본 발명의 일 실시예에 따른 차량의 위치 추정 시스템은 주변 영상 내 주행 차량의 식별 정보를 기초로 획득된 가중치를 주행 차량의 위치 정보에 적용하여 주행 차량의 최종 위치를 추정할 수 있다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 차량의 위치 추정 시스템(1)은 ADAS 모듈(200)이 탑재된 정보 제공 차량(Vs); 및 주행 차량의 위치를 추정하는 위치 추정 장치(100)를 포함할 수 있다.
차량의 위치 추정 시스템(1)은 정보 제공 차량(Vs)과 위치 추정 장치(100) 간에 무선 통신이 가능하도록 마련될 수 있다. 구체적으로, 차량의 위치 추정 시스템(1)은 공지된 여러 가지 통신 방법을 채택함으로써 정보 제공 차량(Vs)과 위치 추정 장치(100) 간에 정보 교환이 가능한 환경을 제공할 수 있다. 일 실시예에 따른 차량의 위치 추정 시스템(1)은 CDMA, GSM, W-CDMA, TD-SCDMA, WiBro, LTE, EPC 등의 공지된 통신 방법을 채택하여 기지국을 경유하는 통신 환경을 제공할 수 있다. 이와는 달리, 다른 실시예에 따른 차량의 위치 추정 시스템(1)은 무선 랜(Wireless LAN), 와이파이(Wi-Fi), 블루투스(Bluetooth), 지그비(Zigbee), WFD(Wi-Fi Direct), UWB(Ultra wideband), 적외선 통신(IrDA; Infrared Data Association), BLE (Bluetooth Low Energy), NFC(Near Field Communication)와 같은 통신 방법에 따라 소정 거리 이내에서 정보 제공 차량(Vs)과 위치 추정 장치(100) 간에 통신이 가능한 환경을 제공할 수도 있다. 다만, 통신부(110)가 정보 제공 차량(Vs)과 통신하는 방법은 상술한 실시예에 한정되지 않는다.
정보 제공 차량(Vs)은 주변에 존재하는 주행 차량에 대한 식별 정보 및 위치 정보를 획득할 수 있다. 이를 위해, 정보 제공 차량(Vs)은 ADAS 모듈(200)을 포함할 수 있다.
ADAS 모듈(200)은 다양한 주변 환경에 대응하여 운전자에게 주행 정보를 제공하거나, 나아가 능동적으로 차량을 제어할 수 있는 모든 수단을 의미할 수 있다. 예를 들어, 일 실시예에 따른 ADAS 모듈(200)은 LDWS(Lane Departure Warning System) 모듈, LKAS(Lane Keeping Assist System) 모듈, AEB(Auto Emergency Braking) 모듈, ACC(Adaptive Cruise Control) 모듈, BLIS(Blind Spot Information System) 모듈, FCW(Forward Collision Warning) 모듈, 및/또는 AEB(Auto Emergency Braking) 모듈 등을 포함할 수 있다.
이와 같은 ADAS 모듈(200)은 주변 환경을 감지하기 위한 감지 수단을 구비할 수 있다. 일 실시예에 따른 감지 수단은 차량 주변으로 펄스를 조사하고, 해당 방향에 위치하는 물체로부터 반사되는 에코 펄스를 수신하여 주행 환경을 감지하는 레이더(Radar), 차량 주변으로 레이저를 조사하고, 해당 방향에 위치하는 물체로부터 반사되는 레이저를 수신하는 라이다(LiDAR), 및/또는 차량 주변으로 초음파를 조사하고, 해당 방향에 위치하는 물체로부터 반사되는 에코 초음파를 수신하는 초음파 센서 등을 포함할 수 있다.
또한, ADAS 모듈(200)은 감지 수단으로서 카메라를 포함할 수 있다. 카메라는 차량의 전방, 측방, 및/또는 후방을 향하도록 마련되어, 해당 방향으로의 주변 영상을 촬영할 수 있다. 촬영된 주변 영상은 영상처리 과정을 통해 정보 제공 차량(Vs) 주변을 주행하는 주행 차량의 정보 획득에 기초가 될 수 있다.
또한, ADAS 모듈(200)은 감지 수단으로서 GPS 모듈을 포함할 수 있다. GPS 모듈은 적어도 하나의 GPS(Global Position System) 위성으로부터 항법 데이터(Navigation Data)를 포함하는 위성 신호를 수신할 수 있다. 정보 제공 차량(Vs)은 위성 신호에 기초하여 GPS 기반 정보 제공 차량(Vs)의 현재 위치 좌표 등을 획득할 수 있다.
또한, 정보 제공 차량(Vs)은 본 발명의 일 실시예에 따른 차량의 위치 추정 방법을 수행하는 명령어를 포함하는 프로그램을 저장하는 저장 수단을 더 포함할 수 있다. 일 실시예에 따른 저장 수단은 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 및/또는 광디스크 등을 포함할 수 있다.
또한, 정보 제공 차량(Vs)은 차량의 위치 추정 시스템(1)이 채택한 통신 방법에 따라 위치 추정 장치(100)와 통신 가능한 통신 모듈을 더 포함할 수 있다. 통신 모듈을 통해, 정보 제공 차량(Vs)은 위치 추정 장치(100)에 주행 차량에 대한 식별 정보 및 위치 정보를 제공할 수 있다.
위치 추정 장치(100)는 정보 제공 차량(Vs)으로부터 수신된 주행 차량의 식별 정보 및 위치 정보를 기초로 주행 차량의 최종 위치를 추정할 수 있다. 이를 위해, 일 실시에에 따른 위치 추정 장치(100)는 서버 또는 복수의 서버 집합으로 구성될 수 있다.
통신부(110)는 정보 제공 차량(Vs)으로부터 주행 차량의 식별 정보 및 위치 정보를 수신할 수 있다. 이를 위해, 통신부(110)는 차량의 위치 추정 시스템(1)이 채택하는 통신 방식에 따라 통신 가능하도록 마련될 수 있다.
가중치 획득부(120)는 수신된 주행 차량의 식별 정보를 기초로 위치 정보에 대한 가중치를 획득할 수 있다. 구체적으로, 가중치 획득부(120)는 수신된 식별 정보 중 번호판에 대한 제 1 식별 정보를 기초로 번호판 이외의 제 2 식별 정보를 그룹핑(Grouping)하고, 그룹핑된 제 2 식별 정보를 누적하여 위치 정보에 대한 가중치를 획득할 수 있다.
격자 지도 생성부(130)는 가중치가 적용된 위치 정보를 이용하여 주행 차량의 복수의 시점 각각에 대한 확률 격자 지도를 생성할 수 있다. 여기서, 확률 격자 지도는 특정 시점에서 복수의 격자 각각에 주행 차량이 위치할 확률 정보가 누적되는 지도를 의미할 수 있다. 격자 지도 생성부(130)는 해당 시점에 대응되는 수신된 위치 정보 중 확률 정보에 가중치를 적용하고, 수신된 위치 정보 중 위치 좌표에 대응되는 격자에 가중치가 적용된 확률 정보를 누적할 수 있다.
위치 추정부(140)는 확률 격자 지도를 이용하여 주행 차량의 주행 경로를 결정하고, 결정된 주행 경로를 기초로 주행 차량의 최종 위치를 추정할 수 있다. 구체적으로, 위치 추정부(140)는 확률 격자 지도를 기초로 주행 차량의 후보 주행 경로를 탐색하고, 후보 경로 상에서 인접 시점 간 주행 차량의 위치 변화량 및 각 시점에서의 주행 차량이 위치할 확률의 총 합을 기초로, 탐색된 후보 주행 경로 중 어느 하나를 주행 경로로 결정하고, 주행 경로의 마지막 시점의 위치를 주행 차량의 최종 위치로 추정할 수 있다.
도 1의 실시예에 따른 위치 추정 장치(100)의 적어도 하나의 구성은 마이크로프로세서(Microprocessor)를 포함하는 연산 장치로 구현될 수 있다. 예를 들어, 일 실시예에 따른 위치 추정 장치(100)의 가중치 획득부(120), 격자 지도 생성부(130), 및 위치 추정부(140) 중 적어도 하나는 AP(Application Processor), CP(Communication Processor), GPU(Graphic Processing Unit), 및/또는 CPU(Central Processing Unit) 등의 다양한 프로세서(Processor) 중 적어도 하나에 의해 구현될 수 있다. 또한, 위치 추정 장치(100)의 각 구성 중 적어도 두 개가 SOC(System On Chip) 로 구현되는 것도 가능할 수 있다.
지금까지는 위치 추정 시스템(1)의 각 구성에 대하여 설명하였다. 이하에서는 위치 추정 시스템(1)의 정보 제공 차량(Vs) 및 위치 추정 장치(100) 각각에 의해 수행되는 위치 추정 방법에 대하여 설명한다.
도 2는 본 발명의 일 실시예에 따른 정보 제공 차량에 의해 수행되는 위치 추정 방법의 흐름도이다.
먼저, 정보 제공 차량(Vs)은 복수의 시점마다 획득된 주변 영상으로부터 주행 차량의 상대 위치 정보를 획득할 수 있다(S100). 여기서, 상대 위치 정보란 정보 제공 차량 좌표계를 기준으로 하는 주행 차량의 위치 정보를 의미할 수 있다.
이하에서는 도 3 내지 4를 참조하여 주행 차량의 상대 위치 정보를 획득하는 방법을 설명한다.
도 3은 본 발명의 일 실시예에 따른 정보 제공 차량에 의해 획득되는 주변 영상을 예시한 도면이고, 도 4는 본 발명의 일 실시예에 따른 정보 제공 차량이 주행 차량의 상대 위치 정보를 획득하는 방법을 설명하기 위한 도면이다.
주행 차량의 상대 위치 정보를 획득하기 위해, 정보 제공 차량(Vs)은 먼저 카메라를 이용하여 복수의 시점마다 주변 영상을 획득할 수 있다. 주변 영상이 획득되면, 정보 제공 차량(Vs)은 주변 영상 내 주행 차량을 포함하는 관심 영역을 설정할 수 있다. 이를 위해, 정보 제공 차량(Vs)은 주변 영상에 공지된 차량 식별 알고리즘 중 적어도 하나를 적용함으로써 관심 영역을 설정할 수 있다. 예를 들어, 정보 제공 차량(Vs)은 딥 러닝(Deep Learning)과 같은 기계 학습에 따라 획득된 차량 식별 알고리즘을 이용하여 관심 영역을 설정할 수 있다. 이 때, 관심 영역은 Bounding Box 형태일 수 있다.
도 3의 (a)는 정보 제공 차량(Vs)이 주변 영상으로서 전방 영상을 획득한 경우를 예시한다. 정보 제공 차량(Vs)은 주변 영상 내 전방 차량을 주행 차량으로서 확인하고, 전방 차량을 포함하는 관심 영역을 설정할 수 있다.
도 3의 (b)는 도 2의 (a) 중 전방 차량 주변 영역 Sb를 확대한 도면이다. 도 3의 (b)를 참조하면, 정보 제공 차량(Vs)이 전방 차량을 포함하는 Bounding Box 형상의 관심 영역 SI를 설정하였을 확인할 수 있다.
관심 영역이 설정되면, 정보 제공 차량(Vs)은 관심 영역의 경계 내 목표 지점으로의 방향 벡터를 획득할 수 있다. 여기서, 목표 지점은 관심 영역 내에 존재하는 주행 차량의 위치를 의미할 수 있다. 일 실시예에 따른 목표 지점은 관심 영역 하단의 중심점을 의미할 수 있다.
정보 제공 차량(Vs)은 카메라 좌표계의 중심으로부터 목표 지점으로의 방향 벡터를 획득할 수 있다. 정보 제공 차량 좌표계 기준 카메라의 위치 및 자세각에 대한 카메라 외부 파라미터를 이용하면, 정보 제공 차량(Vs)은 획득된 방향 벡터를 정보 제공 차량 좌표계를 기준으로 변환할 수 있다.
주행 차량과 정보 제공 차량(Vs)이 동일 평면 상을 주행 중이라고 가정할 경우, 획득되는 방향 벡터는 지면과 만나는 주행 차량의 후면을 향할 수 있다. 따라서, 정보 제공 차량(Vs)은 방향 벡터와 지면에 대한 평면의 3차원 교점을 구함으로써, 주행 차량의 상대 위치 정보를 획득할 수 있다.
또한, 정보 제공 차량(Vs)은 관심 영역의 동일 모서리에 존재하는 두 개의 꼭지점을 이용하여 주행 차량의 방향을 추정할 수도 있다. 예를 들어, 주행 차량이 전방 차량인 경우, 정보 제공 차량(Vs)은 관심 영역 하단의 양 끝점에 대한 3차원 위치를 구함으로써 주행 차량의 방향을 추정할 수 있다.
이와 같은 상대 위치 정보에는 오차가 존재하므로, 정보 제공 차량(Vs)은 모델링을 통해 Gaussian Distribution을 획득할 수 있다. 구체적으로, 정보 제공 차량(Vs)은 수학식 1에 따라 주행 차량의 상대 위치 정보의 평균(Mean) 및 공분산(Covariance)를 획득할 수 있다.
여기서, PS,F는 주행 차량의 상대 위치 정보 중 상대 위치 좌표를 의미하고, CS,F는 주행 차량의 상대 위치 정보 중 상대 공분산을 의미할 수 있다.
도 4에서는 상대 좌표계 Ms의 원점으로부터 주행 차량 Vf을 향하는 벡터 V1과 그에 따른 공분산 영역 Sf가 예시된다. 즉, 상술한 수학식 1에 따른 주행 차량 Vf의 상대 위치 정보는 공분산 영역 Sf 내의 복수의 위치에서 확률로서 존재할 수 있다.
그 다음, 정보 제공 차량(Vs)은 차량의 절대 위치 정보를 기초로 주행 차량의 절대 위치 정보를 획득할 수 있다(S110). 여기서, 절대 위치 정보란 절대 좌표계를 기준으로 하는 위치 정보를 의미할 수 있다.
정보 제공 차량(Vs)은 GPS 기반 위치 정보를 절대 위치로서 획득할 수 있다. 상술한 바와 같이, GPS 위성으로부터 수신된 위성 신호는 절대 좌표계를 기준으로 하는 GPS 모듈의 3차원 위치 좌표를 포함하므로, 정보 제공 차량(Vs)은 위성 신호로부터 절대 위치 정보를 획득할 수 있다.
또한, 위성 신호의 오차를 고려하여, 정보 제공 차량(Vs)은 정밀 지도를 함께 이용할 수도 있다. 여기서, 정밀 지도란 안전하고 정밀한 차량 제어를 위해 높은 정확도를 가지며, 도로의 평면 위치뿐만 아니라 고도, 경사, 곡률 등에 대한 정보를 포함하는 지도를 의미할 수 있다. 일 실시예에 따른 정밀 지도는 적어도 차선이 구분 표시되고, 추가적으로 표지판, 신호등, 가드레일과 같은 도로 시설물 등을 포함할 수 있다.
이를 위해, 정보 제공 차량(Vs)은 주변 영상으로부터 특징점을 추출할 수 있다. 특징점이 추출되면, 정보 제공 차량(Vs)은 GPS 기반 위치 정보에 대응되는 정밀 지도 영역 내 랜드마크를 추출된 주변 영상의 특징점과 매칭함으로써 보다 정확한 절대 위치 정보를 획득할 수 있다.
상술한 방법을 통해 획득된 정보 제공 차량(Vs)의 절대 위치 정보는 수학식 2에 따라 표현될 수 있다.
여기서, PW,S는 정보 제공 차량(Vs)의 절대 위치 정보 중 절대 위치 좌표를 의미하고, CW,S는 정보 제공 차량(Vs)의 절대 위치 정보 중 절대 공분산을 의미할 수 있다.
그 다음, 정보 제공 차량(Vs)은 차량의 절대 위치 정보를 기초로 주행 차량의 절대 위치 정보를 획득할 수 있다. 이하에서는 도 5를 참조하여 주행 차량의 절대 위치 정보를 획득하는 방법을 설명한다.
도 5는 본 발명의 일 실시예에 따른 정보 제공 차량이 주행 차량의 절대 위치 정보를 획득하는 방법을 설명하기 위한 도면이다.
정보 제공 차량(Vs)은 절대 위치 정보를 기초로 주행 차량의 절대 위치 정보를 획득할 수 있다. 이 때, 정보 제공 차량(Vs)의 절대 위치 정보 및 주행 차량의 상대 위치 정보에는 오차가 존재하므로, 정보 제공 차량(Vs)은 주행 차량의 절대 위치 정보를 Gaussian Distribution으로 모델링할 수 있다. 구체적으로, 정보 제공 차량(Vs)은 수학식 3에 따라 주행 차량의 절대 위치 정보의 평균(Mean) 및 공분산(Covariance)를 획득할 수 있다.
여기서, [xW,F yW,F θW,F]T 는 주행 차량의 절대 위치 정보 중 절대 위치 좌표를 의미하고, CW,F는 주행 차량의 절대 위치 정보 중 절대 공분산을 의미할 수 있다. 또한, R(θ)는 절대 좌표계로부터 차량의 상대 좌표계로 변환하기 위한 회전 변환 행렬을 의미하고, JW,S는 차량의 절대 위치 정보에 대한 자코비안(Jacobian) 행렬을 의미하고, JS,F는 주행 차량의 상대 위치 정보에 대한 자코비안 행렬을 의미할 수 있다.
도 5에서는 상대 좌표계 Ms의 원점으로부터 주행 차량 Vf을 향하는 벡터 V1과 그에 따른 공분산 영역 Sf가 예시되고, 절대 좌표계 MW의 원점으로부터 정보 제공 차량 좌표계의 원점을 향하는 벡터 V2와 그에 따른 공분산 영역 SS 및 절대 좌표계 MW의 원점으로부터 주행 차량 Vf를 향하는 벡터 V3가 예시된다. 즉, 상술한 수학식 2에 따른 주행 차량 Vf의 절대 위치 정보는 공분산 영역 Sf 내의 복수의 위치에서 확률로서 존재할 수 있다.
주행 차량의 절대 위치 정보를 획득한 후, 정보 제공 차량(Vs)은 주변 영상으로부터 주행 차량에 대한 속성 정보를 추출할 수 있다(S120). 여기서, 속성 정보란 주행 차량의 식별에 이용할 수 있도록 주변 영상으로부터 추출 가능한 모든 정보를 의미할 수 있다. 일 실시예에 따른 속성 정보는 주행 차량의 번호판에 대한 제 1 속성 정보, 및 주행 차량의 크기, 차종, 색상 등 번호판 이외의 속성에 대한 제 2 속성 정보를 포함할 수 있다. 구체적으로, 정보 제공 차량(Vs)은 복수의 시점 각각의 주변 영상 내 설정된 관심 영역으로부터 속성 정보를 추출할 수 있다.
그 다음, 정보 제공 차량(Vs)은 복수의 시점 각각에서 추출된 속성 정보를 누적하여, 속성 정보에 대한 확률 정보를 포함하는 식별 정보를 획득할 수 있다(S130). 이하에서는 도 6을 참조하여 주행 차량의 식별 정보를 획득하는 방법을 설명한다.
도 6은 본 발명의 일 실시예에 따른 정보 제공 차량이 주행 차량의 식별 정보를 획득하는 방법을 설명하기 위한 도면이다.
식별 정보 획득을 위해, 정보 제공 차량(Vs)은 먼저 동일 주행 차량에 대한 관심 영역을 그룹핑(Grouping)할 수 있다. 이를 위해, 일 실시예에 따른 정보 제공 차량(Vs)은 인접하는 시점의 주변 영상 사이의 관심 영역의 중첩 비율을 기초로 해당 관심 영역이 동일 주행 차량에 대한 것인지 여부를 판단할 수 있다.
도 6을 참조하면, t-1 시점에 획득된 주변 영상 It-1과 t 시점에 획득된 주변 영상 It를 중첩할 때, 주변 영상 It-1 내의 관심 영역 G1,t-1과 주변 영상 It 내의 관심 영역 G1,t가 소정의 중첩 영역을 가짐을 확인할 수 있다. 마찬가지로, 주변 영상 It-1 내의 관심 영역 G2,t-1과 주변 영상 It 내의 관심 영역 G2,t가 소정의 중첩 영역을 가짐을 확인할 수 있다. 동일 주행 차량이라면 인접하는 주변 영상 내 비슷한 위치에 존재할 확률이 높기 때문에, 정보 제공 차량(Vs)은 동일 주행 차량에 대한 관심 영역이라 판단할 수 있다.
또한, 다른 실시예에 따른 정보 제공 차량(Vs)은 인접하는 시점의 주변 영상 내 관심 영역의 크기, 및/또는 텍스쳐(Texture)를 비교하여 동일 주행 차량에 대한 것인지 여부를 판단하거나, 정보 제공 차량(Vs)의 주행 속도를 기초로 다음 시점에서의 관심 영역의 위치를 예상함으로써 동일 주행 차량에 대한 것인지 여부를 판단할 수도 있다.
만약, 인접하는 시점의 주변 영상 내 관심 영역이 동일 주행 차량에 대한 것이라고 판단되면, 정보 제공 차량(Vs)은 해당 관심 영역을 그룹핑할 수 있다. 도 6을 참조하면, 관심 영역 G1,t-1과 관심 영역 G1,t 관심 영역이 제 1 그룹 G1으로 그룹핑되고, G2,t-1과 관심 영역 G2,t가 제 2 그룹 G2로 그룹핑될 수 있다.
그 다음, 정보 제공 차량(Vs)은 그룹핑된 관심 영역으로부터 추출된 속성 정보를 누적하여 그룹핑된 관심 영역 내 주행 차량이 속성 정보를 가질 확률 정보를 포함하는 식별 정보를 획득할 수 있다. 구체적으로, 정보 제공 차량(Vs)은 그룹핑된 관심 영역으로부터 추출된 속성 정보의 개수를 누적하여, 그 중 누적량이 가장 많은 속성 정보를 주행 차량의 속성 정보로 선택할 수 있다.
또한, 정보 제공 차량(Vs)은 주행 차량이 선택된 속성 정보를 가질 확률에 대한 확률 정보를 획득할 수 있다. 구체적으로, 정보 제공 차량(Vs)은 주행 차량이 선택된 속성 정보를 가질 확률 정보 W_속성을 수학식 4에 따라 획득할 수 있다.
Figure 112018111475305-pat00004
여기서, N_best는 속성 정보의 최대 누적량을 의미하고, N_total은 속성 정보의 전체 누적량을 의미할 수 있다.
이를 통해, 정보 제공 차량(Vs)은 식별 정보로서 가장 확률이 높은 속성 정보 및 해당 속성 정보를 가질 확률 정보를 획득할 수 있다.
마지막으로, 정보 제공 차량(Vs)은 주행 차량의 절대 위치 정보 및 식별 정보를 위치 추정 장치(100)로 전송할 수 있다(S140).
지금까지는, 정보 제공 차량(Vs)에 의해 수행되는 위치 추정 방법에 대해 설명하였다. 이하에서는, 위치 추정 장치(100)에 의해 수행되는 위치 추정 방법에 대하여 설명한다.
도 7는 본 발명의 일 실시예에 따른 위치 추정 장치에 의해 수행되는 위치 추정 방법의 흐름도이다.
먼저, 위치 추정 장치(100)는 통신부(110)를 통해 정보 제공 차량(Vs)으로부터 주행 차량에 대한 식별 정보 및 절대 위치 정보를 수신할 수 있다(S200). 이 때, 위치 추정 장치(100)는 복수의 정보 제공 차량(Vs)으로부터 복수의 주행 차량에 대한 복수의 식별 정보 및 절대 위치 정보를 수신할 수 있다.
그 다음, 위치 추정 장치(100)는 가중치 획득부(120)를 통해 식별 정보를 기초로 위치 정보에 대한 가중치를 획득할 수 있다. 구체적으로, 가중치 획득부(120)는 먼저 수신된 식별 정보 중 번호판에 대한 제 1 식별 정보를 기초로 번호판 이외의 제 2 식별 정보를 그룹핑 할 수 있다. 예를 들어, 가중치 획득부(120)는 번호판에 대한 '1111'의 제 1 식별 정보를 가지는 식별 정보의 제 2 식별 정보를 그룹핑할 수 있다.
제 2 식별 정보가 그룹핑되면, 가중치 획득부(120)는 그룹핑된 제 2 식별 정보를 누적하여 위치 정보에 대한 가중치를 획득할 수 있다. 상술한 예를 따를 경우, '1111'의 제 1 식별 정보를 가지는 식별 정보의 크기, 색상, 차종 등에 대한 제 2 식별 정보를 누적할 수 있다. 이 때, 누적되는 제 2 식별 정보는 크기, 색상, 차종 등에 대한 속성 정보 별로 주행 차량이 해당 속성 정보를 가질 확률을 의미할 수 있다. 예를 들어, 주행 차량의 크기에 대한 2X2의 속성 정보와 이에 대한 확률 정보 0.7이 존재하는 경우, 크기에 대한 2X2의 속성 정보를 가지는 수신된 모든 식별 정보의 확률 정보에 0.7이 누적될 수 있다.
그 다음, 가중치 획득부(120)는 속성 정보 별로 누적된 확률 정보를 곱하여 가중치를 획득할 수 있다. 만약, 속성 정보가 주행 차량의 크기, 색상, 차종에 대한 것인 경우, 가중치 획득부(120)는 수학식 5에 따라 가중치 W_total를 획득할 수 있다.
Figure 112018111475305-pat00005
여기서, W_크기는 크기에 대한 속성 정보에 대하여 누적된 확률 정보를 의미하고, W_색상는 색상에 대한 속성 정보에 대하여 누적된 확률 정보를 의미하고, W_차종는 차종에 대한 속성 정보에 대하여 누적된 확률 정보를 의미할 수 있다.
이 때, 가중치 획득부(120)는 수학식 5를 적용하기에 앞서, 속성 정보 별로 누적된 확률 정보를 합이 1이 되도록 정규화할 수도 있다.
가중치를 획득한 후, 위치 추정 장치(100)는 격자 지도 생성부(130)를 통해 가중치가 적용된 위치 정보를 이용하여 주행 차량의 복수의 시점 각각에 대한 확률 격자 지도를 생성할 수 있다(S220). 여기서, 확률 격자 지도란 특정 시점에서 복수의 격자 각각에 주행 차량이 위치할 확률 정보가 누적된 지도를 의미할 수 있다.
이하에서는 도 8 및 9을 참조하여, 확률 격자 지도를 생성하는 방법을 설명한다.
도 8은 본 발명의 일 실시예에 따른 위치 추정 장치에 의해 생성되는 확률 격자 지도를 예시한 도면이고, 도 9는 본 발명의 일 실시예에 따른 위치 추정 장치에 의해 획득되는 인접 시점에서의 위치에 대한 확률 분포를 예시한 도면이다.
먼저, 격자 지도 생성부(130)는 특정 시점에 대응되는 수신된 위치 정보 중 확률 정보에 가중치를 적용할 수 있다. 이 때, 수신된 위치 정보는 정보 제공 차량(Vs)에 의해 획득된 주행 차량의 위치 좌표 및 주행 차량이 추정된 위치 좌표에 위치할 확률 정보를 포함할 수 있다.
그 다음, 격자 지도 생성부(130)는 수신된 위치 정보 중 위치 좌표에 대응되는 격자에 가중치가 적용된 확률 정보를 누적할 수 있다. 이 때, 격자 지도 생성부(130)는 수학식 3에 따른 Gaussian Distribution에서의 소정의 임계 확률 이내의 위치 정보만을 이용하여 확률 격자 지도를 생성할 수 있다. 도 8에서는 소정 임계 확률이 90%일 때의 공분산 영역 Sf가 도시되는 확률 격자 지도 Cm을 예시한다.
이 때, Gaussian Distribution은 연속적인 반면, 확률 격자 지도는 불연속인 바, 격자 지도 생성부(130)는 각각의 격자에 대응되는 Gaussian Distribution PDF(Probability Density Function)를 적분한 값에 가중치를 적용하여 누적할 수도 있다.
또한, 격자 지도 생성부(130)는 매 시점에서의 확률 격자 지도를 생성하므로, 확률 격자 지도는 절대 좌표계 기준 xW축 및 yW축과 함께 시간 t축을 가질 수 있다. 도 8에서도 확률 격자 지도가 xW축 및 yW축과 함께 시간 t축을 따르고 있음을 확인할 수 있다.
나아가, 격자 지도 생성부(130)는 인접 시점 사이의 간격에 따른 정보 제공 차량(Vs)의 추정 이동 거리에 기초하여, 인접 시점에 대한 확률 격자 지도를 갱신할 수도 있다. 여기서, 추정 이동 거리란 정보 제공 차량(Vs)이 주행 중인 도로의 교통 상황, 정보 제공 차량(Vs)이 주행 중인 도로를 함께 주행하는 복수의 차량의 주행 속도 등을 기초로 추정되는 정보 제공 차량(Vs)의 이동 거리를 의미할 수 있고, 외부 장치로부터 입력되거나, 위치 추정 장치(100) 내부 연산에 의해 결정될 수 있다.
구체적으로, 격자 지도 생성부(130)는 수학식 6에 따라 제 1 시점 t1에 대응되는 위치 정보를 이용하여 인접한 제 2 시점 t2에서의 위치 정보를 획득할 수 있다.
여기서, [xt2 yt2]T는 제 2 시점 t2에서의 위치 좌표를 의미하고, [xt1 yt1]T는 제 1 시점 t1에서의 위치 좌표를 의미하고, Ct2는 제 2 시점 t2에서의 공분산을 의미하고, Ct1는 제 1 시점 t1에서의 공분산을 의미하고, σt1,t2는 추정 이동 거리 D와 Tuning Parameter인 k의 곱을 의미할 수 있다.
도 9에서는 시점 t에서 획득한 위치 정보에 따른 공분산 영역 St 및 이에 인접하는 시점에서의 공분산 영역이 예시된다. 구체적으로, 시점 t에 인접한 시점 t-1 및 t+1에 대한 공분산 영역 St-1, t+1은 시점 t에 대한 공분산 영역 St 를 중심으로 보다 넓은 영역을 가짐을 확인할 수 있다. 또한, 시점 t-2 및 t+2에 대한 공분산 영역 St-2, t+2은 시점 t에 대한 공분산 영역 St과 시점 t-1 및 t+1에 대한 공분산 영역 St-1, t+1의 외측으로 확장되어 형성될 수 있다. 이와 유사하게, 시점 t-3 및 t+3에 대한 공분산 영역 St-3, t+3은 시점 t에 대한 공분산 영역 St과 시점 t-1 및 t+1에 대한 공분산 영역 St-1, t+1 및 시점 t-2 및 t+2에 대한 공분산 영역 St-2, t+2은 외측으로 확장되어 형성됨을 확인할 수 있다.
이처럼, 특정 시점의 위치 정보을 이용하여 인접 시점의 위치 정보를 추정하는 경우, 공분산 영역이 확대되어 형성됨을 확인할 수 있다.
다시 도 7을 참조하면, 위치 추정 장치(100)는 위치 추정부(140)를 통해 확률 격자 지도를 기초로 주행 차량의 경로를 생성할 수 있다(S230). 일 실시예에 따른 위치 추정부(140)는 각 시점의 확률 격자 지도 중 주행 차량이 존재할 확률이 가장 높은 격자를 연결하여 주행 차량의 경로를 생성할 수 있다.
그러나, 격자에 누적된 확률에 오차가 존재할 가능성이 있으므로, 위치 추정부(140)는 동적 계획법(Dynamic Programming)과 같은 방법을 이용할 수 있다. 다른 실시예에 따른 위치 추정부(140)는 먼저 확률 격자 지도를 기초로 주행 차량의 후보 주행 경로를 탐색할 수 있다. 여기서, 후보 주행 경로란 복수의 확률 격자 지도 각각에서 임계 확률 이상의 격자 중 어느 하나로 구성되는 경로를 의미하고, 임계 확률이란 주행 차량의 존재할 가능성이 있는 최저 확률을 의미할 수 있다. 일 실시예에 따른 위치 추정부(140)는 가능한 모든 후보 경로를 탐색할 수 있고, 이와는 달리 가능한 모든 후보 경로 중 임의의 개수만큼 무작위로 탐색할 수도 있다.
그 다음, 위치 추정부(140)는 후보 경로 상에서 인접 시점 간 주행 차량의 위치 변화량 및 각 시점에서의 주행 차량이 위치할 확률의 총 합을 기초로, 탐색된 후보 주행 경로 중 어느 하나를 주행 경로로 결정할 수 있다. 구체적으로, 위치 추정부(140)는 후보 경로 상에서 인접 시점 간 주행 차량의 위치 변화량을 최소화하면서도, 후보 경로를 구성하는 각 격자에 누적된 확률의 총 합이 최대가 되는 후보 경로를 주행 경로로 결정할 수 있다.
마지막으로, 위치 추적 장치는 위치 추정부(140)를 통해 주행 경로를 기초로 주행 차량의 최종 위치를 추정할 수 있다(S240). 구체적으로, 위치 추정부(140)는 주행 경로의 마지막 시점의 위치를 주행 차량의 위치로 추정할 수 있다.
다시 도 1을 참조하면, 위치 추정 장치(100)는 외부 장치 또는 사용자로부터 요청이 있을 경우, 확률 격자 지도에 대응되는 히트 맵(Heat Map)을 생성하여 제공할 수도 있다. 여기서, 히트 맵은 미리 정해진 시간 구간 동안 각각의 격자에 대한 확률의 적분 값을 대응 컬러로 표현한 맵을 의미할 수 있다. 이 때, 위치 추정 장치(100)는 설정된 시간 구간 중 현 시점으로부터 먼 시점에 대한 확률에는 낮은 가중치를 적용하고, 현 시점으로부터 가까운 시점에 대한 확률에는 높은 가중치를 적용하여 적분할 수 있다.
위치 추정 장치(100)는 외부 장치 또는 사용자로부터 특정 시간 구간에 대한 히트 맵 제공 요청이 입력되면, 해당 시간 구간에서의 각 격자 별 확률 적분 값을 구하고, 이에 대응되는 컬러를 각 격자에 표시할 수 있다. 예를 들어, 위치 추정 장치(100)는 확률이 높은 격자가 붉은색으로 표시되고, 확률이 낮은 격자가 파란색으로 표시되는 히트 맵을 제공할 수 있다. 이를 통해 사용자는 주행 차량의 특정 시간 구간에서의 위치를 시각적이고 직관적으로 판단할 수 있다.
상술한 차량의 위치 추정 장치, 및 방법은, 본 발명의 일 실시예에 따른 차량의 위치 추정 장치 및 방법은, 정보 제공 차량에서 주행 차량의 속성 정보를 누적하여 속성 정보에 대한 확률 정보를 획득하고, 위치 추정 장치에서 속성 정보에 대한 확률 정보를 기초로 결정된 가중치를 주행 차량의 위치 정보에 적용하므로, 주행 차량에 대한 위치 추정의 정확도를 높일 수 있다.
구체적으로, 해상도가 낮은 카메라에 의해 획득된 주변 영상으로부터 번호판에 대한 속성 정보를 추정하는 경우, 주행 차량의 식별 정확도가 낮아질 수 있다. 반면, 본 발명의 일 실시에에 따른 차량의 위치 추정 장치 및 방법은 번호판 이외의 속성에 대한 속성 정보를 확률적으로 고려하므로, 낮은 해상도에 따른 오인식의 가능성을 낮출 수 있다.
한편, 상술한 일 실시예에 따른 차량의 위치 추정 방법에 포함된 각각의 단계는, 이러한 단계를 수행하도록 프로그램된 컴퓨터 프로그램 및 컴퓨터 프로그램을 기록하는 컴퓨터 판독가능한 기록매체에서 구현될 수 있다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 품질에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
일 실시예에 따르면, 상술한 차량의 위치 추정장치, 및 방법은 댁내 또는 산업 현장 등 다양한 분야에서 이용될 수 있으므로 산업상 이용 가능성이 있다.
1: 차량의 위치 추정 시스템
100: 차량의 위치 추정 장치
110: 통신부
120: 가중치 획득부
130: 격자 지도 생성부
140: 위치 추정부
VS: 정보 제공 차량
200: ADAS 모듈

Claims (14)

  1. 정보 제공 차량으로부터 상기 정보 제공 차량 주변의 복수의 주행 차량 각각에 대하여 동일 주행 차량에 대한 제 1 식별 정보, 제 2 식별 정보 및 위치 정보를 수신하는 통신부;
    상기 제 1 식별 정보를 기초로 상기 제 1 식별 정보 이외의 상기 제 2 식별 정보를 그룹핑하고, 그룹핑 된 제 2 식별 정보를 누적하여 상기 위치 정보에 대한 정확도를 나타내는 가중치를 획득하는 가중치 획득부; 및
    가중치가 적용된 위치 정보를 이용하여 상기 동일 주행 차량의 최종 위치를 추정하는 위치 추정부를 포함하는 차량의 위치 추정 장치.
  2. 삭제
  3. 제 1 항에 있어서,
    상기 제 1 식별 정보는, 상기 동일 주행 차량을 식별하기 위한 제 1 속성 정보를 포함하고,
    상기 제 2 식별 정보는, 상기 제 1 식별 정보 이외의 상기 동일 주행 차량을 식별하기 위한 제 2 속성 정보를 포함하는 차량의 위치 추정 장치.
  4. 제 3 항에 있어서,
    상기 제 1 식별 정보는, 상기 동일 주행 차량이 상기 제 1 속성 정보를 가질 제 1 확률 정보를 포함하고,
    상기 제 2 식별 정보는, 상기 동일 주행 차량이 상기 제 2 속성 정보를 가질 제 2 확률 정보를 포함하며,
    상기 가중치 획득부는,
    상기 그룹핑된 제 2 식별 정보 중 상기 제 2 확률 정보를 상기 제 2 속성 정보 별로 누적하고,
    누적된 제 2 속성 정보 별 제 2 확률 정보를 곱하여 상기 가중치를 획득하는 차량의 위치 추정 장치.
  5. 제 1 항에 있어서,
    상기 가중치가 적용된 위치 정보를 이용하여 상기 동일 주행 차량의 복수의 시점 각각에 대한 확률 격자 지도를 생성하는 격자 지도 생성부를 더 포함하는 차량의 위치 추정 장치.
  6. 제 5 항에 있어서,
    상기 확률 격자 지도는,
    제 1 시점에서 복수의 격자 각각에 상기 동일 주행 차량이 위치할 확률 정보가 누적되고,
    상기 위치 정보는,
    상기 정보 제공 차량에 의해 획득된 상기 동일 주행 차량의 위치 좌표 및 상기 동일 주행 차량이 상기 위치 좌표에 위치할 제 3 확률 정보를 포함하고,
    상기 격자 지도 생성부는,
    상기 제 1 시점에 대응되는 상기 위치 정보 중 상기 제 3 확률 정보에 상기 가중치를 적용하고,
    상기 위치 정보 중 상기 위치 좌표에 대응되는 격자에 상기 가중치가 적용된 상기 제 3 확률 정보를 누적하는 차량의 위치 추정 장치.
  7. 제 6 항에 있어서,
    상기 격자 지도 생성부는,
    상기 제 1 시점 및 상기 제 1 시점에 인접한 제 2 시점 사이의 시간 간격에 따른 상기 정보 제공 차량의 추정 이동 거리에 기초하여, 상기 제 2 시점에 대한 상기 확률 격자 지도를 갱신하는 차량의 위치 추정 장치.
  8. 제 5 항에 있어서,
    상기 위치 추정부는,
    상기 확률 격자 지도를 이용하여 상기 동일 주행 차량의 주행 경로를 결정하고, 결정된 상기 주행 경로를 기초로 상기 동일 주행 차량의 최종 위치를 추정하는 차량의 위치 추정 장치.
  9. 제 8 항에 있어서,
    상기 위치 추정부는,
    상기 확률 격자 지도를 기초로 상기 동일 주행 차량의 후보 주행 경로를 탐색하고,
    상기 후보 주행 경로 상에서 인접 시점 간 상기 동일 주행 차량의 위치 변화량 및 각 시점에서의 상기 동일 주행 차량이 위치할 확률의 총 합을 기초로, 상기 후보 주행 경로 중 어느 하나를 상기 주행 경로로 결정하고,
    상기 주행 경로의 마지막 시점의 위치를 상기 동일 주행 차량의 상기 최종 위치로 추정하는 차량의 위치 추정 장치.
  10. 삭제
  11. 삭제
  12. 삭제
  13. 삭제
  14. 삭제
KR1020180137424A 2018-11-09 2018-11-09 차량의 위치 추정 장치 및 방법 KR102604821B1 (ko)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR1020180137424A KR102604821B1 (ko) 2018-11-09 2018-11-09 차량의 위치 추정 장치 및 방법
PCT/KR2019/015283 WO2020096437A1 (ko) 2018-11-09 2019-11-11 차량의 위치 추정 장치 및 방법
CN201980065118.3A CN112789208A (zh) 2018-11-09 2019-11-11 用于估计交通工具位置的设备和方法
US17/188,242 US11898851B2 (en) 2018-11-09 2021-03-01 Apparatus and method for estimating location of vehicle
KR1020230105416A KR102601134B1 (ko) 2018-11-09 2023-08-11 차량의 위치 추정방법
US18/513,510 US20240094008A1 (en) 2018-11-09 2023-11-18 Apparatus And Method For Estimating Location Of Vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180137424A KR102604821B1 (ko) 2018-11-09 2018-11-09 차량의 위치 추정 장치 및 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020230105416A Division KR102601134B1 (ko) 2018-11-09 2023-08-11 차량의 위치 추정방법

Publications (2)

Publication Number Publication Date
KR20200053920A KR20200053920A (ko) 2020-05-19
KR102604821B1 true KR102604821B1 (ko) 2023-11-20

Family

ID=70611055

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020180137424A KR102604821B1 (ko) 2018-11-09 2018-11-09 차량의 위치 추정 장치 및 방법
KR1020230105416A KR102601134B1 (ko) 2018-11-09 2023-08-11 차량의 위치 추정방법

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020230105416A KR102601134B1 (ko) 2018-11-09 2023-08-11 차량의 위치 추정방법

Country Status (4)

Country Link
US (2) US11898851B2 (ko)
KR (2) KR102604821B1 (ko)
CN (1) CN112789208A (ko)
WO (1) WO2020096437A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102233260B1 (ko) * 2018-10-02 2021-03-29 에스케이텔레콤 주식회사 정밀 지도 업데이트 장치 및 방법
KR20230014344A (ko) * 2021-07-21 2023-01-30 현대모비스 주식회사 차량의 주변 환경 모니터링 장치 및 방법
US20230186587A1 (en) * 2021-12-14 2023-06-15 Ford Global Technologies, Llc Three-dimensional object detection

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101690050B1 (ko) * 2015-10-30 2016-12-27 한국과학기술연구원 지능형 영상보안 시스템 및 객체 추적 방법

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090140887A1 (en) * 2007-11-29 2009-06-04 Breed David S Mapping Techniques Using Probe Vehicles
JP2011232818A (ja) * 2010-04-23 2011-11-17 Toyota Motor Corp 先行車検出装置
US20230135207A1 (en) * 2011-07-06 2023-05-04 Peloton Technology, Inc. Gap measurement for vehicle convoying
EP2562681B1 (de) * 2011-08-25 2014-08-13 Delphi Technologies, Inc. Objektverfolgungsverfahren für ein Kamerabasiertes Fahrerassistenzsystem
US20130278441A1 (en) * 2012-04-24 2013-10-24 Zetta Research and Development, LLC - ForC Series Vehicle proxying
CN103077384B (zh) * 2013-01-10 2016-08-31 北京万集科技股份有限公司 一种车标定位识别的方法与系统
WO2014152470A2 (en) * 2013-03-15 2014-09-25 Tk Holdings, Inc. Path sensing using structured lighting
KR20150053073A (ko) * 2013-11-07 2015-05-15 현대자동차주식회사 차량 거리 검출 장치와 이를 수행하는 차량 거리 검출 장치 및 차량 거리 검출 시스템
JP6325806B2 (ja) * 2013-12-06 2018-05-16 日立オートモティブシステムズ株式会社 車両位置推定システム
KR101584693B1 (ko) 2014-05-23 2016-01-14 경북대학교 산학협력단 카메라 파라미터 측정 장치 및 그 방법
CN105574542A (zh) * 2015-12-15 2016-05-11 中国北方车辆研究所 基于多传感器融合的多视觉特征车辆检测方法
KR102655800B1 (ko) * 2016-09-19 2024-04-09 현대자동차주식회사 차량 및 장애물 검출 방법
KR102529903B1 (ko) * 2016-12-14 2023-05-08 현대자동차주식회사 차량의 위치 추정 장치 및 방법
KR102463702B1 (ko) * 2016-12-15 2022-11-07 현대자동차주식회사 차량 정밀 위치 추정 장치, 그 방법, 그를 위한 맵 구축 장치, 및 그를 위한 맵 구축 방법
KR101848019B1 (ko) * 2016-12-27 2018-04-11 아주대학교산학협력단 차량 영역 검출을 통한 차량 번호판 검출 방법 및 장치
US10430641B2 (en) * 2017-03-08 2019-10-01 GM Global Technology Operations LLC Methods and systems for object tracking using bounding boxes
US10195992B2 (en) 2017-04-03 2019-02-05 Ford Global Technologies, Llc Obstacle detection systems and methods
KR101952011B1 (ko) * 2017-04-11 2019-04-29 한양대학교 산학협력단 V2v/v2i를 이용하는 차량의 위치 추정 방법
CN107480638B (zh) * 2017-08-16 2020-06-30 北京京东尚科信息技术有限公司 车辆避障方法、控制器、装置和车辆
US20190146508A1 (en) * 2017-11-14 2019-05-16 Uber Technologies, Inc. Dynamic vehicle routing using annotated maps and profiles
CN108614262A (zh) * 2018-06-22 2018-10-02 安徽江淮汽车集团股份有限公司 一种车辆前方目标物检测方法及系统
EP3604065B1 (en) * 2018-08-01 2020-11-04 Hitachi Automotive Systems, Ltd. Vehicle travelling control apparatus
EP3842304A3 (en) * 2018-08-14 2021-09-15 Mobileye Vision Technologies Ltd. Systems and methods for navigating with safe distances

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101690050B1 (ko) * 2015-10-30 2016-12-27 한국과학기술연구원 지능형 영상보안 시스템 및 객체 추적 방법

Also Published As

Publication number Publication date
US20210183241A1 (en) 2021-06-17
US20240094008A1 (en) 2024-03-21
KR20200053920A (ko) 2020-05-19
KR102601134B1 (ko) 2023-11-09
WO2020096437A1 (ko) 2020-05-14
US11898851B2 (en) 2024-02-13
KR20230121714A (ko) 2023-08-21
CN112789208A (zh) 2021-05-11

Similar Documents

Publication Publication Date Title
CN110531753B (zh) 自主车辆的控制系统、控制方法和控制器
CN108572663B (zh) 目标跟踪
US10699142B2 (en) Systems and methods for traffic signal light detection
KR102601134B1 (ko) 차량의 위치 추정방법
CN107015559B (zh) 使用散列加权积分和求和的目标跟踪的概率推理
US11250288B2 (en) Information processing apparatus and information processing method using correlation between attributes
US8260539B2 (en) Object and vehicle detection and tracking using 3-D laser rangefinder
US20220012466A1 (en) Method and system for generating a bird's eye view bounding box associated with an object
US8605947B2 (en) Method for detecting a clear path of travel for a vehicle enhanced by object detection
US20150336575A1 (en) Collision avoidance with static targets in narrow spaces
US11460851B2 (en) Eccentricity image fusion
US10909411B2 (en) Information processing apparatus, information processing method, and computer program product
US11204610B2 (en) Information processing apparatus, vehicle, and information processing method using correlation between attributes
JP2020073915A (ja) 情報処理装置、情報処理方法、及びプログラム
US20200116509A1 (en) Assistance control system
KR20200001471A (ko) 차선 정보 검출 장치, 방법 및 이러한 방법을 수행하도록 프로그램된 컴퓨 프로그램을 저장하는 컴퓨터 판독가능한 기록매체
CN112805766B (zh) 用于更新详细地图的装置和方法
US20180095475A1 (en) Systems and methods for visual position estimation in autonomous vehicles
CN114789733A (zh) 移动体控制装置、移动体控制方法以及存储介质
Mujica et al. Internet of Things in the railway domain: Edge sensing system based on solid-state LIDAR and fuzzy clustering for virtual coupling
WO2020072193A1 (en) Object localization using machine learning
US20230260254A1 (en) Information processing device, information processing method, and program
US20230110391A1 (en) 3d sensing and visibility estimation
Varadarajan et al. Analyzing the Effects of Geometric Lane Constraints on RADAR-Based Sensing of Available Vehicle Headway Using Mapped Lane Geometry and Camera Registration of Lane Position
CN115946723A (zh) 确定驾驶策略的方法、装置、车辆及存储介质

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant