KR20210076411A - 차량 센서 오차 보상 장치 및 그의 오차 보상 방법 - Google Patents

차량 센서 오차 보상 장치 및 그의 오차 보상 방법 Download PDF

Info

Publication number
KR20210076411A
KR20210076411A KR1020190167577A KR20190167577A KR20210076411A KR 20210076411 A KR20210076411 A KR 20210076411A KR 1020190167577 A KR1020190167577 A KR 1020190167577A KR 20190167577 A KR20190167577 A KR 20190167577A KR 20210076411 A KR20210076411 A KR 20210076411A
Authority
KR
South Korea
Prior art keywords
sensor
object information
error
rotation angle
longitudinal
Prior art date
Application number
KR1020190167577A
Other languages
English (en)
Inventor
이우영
Original Assignee
현대자동차주식회사
기아 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사, 기아 주식회사 filed Critical 현대자동차주식회사
Priority to KR1020190167577A priority Critical patent/KR20210076411A/ko
Priority to US16/834,425 priority patent/US11538253B2/en
Publication of KR20210076411A publication Critical patent/KR20210076411A/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/029Adapting to failures or work around with other constraints, e.g. circumvention by avoiding use of failed parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/029Adapting to failures or work around with other constraints, e.g. circumvention by avoiding use of failed parts
    • B60W2050/0292Fail-safe or redundant systems, e.g. limp-home or backup systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/408
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/42Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/52Radar, Lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Abstract

동일 물체에 대한 판별 성능을 높일 수 있는 차량 센서 오차 보상 장치 및 그의 오차 보상 방법에 관한 것으로, 센서 물체 정보와 센서 퓨전 물체 정보간의 회전 각도 오차를 산출하는 회전 각도 오차 산출부, 센서 물체 정보와 센서 퓨전 물체 정보간의 종방향 및 횡방향 위치 오차를 산출하는 위치 오차 산출부, 그리고 산출된 회전 각도 및 위치 오차를 토대로 센서 오차를 보상하는 센서 오차 보상부를 포함하고, 센서 오차 보상부는, 회전 각도 오차가 산출되면 회전 각도 오차를 토대로 센서 물체 정보의 오차를 보정하고, 보정된 센서 물체 정보와 센서 퓨전 물체 정보간의 종방향 및 횡방향 위치 오차를 토대로 센서 오차를 보상할 수 있다.

Description

차량 센서 오차 보상 장치 및 그의 오차 보상 방법 {APPARATUS AND METHOD FOR COMPENSATING VEHICLE SENSOR ERROR}
본 발명은 차량 센서 오차 보상 장치에 관한 것으로, 더욱 상세하게는 동일 물체에 대한 판별 성능을 높일 수 있는 차량 센서 오차 보상 장치 및 그의 오차 보상 방법에 관한 것이다.
일반적으로, 차량의 자율주행 및 ADAS(Advanced Driver Assistance Systems) 기술 개발의 핵심 중 하나는, 주변 환경에 대한 정확하고 신뢰할 수 있는 정보를 획득하는 기술이다.
신뢰성이 높은 주변 환경 정보를 획득하기 위해 다양한 방법들이 사용되는데, 그 중 이종 센서간 정보 융합 방법이 많이 사용되고 있다.
이종 센서간 정보 융합 방법은, 이종 센서들의 좌표계를 동일한 기준 좌표계(reference coordinate)로 보정해 주는 작업이 선행되어야 한다.
하지만, 동일한 기준 좌표계로 보정하는 작업이라 할지라도, 센서 노이즈, 시간 또는 열 등에 의한 센서 마운트의 변형, 차량의 험한 주행 환경 등에 의하여 이종 센서들의 좌표계를 동일한 기준 좌표계로 보정하는 작업이 어려운 문제가 있었다.
이종 센서들의 좌표계 미일치 현상은, 주변 물체에 대한 위치 오차(position error)를 발생시킬 수 있다.
일 예로, 약 1도의 오차는, 10m 거리의 물체에서 약 0.17m 위치 오차를 발생시키지만, 약 100m 거리의 물체에서는 약 1.7m 위치 오차를 발생시킬 수 있다.
그리고, 좌표계 미일치 현상으로 인한 물체들의 위치 오차는, 동일 물체 판별 성능에도 악영향을 미칠 수 있다.
동일 물체를 판단하는 대부분의 방법은, 예측된 트랙(track)의 위치 혹은 기준 센서에서 검출된 물체의 위치 주변 일정 반경 내에 탐지 물체가 존재할 때, 동일 물체로 판단할 수 있는데, 원거리 물체에 대한 위치 오차가 크므로, 원거리에 단일 물체가 존재하더라도 여러 물체가 존재한다고 판단될 수 있는 문제가 있었다.
이러한, 원거리 물체에 대한 동일 물체 판별 성능 저하는, 고속 자율 주행 시에 긴급 충돌 회피 및 차선 변경 등의 기능에 오작동을 야기할 수 있다.
그 이유는, 전방 원거리에 여러 물체가 존재한다고 판단하여 충돌 회피 및 차선 변경 시점을 제대로 추정할 수 없기 때문이다.
따라서, 향후 이종 센서들의 좌표계가 일치하도록 실시간으로 보정하여 동일 물체에 대한 판별 성능을 높일 수 있는 차량 센서 오차 보상 장치의 개발이 요구되고 있다.
본 발명은 센서 물체 정보와 센서 퓨전 물체 정보간의 회전 각도 오차 및 종/횡방향 위치 오차를 토대로 센서 오차를 보상함으로써, 이종 센서들의 좌표계가 일치하도록 실시간으로 보정하여 동일 물체에 대한 판별 성능을 높일 수 있는 차량 센서 오차 보상 장치 및 그의 오차 보상 방법을 제공하는데 있다.
본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
상기와 같은 기술적 과제를 해결하기 위하여, 본 발명의 일 실시예에 따른 차량 센서 오차 보상 장치는, 센서 물체 정보와 센서 퓨전 물체 정보간의 회전 각도 오차를 산출하는 회전 각도 오차 산출부, 센서 물체 정보와 센서 퓨전 물체 정보간의 종방향 및 횡방향 위치 오차를 산출하는 위치 오차 산출부, 그리고 산출된 회전 각도 및 위치 오차를 토대로 센서 오차를 보상하는 센서 오차 보상부를 포함하고, 센서 오차 보상부는, 회전 각도 오차가 산출되면 회전 각도 오차를 토대로 센서 물체 정보의 오차를 보정하고, 보정된 센서 물체 정보와 센서 퓨전 물체 정보간의 종방향 및 횡방향 위치 오차를 토대로 센서 오차를 보상할 수 있다.
또한, 본 발명 일 실시예에 따른 차량 센서 오차 보상 장치의 오차 보상 방법은, 센서 물체 정보와 센서 퓨전 물체 정보를 획득하는 단계, 센서 물체 정보를 센서 퓨전 물체 정보에 투영시켜 센서 물체 정보와 센서 퓨전 물체 정보간의 회전 각도 오차를 산출하는 단계, 산출된 회전 각도 오차를 토대로 센서 물체 정보의 오차를 보정하는 단계, 보정된 센서 물체 정보와 센서 퓨전 물체 정보간의 종방향 및 횡방향 위치 오차를 산출하는 단계, 그리고 위치 오차 및 회전 각도 오차를 토대로 센서 오차를 보상하는 단계를 포함할 수 있다.
또한, 본 발명의 일 실시예에 따른 차량 센서 오차 보상 장치의 오차 보상 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체로서, 상기 차량 센서 오차 보상 방법에서 제공된 과정을 수행할 수 있다.
한편, 본 발명의 일 실시예에 따른 차량은, 타겟 물체에 대한 센서 물체 정보와 센서 퓨전 물체 정보를 센싱하는 센싱 장치, 그리고 센서 물체 정보와 센서 퓨전 물체 정보를 토대로 센서 오차를 보상하는 차량 센서 오차 보상 장치를 포함하고, 차량 센서 오차 보상 장치는, 센서 물체 정보와 센서 퓨전 물체 정보간의 회전 각도 오차를 산출하는 회전 각도 오차 산출부, 센서 물체 정보와 센서 퓨전 물체 정보간의 종방향 및 횡방향 위치 오차를 산출하는 위치 오차 산출부, 그리고 회전 각도 오차를 토대로 센서 물체 정보의 오차를 보정하고, 보정된 센서 물체 정보와 센서 퓨전 물체 정보간의 종방향 및 횡방향 위치 오차를 토대로 센서 오차를 보상하는 센서 오차 보상부를 포함할 수 있다.
상기와 같이 구성되는 본 발명의 적어도 하나의 실시예에 관련된 차량 센서 오차 보상 장치 및 그의 오차 보상 방법은, 센서 물체 정보와 센서 퓨전 물체 정보간의 회전 각도 오차 및 종/횡방향 위치 오차를 토대로 센서 오차를 보상함으로써, 이종 센서들의 좌표계가 일치하도록 실시간으로 보정하여 동일 물체에 대한 판별 성능을 높일 수 있는 효과를 제공한다.
또한, 본 발명은, 실시간적으로 발생하는 좌표계 미일치 현상을 대응할 수 있으므로, 전반적인 영역에서의 센서퓨전 성능 향상을 기대할 수 있다.
즉, 본 발명은, 매 시간마다 입력되는 센서 정보와 센서퓨전 정보를 바탕으로 좌표계를 보정함으로써, 실시간적으로 발생하는 좌표계 미일치 현상에 대응 가능하다.
또한, 본 발명은, 종래 기술 대비 연산시간의 감소 및 파라미터 추정 성능 개선의 장점을 가질 수 있다.
즉, 본 발명은, 기존 기술 대비 삼각함수 및 사칙연산만으로 파라미터를 추정할 수 있고, 추가적인 알고리즘 없이도 센서 노이즈의 영향을 감소시킬 수 있다.
또한, 본 발명은, 짧은 연산시간과 낮은 연산 복잡성으로 임베디드 양산이 가능하다.
즉, 종래 기술은, 프로팅 포인트 오퍼레이션(floating point operation)이 가능한 임베디드 보드를 사용해야 되지만, 본 발명은, 픽스드 포인트 오퍼레이션(fixed point operation)으로 구현 가능하다.
따라서, 연산성능이 컴퓨터에 비해 낮은 임베디드 보드에서는, 본 발명이 종래 기술 대비 연산 성능면에서 탁월한 효과를 보일 수 있다.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명에 따른 차량 센서 오차 보상 장치가 적용되는 차량을 설명하기 위한 도면이다.
도 2는 본 발명에 따른 차량 센서 오차 보상 장치를 설명하기 위한 블럭 구성도이다.
도 3은 좌표계 보정을 통한 동일 물체 판별 성능을 설명하기 위한 도면이다.
도 4는 본 발명에 따른 차량 센서 오차 보상 과정을 설명하기 위한 도면이다.
도 5는 본 발명의 연산 시간 및 추정 성능 개선을 보여주는 도면이다.
도 6은 본 발명의 위치 오차 개선을 보여주는 도면이다.
도 7 내지 도 9는 본 발명의 동일 물체 판별 성능 개선을 보여주는 도면이다.
도 10은 본 발명에 따른 차량 센서 오차 보상 방법을 설명하기 위한 흐름도이다.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…부", "…기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서 전체에 걸쳐서 동일한 참조번호로 표시된 부분들은 동일한 구성요소들을 의미한다.
이하, 도 1 내지 도 10을 참조하여 본 발명의 실시예들에 적용될 수 있는 차량 센서 오차 보상 장치 및 그의 오차 보상 방법에 대해 상세히 설명한다.
도 1은 본 발명에 따른 차량 센서 오차 보상 장치가 적용되는 차량을 설명하기 위한 도면이다.
도 1에 도시된 바와 같이, 차량(10)은, 타겟 물체에 대한 센서 물체 정보와 센서 퓨전 물체 정보를 센싱하는 센싱 장치(100)와, 센서 물체 정보와 센서 퓨전 물체 정보를 토대로 센서 오차를 보상하는 차량 센서 오차 보상 장치(200)를 포함할 수 있다.
여기서, 차량 센서 오차 보상 장치(200)는, 센싱 장치(100)로부터 센서 물체 정보와 센서 퓨전 물체 정보를 획득하면 센서 물체 정보와 센서 퓨전 물체 정보간의 회전 각도 오차를 산출하고, 산출된 회전 각도 오차를 토대로 센서 물체 정보의 오차를 보정하며, 보정된 센서 물체 정보와 센서 퓨전 물체 정보간의 종방향 및 횡방향 위치 오차를 산출하고, 회전 각도 및 위치 오차를 토대로 센서 오차를 보상할 수 있다.
차량 센서 오차 보상 장치(200)는, 회전 각도 오차를 산출할 때, 센서 물체 정보를 센서 퓨전 물체 정보에 투영시켜 센서 물체 정보와 센서 퓨전 물체 정보간의 회전 각도 오차를 산출할 수 있다.
일 예로, 차량 센서 오차 보상 장치(200)는, 회전 각도 오차를 산출할 때,
Figure pat00001
(여기서, θerr는 회전 각도 오차, xmeas는 센서 물체 정보에 대한 횡방향 위치값, ymeas는 센서 물체 정보에 대한 종방향 위치값, xref는 센서 퓨전 물체 정보에 대한 횡방향 위치값, yref는 센서 퓨전 물체 정보에 대한 종방향 위치값임)인 수식으로부터 센서 물체 정보와 센서 퓨전 물체 정보간의 회전 각도 오차를 산출할 수 있다.
여기서, 회전 각도 오차는, 센서 물체 정보를 센싱한 센서의 요(yaw) 각도 오차일 수 있다.
또한, 차량 센서 오차 보상 장치(200)는, 센서 물체 정보의 오차가 보정되면 보정된 센서 물체 정보와 센서 퓨전 물체 정보간의 종방향 및 횡방향 위치 오차를 산출할 수 있다.
일 예로, 차량 센서 오차 보상 장치(200)는, 종방향 및 횡방향 위치 오차를 산출할 때,
Figure pat00002
(여기서, xerr는 횡방향 위치 오차, yerr는 종방향 위치 오차, xmeas는 센서 물체 정보에 대한 횡방향 위치값, ymeas는 센서 물체 정보에 대한 종방향 위치값, xref는 센서 퓨전 물체 정보에 대한 횡방향 위치값, yref는 센서 퓨전 물체 정보에 대한 종방향 위치값임)인 수식으로부터 센서 물체 정보와 센서 퓨전 물체 정보간의 종방향 및 횡방향 위치 오차를 산출할 수 있다.
여기서, 위치 오차는, 센서 물체 정보를 센싱한 센서의 종방향 및 횡방향 위치 오차일 수 있다.
이와 같이, 본 발명의 차량 센서 오차 보상 장치(200)는, 센서 위치 오차 모델과 모델의 파라미터 추정기로 구성될 수 있다.
여기서, 이종 센서 각각의 위치 오차 모델이 존재할 수 있다.
그리고, 센서 위치 오차 모델의 파라미터는, 센서 물체 정보와 센서퓨전된 물체 정보(기준 정보로 사용됨)인 2가지 정보를 이용하여, 프로젝션 어프로치(projection approach) 기반으로 하는 RLS(Recursive Least Square)를 사용함으로써, 도출할 수 있다.
본 발명에서, 센서퓨전 물체 위치 정보를 기준 위치 정보로 사용하는 이유는 다음과 같다.
첫째, 센서퓨전은, 이종 센서들의 정보를 이용하여 보다 더 정확하고 신뢰할 수 있는 정보를 만들 수 있기 때문이다.
둘째, 근거리 물체에 한하여 미세한 좌표계의 불일치로 인한 위치오차는, 센서 해상도(resolution) 안에 존재할 정도로 미미한 영향을 미치기 때문이다.
따라서, 근거리 물체에 대하여 센서퓨전된 물체의 위치정보는, 센서들이 동일한 좌표계로 일치했을 때의 결과에 대한 허용오차 이내에 존재할 수 있다.
즉, 본 발명은, RTK-GPS(Real Time Kinematic-GPS)와 같은 고가의 센서를 이용하지 않고, 가장 정확하고 신뢰할 수 있는 기준(reference) 위치 정보를 얻을 수 있다.
또한, 본 발명의 센서 위치 오차 모델(Sensor position error model)은, 이종 센서간 좌표계를 일치시키기 위해서, 센서의 6-자유도(degree of freedom)을 조정함으로써, 센서의 6-자유도를 파라미터로 갖도록 설계될 수 있다.
그리고, 본 발명의 센서 위치 오차 모델은, 모델 복잡도를 낮추기 위해서 6-자유도 파라미터들 중 주요 인자들로만 구성된 모델로 설계할 수 있다.
여기서, 본 발명의 센서 위치 오차 모델은, 6-자유도 인자별 위치오차 영향성 분석을 통하여 주요 인자들을 선택할 수 있다.
따라서, 본 발명의 센서 위치 오차 모델은, 센서 마운트의 요(yaw) 각도 오차와 종횡방향 위치 오차가 센서퓨전에서 동일 물체 판단에 가장 큰 영향을 주기 때문에 요 각도 오차와 종횡방향 위치 오차가 주요 인자로 설계될 수 있다.
센서 위치 오차 모델은,
Figure pat00003
(여기서, [xref, yref]는 물체의 실제 위치, [xmeas, ymeas]는 센서에서 검출한 물체의 위치, θerr는 센서의 요 각도 오차, [xsetupPos, ysetupPos]는 센서의 종횡방향 오차임)인 수식과 같이, 요 각도 오차 및 종횡방향 위치 오차가 동일 물체 판단에 가장 큰 영향을 줄 수 있다.
그리고, 본 발명은, 실시간으로 모델 파라미터를 추정할 수 있다.
즉, 본 발명의 모델 파라미터는, 매 시간마다 입력되는 센서 정보와 센서퓨전된 트랙를 프로젝션 어프로치(projection approach)와 RLS(Recursive Least Square)를 사용하여 추정할 수 있다.
여기서, 본 발명은, 1단계로서, 프로젝션 어프로치(projection approach)는, 센서 정보와 센서퓨전된 트랙간의 회전 각도 오차(요 각도 오차)를 투영시켜, 물체의 종횡방향 위치 오차를 추정할 수 있다.
일 예로, 회전 각도 오차는,
Figure pat00004
(여기서, θerr는 회전 각도 오차, xmeas는 센서 물체 정보에 대한 횡방향 위치값, ymeas는 센서 물체 정보에 대한 종방향 위치값, xref는 센서 퓨전 물체 정보에 대한 횡방향 위치값, yref는 센서 퓨전 물체 정보에 대한 종방향 위치값임)인 수식으로부터 산출할 수 있다.
또한, 종횡방향 위치 오차는,
Figure pat00005
(여기서, xerr는 횡방향 위치 오차, yerr는 종방향 위치 오차, xmeas는 센서 물체 정보에 대한 횡방향 위치값, ymeas는 센서 물체 정보에 대한 종방향 위치값, xref는 센서 퓨전 물체 정보에 대한 횡방향 위치값, yref는 센서 퓨전 물체 정보에 대한 종방향 위치값임)인 수식으로부터 산출할 수 있다.
다음, 본 발명은, 2단계로서, 계산된 오차들을 토대로, 센서 노이즈를 확률적으로 모델링하여 파라미터를 추정하는 RLS(Recursive Least Square)를 사용하여 모델 파라미터를 추정할 수 있다.
도 2는 본 발명에 따른 차량 센서 오차 보상 장치를 설명하기 위한 블럭 구성도이다.
도 2에 도시된 바와 같이, 본 발명의 차량 센서 오차 보상 장치(200)는, 회전 각도 오차 산출부(210), 위치 오차 산출부(220), 그리고 센서 오차 보상부(230)를 포함할 수 있다.
여기서, 회전 각도 오차 산출부(210)는, 센서 물체 정보와 센서 퓨전 물체 정보간의 회전 각도 오차를 산출할 수 있다.
회전 각도 오차 산출부(210)는, 센서 물체 정보를 센서 퓨전 물체 정보에 투영시켜 센서 물체 정보와 센서 퓨전 물체 정보간의 회전 각도 오차를 산출할 수 있다.
그리고, 회전 각도 오차 산출부(210)는,
Figure pat00006
(여기서, θerr는 회전 각도 오차, xmeas는 센서 물체 정보에 대한 횡방향 위치값, ymeas는 센서 물체 정보에 대한 종방향 위치값, xref는 센서 퓨전 물체 정보에 대한 횡방향 위치값, yref는 센서 퓨전 물체 정보에 대한 종방향 위치값임)인 수식으로부터 센서 물체 정보와 센서 퓨전 물체 정보간의 회전 각도 오차를 산출할 수 있다.
다음, 위치 오차 산출부(220)는, 센서 물체 정보와 센서 퓨전 물체 정보간의 종방향 및 횡방향 위치 오차를 산출할 수 있다.
여기서, 위치 오차 산출부(220)는, 센서 물체 정보의 오차가 보정되면 보정된 센서 물체 정보와 센서 퓨전 물체 정보간의 종방향 및 횡방향 위치 오차를 산출할 수 있다.
위치 오차 산출부(220)는,
Figure pat00007
(여기서, xerr는 횡방향 위치 오차, yerr는 종방향 위치 오차, xmeas는 센서 물체 정보에 대한 횡방향 위치값, ymeas는 센서 물체 정보에 대한 종방향 위치값, xref는 센서 퓨전 물체 정보에 대한 횡방향 위치값, yref는 센서 퓨전 물체 정보에 대한 종방향 위치값임)인 수식으로부터 센서 물체 정보와 센서 퓨전 물체 정보간의 종방향 및 횡방향 위치 오차를 산출할 수 있다.
이어, 센서 오차 보상부(230)는, 회전 각도 오차가 산출되면 회전 각도 오차를 토대로 센서 물체 정보의 오차를 보정하고, 보정된 센서 물체 정보와 센서 퓨전 물체 정보간의 종방향 및 횡방향 위치 오차를 토대로 센서 오차를 보상할 수 있다.
여기서, 센서 오차 보상부(230)는, 센서 물체 정보의 오차를 보정할 때, 센서 물체 정보와 센서 퓨전 물체 정보를 획득하면 센서 물체 정보를 센서 퓨전 물체 정보에 투영시켜 센서 물체 정보와 센서 퓨전 물체 정보간의 회전 각도 오차를 산출하도록 회전 각도 오차 산출부(210)를 제어하고, 회전 각도 오차가 산출되면 회전 각도 오차를 토대로 센서 물체 정보의 오차를 보정할 수 있다.
이때, 센서 오차 보상부(230)는, 센서 물체 정보와 센서 퓨전 물체 정보를 획득할 때, 동일한 타겟 물체에 대해 하나의 센서로부터 검출된 센서 물체 정보와 다수의 센서들로부터 검출 및 퓨전된 센서 퓨전 물체 정보를 획득할 수 있다.
또한, 센서 오차 보상부(230)는, 회전 각도 오차 산출부(210)를 제어할 때, 센서 퓨전 물체 정보를 기준 정보로 설정하여 회전 각도 오차를 산출하도록 회전 각도 오차 산출부(210)를 제어할 수 있다.
일 예로, 회전 각도 오차는, 센서 물체 정보를 센싱한 센서의 요(yaw) 각도 오차일 수 있다.
다음, 센서 오차 보상부(230)는, 센서 오차를 보상할 때, 센서 물체 정보의 오차를 보정하면 보정된 센서 물체 정보와 센서 퓨전 물체 정보간의 종방향 및 횡방향 위치 오차를 산출하도록 위치 오차 산출부(220)를 제어하고, 위치 오차가 산출되면 위치 오차와 회전 각도 오차를 토대로 센서 오차를 보상할 수 있다.
여기서, 센서 오차 보상부(230)는, 위치 오차 산출부(220)를 제어할 때, 센서 퓨전 물체 정보를 기준 정보로 설정하여 위치 오차를 산출하도록 위치 오차 산출부(220)를 제어할 수 있다.
일 예로, 위치 오차는, 센서 물체 정보를 센싱한 센서의 종방향 및 횡방향 위치 오차일 수 있다.
이와 같이, 본 발명은, 센서 물체 정보와 센서 퓨전 물체 정보간의 회전 각도 오차 및 종/횡방향 위치 오차를 토대로 센서 오차를 보상함으로써, 이종 센서들의 좌표계가 일치하도록 실시간으로 보정하여 동일 물체에 대한 판별 성능을 높일 수 있다.
또한, 본 발명은, 실시간적으로 발생하는 좌표계 미일치 현상을 대응할 수 있으므로, 전반적인 영역에서의 센서퓨전 성능 향상을 기대할 수 있다.
즉, 본 발명은, 매 시간마다 입력되는 센서 정보와 센서퓨전 정보를 바탕으로 좌표계를 보정함으로써, 실시간적으로 발생하는 좌표계 미일치 현상에 대응 가능하다.
또한, 본 발명은, 종래 기술 대비 연산시간의 감소 및 파라미터 추정 성능 개선의 장점을 가질 수 있다.
즉, 본 발명은, 기존 기술 대비 삼각함수 및 사칙연산만으로 파라미터를 추정할 수 있고, 추가적인 알고리즘 없이도 센서 노이즈의 영향을 감소시킬 수 있다.
또한, 본 발명은, 짧은 연산시간과 낮은 연산 복잡성으로 임베디드 양산이 가능하다.
즉, 종래 기술은, 프로팅 포인트 오퍼레이션(floating point operation)이 가능한 임베디드 보드를 사용해야 되지만, 본 발명은, 픽스드 포인트 오퍼레이션(fixed point operation)으로 구현 가능하다.
따라서, 연산성능이 컴퓨터에 비해 낮은 임베디드 보드에서는, 본 발명이 종래 기술 대비 연산 성능면에서 탁월한 효과를 보일 수 있다.
도 3은 좌표계 보정을 통한 동일 물체 판별 성능을 설명하기 위한 도면이다.
도 3에 도시된 바와 같이, 본 발명은, 연산 복잡도를 낮춘 모델과 파라미터 추정 방법을 기반으로 하는 실시간 좌표계 불일치 보정 방법으로서, 센서들의 미세한 좌표계 불일치로 인해 발생하는 동일 물체 판별 성능 저하의 문제를 해결할 수 있다.
자차량(10)은, 센서 노이즈, 시간 또는 열 등에 의한 센서 마운트의 변형, 차량의 험한 주행 환경 등에 의하여 이종 센서들의 좌표계가 미일치할 수 있다.
이러한, 이종 센서들의 좌표계 미일치 현상은, 주변 타겟 물체(20)에 대한 위치 오차(position error)를 발생시킬 수 있다.
따라서, 좌표계 미일치 현상으로 인한 타겟 물체(20)의 위치 오차는, 동일 물체 판별 성능에도 악영향을 미칠 수 있다.
본 발명은, 센서 물체 정보와 센서퓨전된 물체 정보(기준 정보로 사용됨)인 2가지 중요 인자를 이용하여, 프로젝션 어프로치(projection approach) 기반으로 하는 RLS(Recursive Least Square)를 사용하여 센서 위치 오차를 보상할 수 있다.
그리고, 본 발명은, 센서 위치 보상을 통해, 이종 센서들의 좌표계가 일치하도록 보정함으로써, 동일 물체 판별 성능을 향상시킬 수 있다.
따라서, 본 발명은, 물체 위치 정보에 큰 영향을 미치는 주요한 인자들로만 센서 위치 오차 모델을 설계함으로써, 모델 복잡도을 낮출 수 있다.
그리고, 본 발명은, 삼각함수와 사칙연산만을 통해 모델 파라미터를 추정함으로써, 종래기술 대비 낮은 연산량, 낮은 연산 복잡도, 짧은 연산시간을 가질 수 있다.
도 4는 본 발명에 따른 차량 센서 오차 보상 과정을 설명하기 위한 도면이다.
본 발명은, 센서 위치 오차 모델과 모델의 파라미터 추정기로 구성될 수 있다.
여기서, 센서 위치 오차 모델의 파라미터는, 센서 물체 정보와 센서퓨전된 물체 정보(기준 정보로 사용됨)인 2가지 정보를 이용하여, 프로젝션 어프로치(projection approach) 기반으로 하는 RLS(Recursive Least Square)를 사용함으로써, 도출할 수 있다.
즉, 센서 위치 오차 모델의 파라미터는, 매 시간마다 입력되는 센서 정보와 센서퓨전된 트랙를 프로젝션 어프로치(projection approach)와 RLS(Recursive Least Square)를 사용하여 추정할 수 있다.
도 4에 도시된 바와 같이, 본 발명은, 1단계로서, 프로젝션 어프로치(projection approach)는, 센서 정보와 센서퓨전된 트랙간의 회전 각도 오차(요 각도 오차)를 투영시켜, 물체의 종횡방향 위치 오차를 추정할 수 있다.
일 예로, 회전 각도 오차는,
Figure pat00008
(여기서, θerr는 회전 각도 오차, xmeas는 센서 물체 정보에 대한 횡방향 위치값, ymeas는 센서 물체 정보에 대한 종방향 위치값, xref는 센서 퓨전 물체 정보에 대한 횡방향 위치값, yref는 센서 퓨전 물체 정보에 대한 종방향 위치값임)인 수식으로부터 산출할 수 있다.
또한, 종횡방향 위치 오차는,
Figure pat00009
(여기서, xerr는 횡방향 위치 오차, yerr는 종방향 위치 오차, xmeas는 센서 물체 정보에 대한 횡방향 위치값, ymeas는 센서 물체 정보에 대한 종방향 위치값, xref는 센서 퓨전 물체 정보에 대한 횡방향 위치값, yref는 센서 퓨전 물체 정보에 대한 종방향 위치값임)인 수식으로부터 산출할 수 있다.
다음, 본 발명은, 2단계로서, 계산된 오차들을 토대로, 센서 노이즈를 확률적으로 모델링하여 파라미터를 추정하는 RLS(Recursive Least Square)를 사용하여 모델 파라미터를 추정할 수 있다.
도 5는 본 발명의 연산 시간 및 추정 성능 개선을 보여주는 도면이다.
도 5는, ICP(Iterative Closest Point) 방식을 이용한 기존 기술과 본 발명의 연산 시간 및 추정 성능을 비교한 그래프이다.
여기서, 실험 대상 센서는, 전방 레이더, 전방 카메라, 전방 라이다일 수 있다.
전방 레이더는, 약 0 ~ 190m이고 약 20 degree FoV를 가질 수 있고, 전방 카메라는, 약 0 ~ 80m이고 약 40 degree FoV를 가질 수 있으며, 전방 라이다는, 0 ~ 200m이고 약 110 degree FoV를 가질 수 있다.
도 5에 도시된 바와 같이, 본 발명은, 기존 방식인 ICP 대비 최대 약 99.7%의 연산 속도가 개선되는 것을 알 수 있다.
또한, 본 발명은, ICP 대비 실제값(ground truth)에 더 유사한 값을 추정하며, 노이즈에 강건한 것을 볼 수 있다.
도 6은 본 발명의 위치 오차 개선을 보여주는 도면이다.
도 6은, 본 발명을 사용한 경우와 사용하지 않을 경우에 따른 위치 오차 성능을 비교한 그래프이다.
여기서, 기준 위치 정보는, 센서퓨전에서 출력된 물체 위치 정보이고, 실험 대상 센서는, 전방 레이더, 전방 카메라, 전방 라이다일 수 있다.
전방 레이더는, 약 0 ~ 190m이고 약 20 degree FoV를 가질 수 있고, 전방 카메라는, 약 0 ~ 80m이고 약 40 degree FoV를 가질 수 있으며, 전방 라이다는, 0 ~ 200m이고 약 110 degree FoV를 가질 수 있다.
도 6에 도시된 바와 같이, 본 발명을 사용한 경우에는, 본 발명을 미사용한 경우보다 위치 오차가 확연히 줄어드는 것을 확인할 수 있다.
즉, 실험 대상 센서들의 검출 거리에서 위치 오차가 약 1m 이내로 감소하는 것을 알 수 있다.
도 7 내지 도 9는 본 발명의 동일 물체 판별 성능 개선을 보여주는 도면이다.
도 7은, 본 발명을 사용한 경우와 사용하지 않을 경우에 따른 전방 레이더 물체 정보의 동일 물체 판별 성능을 비교한 실험 결과이다.
여기서, 평가 지표는, 무효 개수(The number of invalid measurment)/총 검출 개수(Total number of detections) × 100(%)일 수 있다.
도 7에 도시된 바와 같이, 본 발명을 사용한 경우에는, 전방 레이더의 동일물체 미판별 비율이 약 0.01%이지만, 본 발명을 미사용한 경우에는, 전방 레이더의 동일물체 미판별 비율이 약 7.72%일 수 있다.
따라서, 본 발명을 사용한 경우에는, 본 발명을 미사용한 경우보다 동일물체 미판별 비율이 약 99.8% 개선되는 것을 알 수 있다.
또한, 도 8은, 본 발명을 사용한 경우와 사용하지 않을 경우에 따른 전방 카메라 물체 정보의 동일 물체 판별 성능을 비교한 실험 결과이다.
여기서, 평가 지표는, 무효 개수(The number of invalid measurment)/총 검출 개수(Total number of detections) × 100(%)일 수 있다.
도 8에 도시된 바와 같이, 본 발명을 사용한 경우에는, 전방 카메라의 동일물체 미판별 비율이 약 21.5%이지만, 본 발명을 미사용한 경우에는, 전방 카메라의 동일물체 미판별 비율이 약 43.75%일 수 있다.
따라서, 본 발명을 사용한 경우에는, 본 발명을 미사용한 경우보다 동일물체 미판별 비율이 약 49.14% 개선되는 것을 알 수 있다.
또한, 도 9는, 본 발명을 사용한 경우와 사용하지 않을 경우에 따른 전방 라이다 물체 정보의 동일 물체 판별 성능을 비교한 실험 결과이다.
여기서, 평가 지표는, 무효 개수(The number of invalid measurment)/총 검출 개수(Total number of detections) × 100(%)일 수 있다.
도 9에 도시된 바와 같이, 본 발명을 사용한 경우에는, 전방 라이다의 동일물체 미판별 비율이 약 0.0%이지만, 본 발명을 미사용한 경우에는, 전방 라이다의 동일물체 미판별 비율이 약 0.04%일 수 있다.
따라서, 본 발명을 사용한 경우에는, 본 발명을 미사용한 경우보다 동일물체 미판별 비율이 약 100% 개선되는 것을 알 수 있다.
도 10은 본 발명에 따른 차량 센서 오차 보상 방법을 설명하기 위한 흐름도이다.
도 10에 도시된 바와 같이, 본 발명은, 센서 물체 정보와 센서 퓨전 물체 정보를 획득할 수 있다(S10).
여기서, 본 발명은, 동일한 타겟 물체에 대해 하나의 센서로부터 검출된 센서 물체 정보와 다수의 센서들로부터 검출 및 퓨전된 센서 퓨전 물체 정보를 획득할 수 있다.
이어, 본 발명은, 센서 물체 정보를 센서 퓨전 물체 정보에 투영시켜 센서 물체 정보와 센서 퓨전 물체 정보간의 회전 각도 오차를 산출할 수 있다(S20).
여기서, 본 발명은, 센서 퓨전 물체 정보를 기준 정보로 설정하여 회전 각도 오차를 산출할 수 있다.
일 예로, 본 발명은,
Figure pat00010
(여기서, θerr는 회전 각도 오차, xmeas는 센서 물체 정보에 대한 횡방향 위치값, ymeas는 센서 물체 정보에 대한 종방향 위치값, xref는 센서 퓨전 물체 정보에 대한 횡방향 위치값, yref는 센서 퓨전 물체 정보에 대한 종방향 위치값임)인 수식으로부터 센서 물체 정보와 센서 퓨전 물체 정보간의 회전 각도 오차를 산출할 수 있다.
다음, 본 발명은, 산출된 회전 각도 오차를 토대로 센서 물체 정보의 오차를 보정할 수 있다(S30).
그리고, 본 발명은, 보정된 센서 물체 정보와 센서 퓨전 물체 정보간의 종방향 및 횡방향 위치 오차를 산출할 수 있다(S40).
여기서, 본 발명은, 센서 퓨전 물체 정보를 기준 정보로 설정하여 위치 오차를 산출할 수 있다.
일 예로, 본 발명은,
Figure pat00011
(여기서, xerr는 횡방향 위치 오차, yerr는 종방향 위치 오차, xmeas는 센서 물체 정보에 대한 횡방향 위치값, ymeas는 센서 물체 정보에 대한 종방향 위치값, xref는 센서 퓨전 물체 정보에 대한 횡방향 위치값, yref는 센서 퓨전 물체 정보에 대한 종방향 위치값임)인 수식으로부터 센서 물체 정보와 상기 센서 퓨전 물체 정보간의 종방향 및 횡방향 위치 오차를 산출할 수 있다.
이어, 본 발명은, 위치 오차 및 회전 각도 오차를 토대로 센서 오차를 보상할 수 있다(S50).
이와 같이, 본 발명은, 센서 물체 정보와 센서 퓨전 물체 정보간의 회전 각도 오차 및 종/횡방향 위치 오차를 토대로 센서 오차를 보상함으로써, 이종 센서들의 좌표계가 일치하도록 실시간으로 보정하여 동일 물체에 대한 판별 성능을 높일 수 있다.
또한, 본 발명은, 실시간적으로 발생하는 좌표계 미일치 현상을 대응할 수 있으므로, 전반적인 영역에서의 센서퓨전 성능 향상을 기대할 수 있다.
즉, 본 발명은, 매 시간마다 입력되는 센서 정보와 센서퓨전 정보를 바탕으로 좌표계를 보정함으로써, 실시간적으로 발생하는 좌표계 미일치 현상에 대응 가능하다.
또한, 본 발명은, 종래 기술 대비 연산시간의 감소 및 파라미터 추정 성능 개선의 장점을 가질 수 있다.
즉, 본 발명은, 기존 기술 대비 삼각함수 및 사칙연산만으로 파라미터를 추정할 수 있고, 추가적인 알고리즘 없이도 센서 노이즈의 영향을 감소시킬 수 있다.
또한, 본 발명은, 짧은 연산시간과 낮은 연산 복잡성으로 임베디드 양산이 가능하다.
즉, 종래 기술은, 프로팅 포인트 오퍼레이션(floating point operation)이 가능한 임베디드 보드를 사용해야 되지만, 본 발명은, 픽스드 포인트 오퍼레이션(fixed point operation)으로 구현 가능하다.
따라서, 연산성능이 컴퓨터에 비해 낮은 임베디드 보드에서는, 본 발명이 종래 기술 대비 연산 성능면에서 탁월한 효과를 보일 수 있다.
추가적으로, 본 발명은, 차량 센서 오차 보상 장치의 오차 보상 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체로서, 상기 차량 센서 오차 보상 방법에서 제공된 과정을 수행할 수 있다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다.
따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.
100: 센싱 장치
200: 차량 센서 오차 보상 장치
210: 회전 오차 산출부
220: 위치 오차 산출부
230: 센서 오차 보상부

Claims (20)

  1. 센서 물체 정보와 센서 퓨전 물체 정보간의 회전 각도 오차를 산출하는 회전 각도 오차 산출부;
    상기 센서 물체 정보와 상기 센서 퓨전 물체 정보간의 종방향 및 횡방향 위치 오차를 산출하는 위치 오차 산출부; 그리고,
    상기 산출된 회전 각도 및 위치 오차를 토대로 센서 오차를 보상하는 센서 오차 보상부를 포함하고,
    상기 센서 오차 보상부는,
    상기 회전 각도 오차가 산출되면 상기 회전 각도 오차를 토대로 상기 센서 물체 정보의 오차를 보정하고, 상기 보정된 센서 물체 정보와 상기 센서 퓨전 물체 정보간의 종방향 및 횡방향 위치 오차를 토대로 상기 센서 오차를 보상하는 것을 특징으로 하는 차량 센서 오차 보상 장치.
  2. 제1 항에 있어서, 상기 회전 각도 오차 산출부는,
    상기 센서 물체 정보를 상기 센서 퓨전 물체 정보에 투영시켜 상기 센서 물체 정보와 센서 퓨전 물체 정보간의 회전 각도 오차를 산출하는 것을 특징으로 하는 차량 센서 오차 보상 장치.
  3. 제1 항에 있어서, 상기 회전 각도 오차 산출부는,
    Figure pat00012

    (여기서, θerr는 회전 각도 오차, xmeas는 센서 물체 정보에 대한 횡방향 위치값, ymeas는 센서 물체 정보에 대한 종방향 위치값, xref는 센서 퓨전 물체 정보에 대한 횡방향 위치값, yref는 센서 퓨전 물체 정보에 대한 종방향 위치값임)인 수식으로부터 상기 센서 물체 정보와 센서 퓨전 물체 정보간의 회전 각도 오차를 산출하는 것을 특징으로 하는 차량 센서 오차 보상 장치.
  4. 제1 항에 있어서, 상기 위치 오차 산출부는,
    상기 센서 물체 정보의 오차가 보정되면 상기 보정된 센서 물체 정보와 상기 센서 퓨전 물체 정보간의 종방향 및 횡방향 위치 오차를 산출하는 것을 특징으로 하는 차량 센서 오차 보상 장치.
  5. 제1 항에 있어서, 상기 위치 오차 산출부는,
    Figure pat00013

    (여기서, xerr는 횡방향 위치 오차, yerr는 종방향 위치 오차, xmeas는 센서 물체 정보에 대한 횡방향 위치값, ymeas는 센서 물체 정보에 대한 종방향 위치값, xref는 센서 퓨전 물체 정보에 대한 횡방향 위치값, yref는 센서 퓨전 물체 정보에 대한 종방향 위치값임)인 수식으로부터 상기 센서 물체 정보와 상기 센서 퓨전 물체 정보간의 종방향 및 횡방향 위치 오차를 산출하는 것을 특징으로 하는 차량 센서 오차 보상 장치.
  6. 제1 항에 있어서, 상기 센서 오차 보상부는,
    상기 센서 물체 정보의 오차를 보정할 때, 상기 센서 물체 정보와 센서 퓨전 물체 정보를 획득하면 상기 센서 물체 정보를 상기 센서 퓨전 물체 정보에 투영시켜 상기 센서 물체 정보와 센서 퓨전 물체 정보간의 회전 각도 오차를 산출하도록 회전 각도 오차 산출부를 제어하고, 상기 회전 각도 오차가 산출되면 상기 회전 각도 오차를 토대로 상기 센서 물체 정보의 오차를 보정하는 것을 특징으로 하는 차량 센서 오차 보상 장치.
  7. 제6 항에 있어서, 상기 센서 오차 보상부는,
    상기 센서 물체 정보와 센서 퓨전 물체 정보를 획득할 때, 동일한 타겟 물체에 대해 하나의 센서로부터 검출된 센서 물체 정보와 다수의 센서들로부터 검출 및 퓨전된 센서 퓨전 물체 정보를 획득하는 것을 특징으로 하는 차량 센서 오차 보상 장치.
  8. 제6 항에 있어서, 상기 센서 오차 보상부는,
    상기 회전 각도 오차 산출부를 제어할 때, 상기 센서 퓨전 물체 정보를 기준 정보로 설정하여 상기 회전 각도 오차를 산출하도록 회전 각도 오차 산출부를 제어하는 것을 특징으로 하는 차량 센서 오차 보상 장치.
  9. 제6 항에 있어서, 상기 회전 각도 오차는,
    상기 센서 물체 정보를 센싱한 센서의 요(yaw) 각도 오차인 것을 특징으로 하는 차량 센서 오차 보상 장치.
  10. 제1 항에 있어서, 상기 센서 오차 보상부는,
    상기 센서 오차를 보상할 때, 상기 센서 물체 정보의 오차를 보정하면 상기 보정된 센서 물체 정보와 상기 센서 퓨전 물체 정보간의 종방향 및 횡방향 위치 오차를 산출하도록 상기 위치 오차 산출부를 제어하고, 상기 위치 오차가 산출되면 상기 위치 오차와 회전 각도 오차를 토대로 상기 센서 오차를 보상하는 것을 특징으로 하는 차량 센서 오차 보상 장치.
  11. 제10 항에 있어서, 상기 센서 오차 보상부는,
    상기 위치 오차 산출부를 제어할 때, 상기 센서 퓨전 물체 정보를 기준 정보로 설정하여 상기 위치 오차를 산출하도록 위치 오차 산출부를 제어하는 것을 특징으로 하는 차량 센서 오차 보상 장치.
  12. 제10 항에 있어서, 상기 위치 오차는,
    상기 센서 물체 정보를 센싱한 센서의 종방향 및 횡방향 위치 오차인 것을 특징으로 하는 차량 센서 오차 보상 장치.
  13. 차량 센서 오차 보상 장치의 차량 센서 오차 보상 방법에 있어서,
    센서 물체 정보와 센서 퓨전 물체 정보를 획득하는 단계;
    상기 센서 물체 정보를 상기 센서 퓨전 물체 정보에 투영시켜 상기 센서 물체 정보와 센서 퓨전 물체 정보간의 회전 각도 오차를 산출하는 단계;
    상기 산출된 회전 각도 오차를 토대로 상기 센서 물체 정보의 오차를 보정하는 단계;
    상기 보정된 센서 물체 정보와 상기 센서 퓨전 물체 정보간의 종방향 및 횡방향 위치 오차를 산출하는 단계; 그리고,
    상기 위치 오차 및 회전 각도 오차를 토대로 상기 센서 오차를 보상하는 단계를 포함하는 것을 특징으로 하는 차량 센서 오차 보상 방법.
  14. 제13 항에 있어서, 상기 센서 물체 정보와 센서 퓨전 물체 정보를 획득하는 단계는,
    동일한 타겟 물체에 대해 하나의 센서로부터 검출된 센서 물체 정보와 다수의 센서들로부터 검출 및 퓨전된 센서 퓨전 물체 정보를 획득하는 것을 특징으로 하는 차량 센서 오차 보상 방법.
  15. 제13 항에 있어서, 상기 회전 각도 오차를 산출하는 단계는,
    상기 센서 퓨전 물체 정보를 기준 정보로 설정하여 상기 회전 각도 오차를 산출하는 것을 특징으로 하는 차량 센서 오차 보상 방법.
  16. 제13 항에 있어서, 상기 회전 각도 오차를 산출하는 단계는,
    Figure pat00014

    (여기서, θerr는 회전 각도 오차, xmeas는 센서 물체 정보에 대한 횡방향 위치값, ymeas는 센서 물체 정보에 대한 종방향 위치값, xref는 센서 퓨전 물체 정보에 대한 횡방향 위치값, yref는 센서 퓨전 물체 정보에 대한 종방향 위치값임)인 수식으로부터 상기 센서 물체 정보와 센서 퓨전 물체 정보간의 회전 각도 오차를 산출하는 것을 특징으로 하는 차량 센서 오차 보상 방법.
  17. 제13 항에 있어서, 상기 종방향 및 횡방향 위치 오차를 산출하는 단계는,
    상기 센서 퓨전 물체 정보를 기준 정보로 설정하여 상기 위치 오차를 산출하는 것을 특징으로 하는 차량 센서 오차 보상 방법.
  18. 제13 항에 있어서, 상기 종방향 및 횡방향 위치 오차를 산출하는 단계는,
    Figure pat00015

    (여기서, xerr는 횡방향 위치 오차, yerr는 종방향 위치 오차, xmeas는 센서 물체 정보에 대한 횡방향 위치값, ymeas는 센서 물체 정보에 대한 종방향 위치값, xref는 센서 퓨전 물체 정보에 대한 횡방향 위치값, yref는 센서 퓨전 물체 정보에 대한 종방향 위치값임)인 수식으로부터 상기 센서 물체 정보와 상기 센서 퓨전 물체 정보간의 종방향 및 횡방향 위치 오차를 산출하는 것을 특징으로 하는 차량 센서 오차 보상 방법.
  19. 제13 항 내지 제18 항 중 어느 한 항에 기재된 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
  20. 타겟 물체에 대한 센서 물체 정보와 센서 퓨전 물체 정보를 센싱하는 센싱 장치; 그리고,
    상기 센서 물체 정보와 센서 퓨전 물체 정보를 토대로 센서 오차를 보상하는 차량 센서 오차 보상 장치를 포함하고,
    상기 차량 센서 오차 보상 장치는,
    상기 센서 물체 정보와 센서 퓨전 물체 정보간의 회전 각도 오차를 산출하는 회전 각도 오차 산출부;
    상기 센서 물체 정보와 상기 센서 퓨전 물체 정보간의 종방향 및 횡방향 위치 오차를 산출하는 위치 오차 산출부; 그리고,
    상기 회전 각도 오차를 토대로 상기 센서 물체 정보의 오차를 보정하고, 상기 보정된 센서 물체 정보와 상기 센서 퓨전 물체 정보간의 종방향 및 횡방향 위치 오차를 토대로 상기 센서 오차를 보상하는 센서 오차 보상부를 포함하는 것을 특징으로 하는 차량.
KR1020190167577A 2019-12-16 2019-12-16 차량 센서 오차 보상 장치 및 그의 오차 보상 방법 KR20210076411A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190167577A KR20210076411A (ko) 2019-12-16 2019-12-16 차량 센서 오차 보상 장치 및 그의 오차 보상 방법
US16/834,425 US11538253B2 (en) 2019-12-16 2020-03-30 Apparatus and method for compensating for error of vehicle sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190167577A KR20210076411A (ko) 2019-12-16 2019-12-16 차량 센서 오차 보상 장치 및 그의 오차 보상 방법

Publications (1)

Publication Number Publication Date
KR20210076411A true KR20210076411A (ko) 2021-06-24

Family

ID=76318143

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190167577A KR20210076411A (ko) 2019-12-16 2019-12-16 차량 센서 오차 보상 장치 및 그의 오차 보상 방법

Country Status (2)

Country Link
US (1) US11538253B2 (ko)
KR (1) KR20210076411A (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115616511B (zh) * 2022-12-19 2023-03-28 中大智能科技股份有限公司 一种地基雷达形变量气象补偿方法和系统

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9723272B2 (en) * 2012-10-05 2017-08-01 Magna Electronics Inc. Multi-camera image stitching calibration system
US20220331970A1 (en) * 2019-09-11 2022-10-20 Dmg Mori Co., Ltd. Robot-mounted moving device, system, and machine tool

Also Published As

Publication number Publication date
US11538253B2 (en) 2022-12-27
US20210182578A1 (en) 2021-06-17

Similar Documents

Publication Publication Date Title
KR102327901B1 (ko) 이동하는 오브젝트 센서의 정렬을 교정하기 위한 방법
KR102547274B1 (ko) 이동 로봇 및 이의 위치 인식 방법
US11814056B2 (en) Travel amount estimation apparatus
JP2011065338A (ja) 対象物追跡装置及びプログラム
JP6776202B2 (ja) 車載カメラのキャリブレーション装置及び方法
CN110836983A (zh) 确定估计速度的不确定性估计的方法
US11567501B2 (en) Method and system for fusing occupancy maps
KR20160147127A (ko) 실외 환경에서의 강인한 위치 인식 방법 및 장치
US11454718B2 (en) Vertical road profile estimation
JP2020114724A (ja) 誘導路上での航空機の位置調整
CN110637209B (zh) 估计机动车的姿势的方法、设备和具有指令的计算机可读存储介质
WO2019073772A1 (ja) 移動体の位置推定装置及び位置推定方法
US10605897B2 (en) Vehicle lane alignment correction improvements
US11392136B2 (en) Automated guided vehicle system and own-position estimation method for automated guided vehicle
CN115436917A (zh) Lidar视轴对准误差和主车辆定位误差的协同估计和校正
CN112967316B (zh) 一种面向3d多目标追踪的运动补偿优化方法及系统
KR101394770B1 (ko) 곡선 차선 모델을 이용한 영상 안정화 방법 및 시스템
KR20210076411A (ko) 차량 센서 오차 보상 장치 및 그의 오차 보상 방법
CN110426714A (zh) 一种障碍物识别方法
CN107270904B (zh) 基于图像配准的无人机辅助引导控制系统及方法
JP6988873B2 (ja) 位置推定装置および位置推定用コンピュータプログラム
US11636691B2 (en) Sensor recognition integration device
US20190354781A1 (en) Method and system for determining an object location by using map information
US20220289184A1 (en) Method and Device for Scheduling a Trajectory of a Vehicle
CN112800864B (zh) 目标跟踪方法及装置、电子设备和存储介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal