KR102543952B1 - 차선의 확정방법, 포지셔닝 정밀도의 평가방법, 장치, 기기 및 컴퓨터 프로그램 - Google Patents

차선의 확정방법, 포지셔닝 정밀도의 평가방법, 장치, 기기 및 컴퓨터 프로그램 Download PDF

Info

Publication number
KR102543952B1
KR102543952B1 KR1020210051111A KR20210051111A KR102543952B1 KR 102543952 B1 KR102543952 B1 KR 102543952B1 KR 1020210051111 A KR1020210051111 A KR 1020210051111A KR 20210051111 A KR20210051111 A KR 20210051111A KR 102543952 B1 KR102543952 B1 KR 102543952B1
Authority
KR
South Korea
Prior art keywords
lane
line
determining
pixels
value
Prior art date
Application number
KR1020210051111A
Other languages
English (en)
Other versions
KR20210052409A (ko
Inventor
펭빈 양
카이마오 유안
펭제 한
양 양
페이 니
Original Assignee
베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. filed Critical 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디.
Publication of KR20210052409A publication Critical patent/KR20210052409A/ko
Application granted granted Critical
Publication of KR102543952B1 publication Critical patent/KR102543952B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • B60W40/072Curvature of the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • B60W40/076Slope angle of the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/231Hierarchical techniques, i.e. dividing or merging pattern sets so as to obtain a dendrogram
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/30Road curve radius

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 출원은 차선의 확정방법, 포지셔닝 정밀도의 평가방법, 장치, 기기, 저장매체 및 프로그램을 개시하며, 이미지 처리분야에 관한 것으로서, 특히 자율 주행, 지능형 교통 및 컴퓨터 비전 등 분야에 관한 것이다. 구체적인 실현방안은, 수신한 도로 이미지에서 라인을 확정하고; 상기 라인을 조성한 픽셀을 선별하여, 차선을 조성하는 픽셀을 확정하고; 상기 차선을 조성하는 픽셀을 피팅하여, 차선을 획득하는 것이다. 본 출원에 따른 기술은 인위적인 태깅의 폐단을 극복할 수 있고, 이미지 인식 방법을 이용하면 이미지 수집기기가 수집한 이미지에서의 차선에 대해 자동으로 인식할 수 있다. 차선 태깅의 자동화 정도를 향상시킨다.

Description

차선의 확정방법, 포지셔닝 정밀도의 평가방법, 장치, 기기 및 컴퓨터 프로그램{LANE LINE DETERMINATION METHOD AND APPARATUS, LANE LINE POSITIONING ACCURACY EVALUATION METHOD AND APPARATUS, DEVICE, AND PROGRAM}
본 출원은 이미지 처리분야에 관한 것으로서, 특히 자율 주행, 지능형 교통 및 컴퓨터 비전 등 분야에 관한 것이다.
현재의 포지셔닝 평가에서는 주요하게 인위적으로 차선을 태깅하는 방식을 사용하여 차선의 진리값을 획득한다. 구체적인 방안은, 차량의 전방 관측 이미지 수집기기가 수집한 이미지에서, 인위적으로 차선의 위치를 태깅하고, 후속적으로 평가 알고리즘을 거쳐 포지셔닝 정밀도 차이를 확정한다. 이러한 방법은 인위적인 개입이 필요하고, 태깅해야 할 사진 수량이 많고, 비용이 높고, 또한 인위적으로 태깅할 때 오류가 발생하게 되면 발견하기 어렵다.
본 출원은 차선의 확정방법, 포지셔닝 정밀도의 평가방법, 장치, 기기 및 저장매체를 제공한다.
본 출원의 일 측면에 따르면, 본 출원의 실시예는 차선의 확정방법을 제공하며,해당 방법은,
수신한 도로 이미지에서 라인을 확정하는 단계;
상기 라인을 조성한 픽셀을 선별하여, 차선을 조성하는 픽셀을 확정하는 단계; 및
상기 차선을 조성하는 픽셀을 피팅하여, 차선을 획득하는 단계를 포함한다.
본 출원의 다른 측면에 따르면, 본 출원의 실시예는 차선 포지셔닝 정밀도의 평가방법을 제공하며, 해당 방법은,
평가 대기 차선 검측값을 획득하는 단계;
상술한 차선의 확정방법을 이용하여 획득한 차선 진리값을 획득하는 단계; 및
상기 차선 검측값과 상기 차선 진리값 사이의 오차에 근거하여, 상기 평가 대기 차선 검측값을 평가하는 단계를 포함한다.
본 출원의 제3 측면에 따르면, 본 출원의 실시예는 차선의 확정장치를 제공하며, 해당 장치는,
수신한 도로 이미지에서 라인을 확정하기 위한 라인 확정모듈;
상기 라인을 조성한 픽셀을 선별하여, 차선을 조성하는 픽셀을 확정하기 위한 픽셀 확정모듈; 및
상기 차선을 조성하는 픽셀을 피팅하여, 차선을 획득하기 위한 픽셀 피팅모듈을 포함한다.
본 출원의 제4 측면에 따르면, 본 출원의 실시예는 차선 포지셔닝 정밀도 평가장치를 제공하며, 해당 장치는,
평가 대기 차선 검측값을 획득하기 위한 차선 검측값 획득모듈;
상술한 차선의 확정장치를 이용하여 획득한 차선 진리값을 획득하기 위한 차선 진리값 획득모듈; 및
상기 차선 검측값과 상기 차선 진리값 사이의 오차에 근거하여, 상기 평가 대기 차선 검측값을 평가하기 위한 평가모듈을 포함한다.
본 출원의 제5 측면에 따르면, 본 출원의 실시예는 전자기기를 제공하며, 해당 기기는,
적어도 하나의 프로세서; 및
적어도 하나의 프로세서와 통신연결된 메모리를 포함하며, 여기서,
메모리에는 적어도 하나의 프로세서에 의해 실행 가능한 명령이 저장되며, 명령은 적어도 하나의 프로세서에 의해 실행되어, 적어도 하나의 프로세서로 하여금 본 출원의 임의의 한 실시예에서 제공하는 방법을 수행하도록 한다.
본 출원의 제6 측면에 따르면, 본 출원의 실시예는 컴퓨터 명령이 저장된 비일시적 컴퓨터 판독 가능 저장매체를 더 제공하며, 컴퓨터 명령은 컴퓨터로 하여금 본 출원의 임의의 한 실시예에서 제공하는 방법을 수행하도록 한다.
본 명세서에서 설명한 내용은 본 발명의 실시예의 관건적이거나 중요한 특징을 표기하기 위한 것이 아니고, 본 발명의 범위를 한정하기 위한 것도 아님을 이해해야 한다. 본 발명의 기타 특징은 아래의 명세서를 통해 더 용이하게 이해할 수 있을 것이다.
도면은 본 해결수단을 더 잘 이해하기 위한 것으로서, 본 출원에 대한 한정이 되지 않는다. 여기서,
도 1은 본 출원에 따른 차선의 확정방법의 흐름도;
도 2는 본 출원에 따른 도로 이미지에서 라인을 확정하는 흐름도;
도 3은 본 출원에 따른 도로 이미지에서 라인을 확정하는 모식도;
도 4는 본 출원에 따른 도로 이미지에서 라인을 확정하는 흐름도;
도 5는 본 출원에 따른 라인 세그먼트와 에지의 중첩부분을 확정하는 흐름도;
도 6은 본 출원에 따른 차선을 조성하는 픽셀을 확정하는 흐름도;
도 7은 본 출원에 따른 주축과 투영축을 확정하는 모식도;
도 8은 본 출원에 따른 이미지 수집기기와 타겟 차량의 모식도;
도 9는 본 출원에 따른 차선 포지셔닝 정밀도의 평가방법의 흐름도;
도 10은 본 출원에 따른 차선 검측값과 차선 진리값 사이의 오차 모식도;
도 11은 본 출원에 따른 차선의 확정장치의 모식도;
도 12는 본 출원에 따른 차선 포지셔닝 정밀도 평가장치의 모식도;
도 13은 본 출원의 실시예에 따른 차선의 확정방법을 실현하기 위한 전자기기의 블록도이다.
이하 도면과 결부하여 본 출원의 예시적인 실시예를 설명하되, 여기서 본 출원의 실시예를 포함하는 여러 가지 세부절차는 이해를 돕기 위한 것으로서, 이들은 응당 예시적인 것으로 간주해야 한다. 따라서 해당 분야 기술자들은 여기서 설명한 실시예에 대하여 여러 가지 변화와 수정을 진행할 수 있고, 이는 본 출원의 범위와 정신을 벗어나지 않는다는 것을 인식하여야 한다. 마찬가지로, 명확함과 간결함을 위하여, 아래의 설명에서는 공지 기능과 구조에 대한 설명을 생략한다.
도 1에 도시된 바와 같이, 본 출원의 실시형태에서는 차선의 확정방법을 제공하며, 해당 방법은 아래와 같은 단계를 포함한다.
단계(S101): 수신한 도로 이미지에서 라인을 확정하고;
단계(S102): 라인을 조성한 픽셀을 선별하여 차선을 조성하는 픽셀을 확정하고;
단계(S103): 차선을 조성하는 픽셀을 피팅하여 차선을 획득한다.
도로 이미지는 타겟 차량에 설치되는 이미지 수집기기가 수집한 것일 수도 있고, 이미 존재하는 도로 이미지 샘플 등 일 수도 있다. 본 출원의 실시예는 도로 이미지가 차량에 설치되는 이미지 수집기기에 의해 수집되는 것을 예로 들어 설명한다. 이미지 수집기기는 타겟 차량 양측의 도로 이미지를 획득하도록 타겟 차량의 양측에 각각 설치될 수 있다.
각 이미지 수집기기가 수집한 아미지의 처리방식은 동일한 바, 임의로 하나를 선택하여 설명한다. 예를 들면, 운전자의 위치측에 설치된 이미지 수집기기가 수집한 도로 이미지를 예로 한다.
수신한 도로 이미지에 대하여, 우선 이에 대해 전처리를 진행할 수 있으며, 전처리는 도로 이미지를 그레이 스케일 이미지로 전환하는 것을 포함하고, 중앙값 필터링을 이용하여 도로 이미지에서 아스팔트 반사로 인한 밝은 점에 대해 필터링 처리를 진행할 수 있으며, 가우스 필터링을 이용하여 이미지에 대해 평활처리를 진행할 수 있다.
전처리된 후의 도로 이미지에 대해, 그중에서 에지를 추출할 수 있다. 추출된 에지에 기반하여, 에지에서의 라인 세그먼트를 확정할 수 있다. 예를 들면, 에지가 직선인 경우, 확정된 라인 세그먼트와 에지의 중첩도가 비교적 높다. 에지가 곡선인 경우, 확정된 라인 세그먼트는 다수의 비교적 짧은 라인 세그먼트 일 수 있다. 라인 세그먼트와 에지의 중첩상황에 근거하여 도로 이미지에서의 라인을 확정할 수 있으며, 라인은 하나 일 수도 있고, 복수 일 수도 있다.
이미지 수집기기의 척도 파라미터에 기반하고, 언피봇(unpivot) 변환을 이용하여 각 라인을 조성한 픽셀을 타겟 차량의 차량 좌표계에로 변환시킨다. 예시적으로, 차량 좌표계는 타겟 차량 리어축 중점을 원점으로 하고, 타겟 차량의 전진 방향은 X축이며, Y축은 X축에 수직되어 차량의 왼쪽(운전자 측)을 가리킬수 있다.
각 라인의 방향을 통계하고, 통계 결과에 근거하여 주축을 확정할 수 있다. 주축과 수직되는 방향을 픽셀 투영축으로 할 수 있다. 상술한 각 라인을 조성하는 픽셀을 픽셀 투영축에 투영할 수 있다.
픽셀이 픽셀 투영축에서의 투영 분포 결과에 근거하여, 차선을 조성하는 픽셀을 확정할 수 있다. 차선을 조성하는 확정된 픽셀을 피팅하여, 차선을 확정할 수 있다.
상기 방법을 통해, 인위적인 태깅의 폐단을 극복할 수 있고, 이미지 인식 방법을 이용하여 이미지 수집기기가 수집한 이미지에서의 차선에 대해 자동으로 인식할 수 있다. 차선 태깅의 자동화 정도를 향상시킨다.
도 2에 도시된 바와 같이, 하나의 실시형태에서, 단계(S101)은 아래와 같은 단계를 포함한다.
단계(S1011): 도로 이미지에서의 에지를 확정하고;
단계(S1012): 에지에 근거하여 적어도 하나의 라인 세그먼트를 확정하고;
단계(S1013): 적어도 하나의 라인 세그먼트에서의 각 라인 세그먼트와 에지의 중첩부분을 확정하고 중첩부분에 근거하여 라인을 확정한다.
본 실시예에서는, 에지 검출 알고리즘(Canny)을 이용하여 도로 이미지에서의 에지를 검출할 수 있다. 도로 이미지에서 시야 내의 정경이 상대적으로 깨끗하고, 흔히 흰 색의 차선과 검정 색의 아스팔트 노면 배경만 있으므로, 성숙된 에지 검출방법을 이용하여 도로 이미지에서의 에지를 획득할 수 있다.
도 3에 도시된 내용과 결부하여, 호프 직선 검출을 이용하여 에지에서의 적어도 하나의 직선 세그먼트를 확정한다. 예시적으로, 도 3에서 좌측은 도로 이미지에서의 에지 모식도이고, 도 3에서 중간은 에지로부터 확정한 복수의 라인 세그먼트의 모식도이며, 도 3에서 우측은 에지와 라인 세그먼트의 중첩 모식도이다.
호프 직선 검출이 획득한 것은 엄격한 직선인 바, 이미지에서의 에지가 도 3에 도시된 곡선 또는 비표준 직선 일 수 있으므로, 상술한 적어도 하나의 라인 세그먼트에서의 각 라인 세그먼트와 에지의 중첩부분을 확정할 수 있고, 중첩부분을 도로 이미지에서의 라인으로 확정할 수 있다. 중첩부분이 대응하는 라인은 직선, 곡선 등 상이한 라인 세그먼트 일 수 있다.
상기 방안을 통해, 이미지 검출 기술에 기반하여 도로 이미지에서의 라인을 확정할 수 있다. 라인은 차선의 조성부분이므로, 정확히 도로 이미지에서의 라인을 확정하는 것은 후속의 라인을 확정함에 있어서 기초를 마련한다.
도 4에 도시된 내용과 결부하면, 하나의 실시형태에서, 단계(S101)은 아래와 같은 단계를 더 포함한다.
단계(S1014): 각 중첩부분의 곡선 방정식을 확정하고;
단계(S1015): 각 중첩부분의 곡선 방정식에서의 파라미터에 대해 정규화 처리를 진행하고;
단계(S1016): 정규화 처리 후의 곡선 방정식과 대응되는 라인에 대해 클러스터링을 진행하여, 클러스터링 결과를 얻고, 클러스터링 결과에 근거하여 도로 이미지에서의 라인을 확정한다.
도로 이미지에서 중첩부분이 대응하는 라인을 확정한 후, 각 중첩부분과 대응되는 라인의 곡선 방정식을 확정할 수 있다. 현재의 실시예에서, 2차 곡선 방정식으로 각 중첩부분과 대응되는 라인을 나타낼 수 있다. 2차 곡선 방정식의 표현식은 y=ax2+bx+c 일 수 있다. 여기서 a는 2차항 계수이고, b는 1차항 계수이며, c는 상수항이고, x는 독립 변수이며, y는 함수이다.
예를 들면, 하나의 라디안이 비교적 작은 곡선에 있어서, 그의 2차항 계수는 흔히 그의 상수항보다 몇 자리수 작다. 이러한 데이터에 대하여, 통상적으로 일반적인 클러스터링 방법을 직접 사용하여 처리할 수 없고, 데이터에 대해 정규화 처리를 진행해야 한다. 정규화된 후의 데이터를 이용하여 클러스터링을 진행한다.
예를 들면, 도로 이미지에서 중첩부분은 y1, y2, y3과 같이 모두 3개의 라인을 포함한다.
여기서, 제1 라인 y1의 표현식은 y1=a1x2+b1x+c1 이고;
제2 라인 y2의 표현식은 y2=a2x2+b2x+c2 이고;
제3 라인 y3의 표현식은 y3=a3x2+b3x+c3 이다.
상기 3개의 라인을 3개의 점으로 추상화 할 수 있고, 3개의 점은 A1, A2, A3으로 표시할 수 있다. 여기서, A1은 (a1, b1, c1)로 표시할 수 있고, A2는 (a2, b2, c2)로 표시할 수 있으며, A3은 (a3, b3, c3)으로 표시할 수 있는 바, 라인에 대한 클러스터링을 점에 대한 클러스터링으로 변환할 수 있다.
A1, A2, A3을 행 벡터로 하여 매트릭스를 구성하고, 매트릭스 A라고 표기한다.
A1, A2, A3의 공분산 매트릭스를 계산하고, 공분산 매트릭스는 Σ로 나타낼 수 있다.
공분산 매트릭스에 대해 파라미터 정규화 처리를 진행하고, 파라미터 정규화 처리를 진행한 후의 결과를 A*로 표시할 수 있다.
Figure 112021046036141-pat00001
정규화 한 후의 점 A1 *, A2 *, A3 *은 계층적 클러스터링을 이용하여 클러스터링 처리를 진행할 수 있고, 동일한 유형의 데이터에 대응되는 라인을 동일한 라인 클러스터로 병합한다.
동일한 라인 클러스터로 병합한 후, 예정된 조건을 만족시키지 않는 라인 클러스터를 삭제한다. 예정된 조건은 픽셀이 너무 집중된 라인 클러스터, 픽셀의 수량이 너무 적은 라인 클러스터 및/또는 길이가 너무 짧은 라인 클러스터 일 수 있다.
픽셀이 너무 집중된 라인 클러스터는 픽셀 분포가 불균형한 라인 클러스터 일 수 있는 바, 예를 들어 픽셀이 어느 국부에 집중되어 나머지 구역의 픽셀이 비교적 희소한 것을 가리킬 수 있다. 픽셀의 수량이 너무 적은 라인 클러스터는 라인 클러스터에서의 픽셀 수량이 기 설정 수량보다 적은 것을 가리킬 수 있다. 길이가 비교적 짧은 라인 클러스터는 라인 클러스터의 길이가 기 설정 길이보다 짧은 것을 가리킬 수 있다.
상기 방안을 통해, 정규화 처리를 이용하여 라인 클러스터링을 실현할수 있으며, 따라서 확정된 라인의 정확도를 향상시킬 수 있다.
도 5에 도시된 바와 같이, 하나의 실시형태에서, 적어도 하나의 라인 세그먼트에서의 각 라인 세그먼트와 에지의 중첩부분을 확정하는 단계(S1013)은 아래와 같은 하위 단계를 포함한다.
단계(S10131): 적어도 하나의 직선 세그먼트에서의 각 직선 세그먼트에 대해 오버스트라이킹(overstriking) 처리를 진행하고;
단계(S10132): 오버스트라이킹 처리 후의 라인 세그먼트에 대응되는 픽셀 및 에지에 대응되는 픽셀에 대해 논리곱 연산을 진행하여 중첩된 부분을 확정한다.
호프 직선 검출을 이용하여 라인 세그먼트인 것을 확정하였으므로, 라인 세그먼트와 곡선의 에지가 완전히 중첩될 수 없는 상황이 발생할 수 있으며, 이로 인하여, 호프 직선 검출에 의해 획득한 적어도 하나의 라인 세그먼트에서의 각 라인 세그먼트에 대해 오버스트라이킹 처리를 진행하여, 오버스트라이킹 라인 세그먼트를 얻을 수 있다. 예를 들면, 각 라인 세그먼트를 6개의 픽셀 확장할 수 있다.
오버스트라이킹 처리 후의 라인 세그먼트에 대응되는 픽셀 및 에지에 대응되는 픽셀에 대해 논리곱 연산을 진행하여, 중첩부분을 완전하게 확정할 수 있다.
상기 방안을 통해, 직선 세그먼트에 대해 오버스트라이킹 처리를 진행하는 방식을 이용하여, 직선 세그먼트와 에지의 중첩부분, 즉 도로 이미지에서의 라인 세그먼트를 정확히 획득할 수 있으며, 후속의 차선을 확정함에 있어서 기초를 마련할 수 있다.
도 6에 도시된 바와 같이, 하나의 실시형태에서, 라인을 조성한 픽셀을 선별하여, 차선을 조성하는 픽셀을 확정하는 단계(S103)은 아래와 같은 단계를 포함한다.
단계(S1031): 라인의 방향에 근거하여 주축을 확정하고;
단계(S1032): 주축과 수직되는 투영축을 확정하고;
단계(S1033): 라인을 조성하는 픽셀을 투영축에 투영하고;
단계(S1034): 투영축에서의 투영 결과에 근거하여, 차선을 조성하는 픽셀을 확정한다.
본 단계에서는, 이미지 수집기기의 척도 파라미터에 기반하여, 언피봇 변환에 의해 각 라인을 조성한 픽셀을 타겟 차량의 차량 좌표계에로 변환시킨다. 타겟 차량의 차량 좌표계는 3차원 좌표계 일 수 있다.
도 7에 도시된 내용과 결부하면, 일반적으로, 동일한 시각에 타겟 차량의 차체 좌우 양측의 4개 라인을 획득할 수 있는데, 4개 라인은 차선의 안쪽 에지 및 바깥쪽 에지와 각각 대응된다. 실제 정경에서, 도 7에서의 4개 라인은 실질적으로 픽셀의 집합이다.
차량 좌표계를 참조로 하면, 라인 세그먼트를 조성하는 픽셀에 대해 주요 성분 분석을 진행하여, 픽셀이 조성한 라인의 주축을 확정할 수 있다. 도 7에 도시된 예시와 결부하면, 주축의 방향은 4개 라인의 방향에 근거하여 확정한 평균 방향이라고 이해할 수 있다.
주축을 확정한 후, 수직 관계에 근거하여 주축에 수직되는 투영축을 확정할 수 있다.
투영축에서 복수의 통계구간을 확정한다. 예를 들면, 통계구간은 10cm 간격으로 할 수 있다.
라인을 조성하는 각 픽셀을 투영축에 투영하여, 각 통계구간에 투영된 픽셀의 수량을 확정할 수 있다. 픽셀의 수량에 근거하여, 통계구역을 선별하여, 남겨진 통계구역에 투영된 픽셀이 차선을 조성하는 픽셀임을 최종적으로 확정한다.
선별방식은, 임의의 통계구역에 대해, 통계구역내의 픽셀 수량을 확정하고, 픽셀 수량이 수량 임계값보다 적은 경우, 해당 통계구역에 투영된 픽셀을 삭제하는 방식; 및/또는, 임의의 통계구역에 대해, 해당 통계구역에 투영된 픽셀이 주축방향을 따라 분포된 길이를 확정하고, 분포된 길이가 길이 임계값보다 작은 경우, 해당 통계구역에 투영된 픽셀을 삭제하는 방식을 포함할 수 있다.
상기 단계를 통해 선별한 후 남겨진 픽셀을 차선을 조성하는 픽셀로 사용한다.
이 외에, 정확도를 향상시키기 위하여, 투영하기 전에 픽셀에 대해 필터링 처리를 진행할 수 있다. 예를 들면, 이웃하는 두 갈래의 차선의 너비가 일반적으로 3.75미터이다. 이에 기반하여, 타겟 차량에서 멀리 떨어진 픽셀을 필터링하여 제거하고, 예를 들면 타겟 차량에서 2미터 떨어진 픽셀을 필터링하여 제거할 수 있다.
상기 방안을 통해, 라인을 얻은 후, 복수의 라인의 방향에 근거하여 주축을 확정할 수 있다. 해당 주축의 방향을 이용하여 최대한으로 후속의 투영이 상대적으로 정확하도록 하며, 후속의 차선의 픽셀을 확정함에 있어서 기초를 마련할 수 있다.
하나의 실시형태에서, 도로 이미지는 이미지 수집기기가 수집한, 타임스탬프가 표기된 이미지이고;
이미지 수집기기는 4개이며, 타겟 차량의 좌우 양측에 각각 설치되고, 이미지 수집기기의 방향은 타겟 차량의 주행방향과 수직되며;
단계(S103)에서, 차선을 조성하는 픽셀을 피팅하여, 차선을 획득하는 것은,
타임스탬프에 근거하여, 타겟 차량의 좌우 양측에 각각 설치된 이미지 수집기기가 수집한 도로 이미지에서의 픽셀을 피팅함으로써, 차선을 획득하는 단계를 포함한다.
이미지 수집기기는 복수개 일 수 있다. 도 8에 도시된 내용과 결부하면, 하나의 바람직한 예시에서, 이미지 수집기기의 수량은 4개로서, 타겟 차량의 4개 휠의 양측에 각각 설치될 수 있다. 이미지 수집기기의 방향은 타겟 차량의 주행방향과 수직 될 수 있다.
본 실시예에서는, 타임스탬프를 이용하여 4개의 이미지 수집기기가 수집한 이미지에 대해 각각 타임 라벨을 로딩 할 수 있다. 후속의 차선 피팅을 진행할 때, 동일한 타임스탬프에 대응되는 도로 이미지에 기반하여 피팅함으로써, 최종적인 차선을 얻을 수 있다.
본 출원의 실시예에서 이미지 수집기기는 차량 양측에 분포되므로, 이웃하는 차선을 획득하기 위하여, 각 이미지 수집기기가 수집한 도로 이미지에 대해 타임스탬프를 로딩해야 한다. 이로써 타임스탬프에 근거하여, 타겟 차량의 좌우 양측에 설치된 이미지 수집기기가 동일한 시각에 수집한 도로 이미지에서의 픽셀을 피팅하여, 타겟 차량의 좌우 양측의 차선을 얻을 수 있다. 이 외에, 전방 관측 이미지 수집기기에 대비하여, 이미지 수집기기를 타겟 차량의 측면에 설치함으로써, 수집한 이미지 정경이 한정되여 있다. 따라서 도로 이미지에서의 요소가 더 간단하게 되어, 도로 양측 환경의 영향을 쉽게 받지 않는다. 또한 도로 이미지에서 차선도 기타 차량에 의해 차폐되지 않으므로, 정확도가 더 높게 된다.
하나의 실시형태에서, 타겟 차량의 좌우 양측에 각각 설치된 이미지 수집기기가 수집한 도로 이미지에서의 픽셀을 피팅하는 단계는,
최소 기울기 오차에 근거하여, 타겟 차량의 좌우 양측에 설치된 이미지 수집기기가 수집한 도로 이미지에서의 픽셀을 피팅하여, 피팅한 후의 타겟 차량의 좌우 양측의 차선의 기울기 오차가 허용범위 내에 있도록 하는 단계를 포함한다.
아래 공식을 이용하여 타겟 차량의 좌우 양측의 픽셀을 피팅한다.
Figure 112021046036141-pat00002
공식에서, n은 통계구간의 수량을 나타낼 수 있고, i는 통계구간의 순서수를 나타낼 수 있으며; m은 통계구간에서의 픽셀의 수량을 나타낼 수 있고, j는 통계구간에서의 픽셀의 순서수를 나타낼 수 있으며; ki는 좌측 또는 우측에서의 임의의 한 측의 차선의 기울기(예를 들어 좌측)를 나타낼 수 있고, 대응되게, ki+1은 ki와 대향하는 다른 한 측의 차선의 기울기(즉 우측)를 나타낼 수 있다. xj, yj는 i번째 구간에서의 j번째 픽셀의 x축 좌표, y축 좌표를 나타낼 수 있고, bi는 (예를 들어 좌측 차선의) 상수항을 나타낼 수 있다.
즉, 한편으로, 직선의 방정식은 y=kx+b이므로, 해당 직선에 속하는 픽셀은 모두 해당 직선 방정식을 만족시키는 바, 즉 이상적인 상황에서 (ki*xj+bi)-yj=0이다. 그러나 실제 상황에서 모든 픽셀이 모두 해당 직선 방정식을 만족시키는 것이 아니므로, 최소 제곱법을 이용하여 직선 방정식을 피팅하여 이웃하는 픽셀을 최대한으로 보류할 수 있다.
다른 한편으로, ki와 ki+1 사이의 차이 값을 이용하여 좌우 양측 차선의 피팅과정을 구속하여, 피팅된 두 갈래의 차선이 서로 평행되도록 한다.
이 외에, 본 출원의 실시예에서는 직선 방정식을 사용하여 타겟 차량의 좌우 양측의 픽셀을 피팅하는데, 이는 타겟 차량의 동일한 일 측에 설치된 두 개의 이미지 수집기기의 수집 시야가 일반적으로 4미터 좌우이기 때문이다. 4미터 길이의 차선을 직선 방정식으로 표달하면, 표달 정확도 및 계산 복잡성 사이에 비교적 양호한 평형을 유지할 수 있다.2차 방정식, 3차 방정식 등을 이용하여 차선을 피팅 할 수 있는 것도 이해하기 어렵지 않으며, 이에 대해서는 더 이상 설명하지 않는다.
상기 방안을 통해, 이웃하는 두 갈래의 차선 사이의 평행관계를 이용하여 픽셀의 피팅을 구속함으로써, 피팅된 차선의 정확도가 더 높도록 할 수 있다.
도 9에 도시된 바와 같이, 본 출원의 실시예는 차선 포지셔닝 정밀도의 평가방법을 제공하며, 해당 방법은 아래와 같은 단계를 포함한다.
단계(S901): 평가 대기 차선 검측값을 획득하고;
단계(S902): 차선의 확정방법을 이용하여 획득한 차선 진리값을 획득하고;
단계(S903): 차선 검측값과 차선 진리값 사이의 오차에 근거하여, 평가 대기 차선 검측값을 평가한다.
현재의 실시형태에서, 상술한 차선의 확정방법을 이용하여 얻은 차선을 차선 진리값으로 할 수 있다. 평가 대기 차선 검측값은 네비게이션 기기 또는 포지셔닝 기기 등이 확정한 차선일 수 있다.
오차는 횡방향 차이 값, 방향각 차이 값 등을 포함할 수 있다.
관련 평가방안에서는 흔히 인위적으로 차선을 태깅하는 방식으로 차선 진리값을 획득하고, 즉 차량의 전방 관측 이미지 수집기기가 촬영한 이미지에서, 인위적으로 차선의 위치를 태깅하고, 다시 처리를 거쳐 자기 위치측정 알고리즘의 평가 진리값을 획득한다. 이러한 방법은 인위적인 개입이 필요하고, 태깅해야 할 사진의 수량이 많고, 비용이 높고, 또한 인위적으로 태깅할 때 오류가 발생하게 되면 발견하기 어려운 동시에, 태깅 주기가 비교적 길다.
본 출원의 실시예의 상기 방안은 평가 비용을 저하시킬 수 있고, 태깅 규칙의 일치성을 담보하며, 차선 진리값을 신속하게 생성할 수 있다.
하나의 실시형태에서, 단계(S903)에서의 차선 검측값과 차선 진리값 사이의 오차 확정방식은,
차선 검측값과 차선 진리값 사이의 횡방향 차이 값을 계산하고, 및/또는 차선 검측값과 차선 진리값 사이의 방향각 차이 값을 계산하는 것;
횡방향 차이 값 및/또는 방향각 차이 값을 오차로 하는 것을 포함한다.
도 10에 도시된 내용과 결부하면, 도 10에서는 두 갈래의 비교적 굵은 실선으로 차선 진리값을 나타내고, 두 갈래의 상대적으로 가는 선으로 차선 검측값을 나타낸다. 상대적으로 굵은 점선으로 차선 진리값에 의해 확정된 차선 중심선 진리값을 나타내고, 상대적으로 가는 점선으로 차선 검측값에 의해 확정된 차선 중심선 검측값을 나타낸다.
도면에서 Bias1과 Bias2는 각각 차선 검측값과 차선 진리값 사이의 제1 횡방향 차이 값과 제2 횡방향 차이 값을 나타낸다. 아래 계산 공식에 나타낸 바와 같이, 제1 횡방향 차이 값과 제2 횡방향 차이 값의 절대값에서 평균값을 구하고, 획득한 결과 ΔBias를 차선 검측값과 차선 진리값 사이의 횡방향 차이 값으로 한다.
Figure 112021046036141-pat00003
이 외에, 도면에서 Theta1과 Theta2는 각각 차선 검측값과 차선 진리값 사이의 제1 방향각 차이 값과 제2 방향각 차이 값을 나타낸다. 아래 계산 공식에 나타낸 바와 같이, 제1 방향각 차이 값과 제2 방향각 차이 값의 절대값 차이 ΔTheta를 차선 검측값과 차선 진리값 사이의 방향각 차이 값으로 한다.
Figure 112021046036141-pat00004
상기 방안을 통해, 횡방향 차이 값 및/또는 방향각 차이 값을 차선 검측값과 차선 진리값 사이의 오차로 이용하여, 정확한 평가를 실현할 수 있다.
하나의 실시형태에서, 평가 대기 차선 검측값은 고정밀 지도 포지셔닝 알고리즘에 근거하여 얻은 것이다.
도 11에 도시된 바와 같이, 본 출원의 실시예는 차선의 확정장치를 제공하며, 해당 장치는,
수신한 도로 이미지에서 라인을 확정하기 위한 라인 확정모듈(1101);
상기 라인을 조성한 픽셀을 선별하여, 차선을 조성하는 픽셀을 확정하기 위한 픽셀 확정모듈(1102); 및
상기 차선을 조성하는 픽셀을 피팅하여, 차선을 획득하기 위한 픽셀 피팅모듈(1103)을 포함한다.
하나의 실시형태에서, 라인 확정모듈(1101)은,
상기 도로 이미지에서의 에지를 확정하기 위한 에지 확정 서브모듈;
상기 에지에 근거하여 적어도 하나의 라인 세그먼트를 확정하기 위한 라인 세그먼트 확정 서브모듈; 및
상기 적어도 하나의 라인 세그먼트에서의 각 라인 세그먼트와 상기 에지의 중첩부분을 확정하고, 상기 중첩부분에 근거하여 상기 라인을 확정하기 위한 라인 확정 실행 서브모듈을 포함한다.
하나의 실시형태에서, 라인 확정모듈(1101)은,
각 상기 중첩부분의 곡선 방정식을 확정하기 위한 곡선 방정식 확정 서브모듈;
각 상기 중첩부분의 곡선 방정식에서의 파라미터에 대해 정규화 처리를 진행하기 위한 정규화 처리 서브모듈을 더 포함하고,
상기 라인 확정 실행 서브모듈은, 상기 정규화 처리 후의 곡선 방정식과 대응되는 라인에 대해 클러스터링을 진행하여, 클러스터링 결과를 얻고, 상기 클러스터링 결과에 근거하여 상기 도로 이미지에서의 라인을 확정하는데도 사용된다.
하나의 실시형태에서, 라인 확정 실행 서브모듈은,
상기 적어도 하나의 라인 세그먼트에서의 각 라인 세그먼트에 대해 오버스트라이킹 처리를 진행하기 위한 라인 세그먼트처리 서브모듈을 포함하고,
상기 라인 확정 실행 서브모듈은 구체적으로, 오버스트라이킹 처리 후의 라인 세그먼트에 대응되는 픽셀 및 상기 에지에 대응되는 픽셀에 대해 논리곱 연산을 진행하여, 중첩된 부분을 확정하는데 사용된다.
하나의 실시형태에서, 픽셀 확정모듈(1102)은,
상기 라인의 방향에 근거하여 주축을 확정하기 위한 주축 확정 서브모듈;
상기 주축과 수직되는 투영축을 확정하기 위한 투영축 확정 서브모듈;
상기 라인을 조성하는 픽셀을 상기 투영축에 투영하기 위한 픽셀 투영 서브모듈; 및
상기 투영축에서의 투영 결과에 근거하여, 차선을 조성하는 픽셀을 확정하기 위한 픽셀 확정 실행 서브모듈을 포함한다.
하나의 실시형태에서, 도로 이미지는 이미지 수집기기가 수집한, 타임스탬프가 표기된 이미지이고;
상기 이미지 수집기기는 4개이며, 타겟 차량의 좌우 양측에 각각 설치되고, 상기 이미지 수집기기의 방향은 상기 타겟 차량의 주행방향과 수직되며;
상기 픽셀 피팅모듈(1103)은 구체적으로, 상기 타임스탬프에 근거하여, 상기 타겟 차량의 좌우 양측에 설치된 이미지 수집기기가 수집한 상기 도로 이미지에서의 상기 픽셀을 각각 피팅함으로써, 차선을 획득하는데 사용된다.
하나의 실시형태에서, 픽셀 피팅모듈(1103)은 구체적으로,
최소 기울기 오차에 근거하여, 타겟 차량의 좌우 양측에 설치된 이미지 수집기기가 수집한 상기 도로 이미지에서의 상기 픽셀을 피팅함으로써, 피팅된 후의 상기 타겟 차량의 좌우 양측의 차선이 기울기 오차가 허용범위 내에 있도록 하는데 사용된다.
도 12에 도시된 바와 같이, 본 출원의 실시예는 차선 포지셔닝 정밀도 평가장치를 제공하며, 해당 장치는,
평가 대기 차선 검측값을 획득하기 위한 차선 검측값 획득모듈(1201);
상술한 차선의 확정장치가 획득한 차선 진리값을 획득하기 위한 차선 진리값 획득모듈(1202); 및
상기 차선 검측값과 상기 차선 진리값 사이의 오차에 근거하여, 상기 평가 대기 차선 검측값을 평가하기 위한 평가모듈(1203)을 포함한다.
하나의 실시형태에서, 평가모듈(1203)은,
상기 차선 검측값과 상기 차선 진리값 사이의 횡방향 차이 값을 계산하기 위한 횡방향 차이 값 계산 서브모듈, 및/또는
상기 차선 검측값과 상기 차선 진리값 사이의 방향각 차이 값을 계산하기 위한 방향각 차이 값 계산 서브모듈을 포함하고;
상기 횡방향 차이 값 및/또는 상기 방향각 차이 값을 상기 차선 검측값과 상기 차선 진리값 사이의 오차로 한다.
하나의 실시형태에서, 평가 대기 차선 검측값은 고정밀 지도 포지셔닝 알고리즘에 근거하여 얻은 것이다.
본 출원의 실시예에 따르면, 본 출원은 전자기기와 판독 가능 저장매체를 더 제공한다.
도 13에 도시된 바와 같이, 이는 본 출원의 실시예에 따른 차선의 확정방법의 전자기기의 블록도이다. 전자기기는 랩톱 컴퓨터, 데스크톱 컴퓨터, 작업대, 개인 휴대 정보 단말기, 서버, 블레이드 서버, 메인프레임 컴퓨터 및 기타 적합한 컴퓨터와 같은 여러 가지 형식의 디지털 컴퓨터를 가리킨다. 전자기기는 개인 디지털 프로세싱, 셀룰러 폰, 스마트 폰, 웨어러블 기기 및 기타 유사한 컴퓨팅 장치와 같은 여러 가지 형식의 이동장치를 더 나타낼 수 있다. 본 명세서에 도시된 부품, 이들의 연결과 관계 및 이들의 기능은 단지 예시적인 것일 뿐이며, 본 명세서에서 설명 및/또는 요구한 본 출원의 실현을 한정하기 위한 것이 아니다.
도 13에 도시된 바와 같이, 해당 전자기기는 하나 또는 복수의 프로세서(1310), 메모리(1320) 및 각 부품을 연결하기 위한, 고속 인터페이스와 저속 인터페이스를 포함하는 인터페이스를 포함한다. 각 부품은 상이한 버스를 이용하여 서로 연결되고 공용 메인보드에 장착되거나 또는 수요에 따라 기타 방식으로 장착될 수 있다. 프로세서는 전자기기 내에서 수행되는 명령을 처리할 수 있는데, 이는 메모리에 저장되거나 또는 메모리에 저장되어 외부 입력/출력장치(예를 들어 인터페이스에 커플링 된 디스플레이 기기)에 GUI를 표시하는 그래프 정보의 명령을 포함한다. 기타 실시형태에서, 만약 필요하면, 복수의 프로세서 및/또는 복수의 버스를 복수의 메모리와 함께 사용할 수 있다. 마찬가지로, 복수의 전자기기를 연결할 수 있고, 각 기기는 일부 필요한 조작(예를 들면 서버 어레이, 블레이드 서버 세트 또는 멀티 프로세서 시스템으로 함)을 제공할 수 있다. 도 13에서는 하나의 프로세서(1310)를 예로 한다.
메모리(1320)는 본 출원에서 제공하는 비일시적 컴퓨터 판독 가능 저장매체이다. 여기서, 상기 메모리에는 적어도 하나의 프로세서에 의해 수행될 수 있는 명령이 저장되어, 상기 적어도 하나의 프로세서로 하여금 본 출원에서 제공하는 차선의 확정방법을 수행하도록 할 수 있다. 본 출원의 비일시적 컴퓨터 판독 가능 저장매체는 컴퓨터 명령을 저장하고, 해당 컴퓨터 명령은 컴퓨터로 하여금 본 출원에서 제공하는 차선의 확정방법을 수행하도록 한다.
메모리(1320)는 비일시적 컴퓨터 판독 가능 저장매체로서, 비일시적 소프트웨어 프로그램, 비일시적 컴퓨터 실행 가능 프로그램 및 모듈, 예를 들어 본 출원의 실시예에서의 차선의 확정방법에 대응되는 프로그램 명령/모듈(예를 들면, 도 10에 도시된 라인 확정모듈(1001), 픽셀 확정모듈(1002) 및 픽셀 피팅모듈(1003), 또는 도 11에 도시된 차선 검측값 획득모듈(1101), 차선 진리값 획득모듈(1102) 및 평가모듈(1103))을 저장하는데 사용될 수 있다. 프로세서(1310)는 메모리(1320)에 저장된 비일시적 소프트웨어 프로그램, 명령 및 모듈을 운행시킴으로써, 서버의 여러 가지 기능 응용 및 데이터 처리를 수행하며, 즉 상기 방법 실시예에서의 차선의 확정방법을 실현한다.
메모리(1320)는 프로그램 저장구역과 데이터 저장구역을 포함할 수 있는데, 여기서, 프로그램 저장구역은 운영체제, 적어도 하나의 기능에 필요한 응용 프로그램을 저장할 수 있고, 데이터 저장구역은 차선의 확정방법에 따른 전자기기의 사용에 의해 생성된 데이터 등을 저장할 수 있다. 이 외에, 메모리(1320)는 고속 랜덤 액세스 메모리를 포함할 수 있고, 비일시적 메모리, 예를 들면 적어도 하나의 디스크 메모리, 플래시 메모리 또는 기타 비일시적 솔리드 스테이트 메모리를 더 포함할 수 있다. 일부 실시예에서, 메모리(1320)는 선택적으로 프로세서(1310)에 대해 원격으로 설치되는 메모리를 포함하고, 이러한 원격 메모리는 네트워크를 통해 차선의 확정방법의 전자기기에 연결될 수 있다. 상기 네트워크의 구현예는 인터넷, 인트라넷, 근거리 통신망, 이동 통신망 및 이들의 조합을 포함하나 이에 한정되지 않는다.
차선의 확정방법에 따른 전자기기는 입력장치(1330)와 출력장치(1340)를 더 포함할 수 있다. 프로세서(1310), 메모리(1320), 입력장치(1330)와 출력장치(1340)는 버스 또는 기타 방식을 통해 연결될 수 있고, 도 13에서는 버스를 통해 연결되는 것을 예로 한다.
입력장치(1330)는 입력된 숫자 또는 문자 부호정보를 수신할 수 있고, 또한 차선의 확정방법에 따른 전자기기의 사용자 설정 및 기능 제어와 관련되는 키 신호 입력을 발생할 수 있으며, 예를 들면 터치 스크린, 키보드, 마우스, 트랙패드, 터치패드, 지시 바, 하나 또는 복수의 마우스버튼, 트랙 볼, 조이스틱 등 입력장치일 수 있다. 출력장치(1340)는 디스플레이 기기, 보조 조명장치(예를 들면, LED)와 촉각 피드백 장치(예를 들면, 진동모터) 등을 포함할 수 있다. 해당 디스플레이 기기는 액정 모니터(LCD), 발광 다이오드(LED) 디스플레이와 플라즈마 디스플레이를 포함할 수 있으나 이에 한정되지 않는다. 일부 실시예에서, 디스플레이 기기는 터치 스크린일 수 있다.
여기서 설명하는 시스템과 기술의 여러 가지 실시형태는 디지털 전자회로 시스템, 집적회로 시스템, 전용 ASIC(전용 집적회로), 컴퓨터 하드웨어, 펌웨어, 소프트웨어 및/또는 이들의 조합에서 실현할 수 있다. 이러한 여러 가지 실시형태는 하나 또는 복수의 컴퓨터 프로그램에서 실시되는 것을 포함할 수 있고, 상기 하나 또는 복수의 컴퓨터 프로그램은 적어도 하나의 프로그래머블 프로세서를 포함하는 프로그래머블 시스템에서 실행 및/또는 해석되며, 해당 프로그래머블 프로세서는 전용 또는 범용 프로그래머블 프로세서로서, 저장 시스템, 적어도 하나의 입력장치 및 적어도 하나의 출력장치에서 데이터와 명령을 수신할 수 있고, 데이터와 명령을 해당 저장 시스템, 해당 적어도 하나의 입력장치 및 해당 적어도 하나의 출력장치에 전송할 수 있다.
이러한 컴퓨팅 프로그램(프로그램, 소프트웨어, 소프트웨어 애플리케이션 또는 코드라고도 한다)은 프로그래머블 프로세서의 기계 명령을 포함하고, 고급 프로세스 및/또는 객체 지향 프로그래밍 언어 및/또는 어셈블리/기계 언어를 이용하여 이러한 컴퓨팅 프로그램을 실시할 수 있다. 본 명세서에서 사용한 용어 “기계 판독 가능 매체”와 “컴퓨터 판독 가능 매체”는 기계 명령 및/또는 데이터를 프로그래머블 프로세서에 제공하는 임의의 컴퓨터 프로그램 제품, 기기 및/또는 장치(예를 들면 자기 디스크, 시디 롬, 메모리 프로그래머블 로직 장치(PLD))를 가리키고, 기계 판독 가능 신호로서의 기계 명령을 수신하는 기계 판독 가능 매체를 포함한다. 용어 “기계 판독 가능 신호”는 기계 명령 및/또는 데이터를 프로그래머블 프로세서에 제공하는 임의의 신호를 가리킨다.
사용자와의 상호작용을 제공하기 위하여, 여기서 설명하는 시스템과 기술을 컴퓨터에서 실시할 수 있으며, 해당 컴퓨터는, 사용자에게 정보를 디스플레이하는 디스플레이 장치(예를 들면 CRT(음극선관) 또는 LCD(액정 디스플레이) 모니터); 및 키보드와 포인팅 장치(예를 들면, 마우스 또는 트랙볼)를 구비하고, 사용자는 해당 키보드와 해당 포인팅 장치를 통해 컴퓨터에 입력을 제공할 수 있다. 기타 유형의 장치도 사용자와의 상호작용에 사용될 수 있는 바, 예를 들면 사용자에게 제공된 피드백은 모든 형식의 감각 피드백(예를 들면 시각적 피드백, 청각적 피드백 또는 촉각적 피드백) 일 수 있고, 모든 형식(소리 입력, 음성 입력 또는 촉각 입력을 포함)에 의해 사용자로부터의 입력을 수신할 수 있다.
여기서 설명한 시스템과 기술을 백그라운드 부품을 포함하는 컴퓨팅 시스템(예를 들면 데이터 서버), 또는 미들웨어 부품을 포함하는 컴퓨팅 시스템(예를 들면 애플리케이션 서버), 또는 프런트엔드 부품을 포함하는 컴퓨팅 시스템(예를 들면 그래픽 사용자 인터페이스 또는 네트워크 브라우저를 구비한 사용자 컴퓨터, 사용자는 해당 그래픽 사용자 인터페이스 또는 해당 네트워크 브라우저를 통해 여기서 설명한 시스템과 기술의 실시형태와 상호작용할 수 있다), 또는 이러한 백그라운드 부품, 미들웨어 부품 또는 프런트엔드 부품을 포함하는 임의의 조합의 컴퓨팅 시스템에서 실시될 수 있다. 임의의 형태 또는 매체의 디지털 데이터 통신(예를 들면 통신 네트워크)을 통해 시스템의 부품을 서로 연결할 수 있다. 통신 네트워크의 예시는 근거리 통신망 (LAN), 광역 통신망 (WAN) 및 인터넷을 포함한다.
컴퓨터 시스템은 클라이언트과 서버를 포함할 수 있다. 클라이언트과 서버는 일반적으로 서로 원격으로 설치되는 동시에 통신 네트워크를 통해 서로 상호작용을 진행한다. 상응하는 컴퓨터에서 운행되고 서로 클라이언트-서버 관계를 가지는 컴퓨터 프로그램을 통하여 클라이언트과 서버의 관계를 발생한다. 서버는 클라우드 서버 일 수 있고, 클라우드 컴퓨팅 서버 또는 클라우드 호스트라고도 하는 바, 이는 클라우드 컴퓨팅 서비스 시스템에서의 하나의 호스트 제품으로서, 전통적인 물리 호스트와 VPS 서비스에서 관리 난이도가 크고 서비스 확장성이 약한 단점을 해결한다.
이해해야 할 것은, 이상에서 설명한 여러 가지 형태의 과정을 사용하여, 단계를 다시 정렬시키고 증가 또는 삭제할 수 있다. 예를 들면 본 출원에서 기재한 각 단계는 동시에 수행할 수도 있고 순차적으로 수행할 수도 있으며 상이한 순서로 수행할 수도 있는 바, 본 출원에서 개시한 기술방안에서 기대하는 결과를 실현할 수만 있다면, 본 문은 이에 대해 한정하지 않는다.
상기 구체적인 실시형태는 본 출원의 보호범위에 대한 한정이 아니다. 해당 분야 기술자들은 설계 요구와 기타 요소에 근거하여 여러 가지 수정, 조합, 하위 조합과 대체를 진행할 수 있다는 것을 명백하여야 한다. 본 출원의 정신과 원칙 내에서 진행한 그 어떤 수정, 균등한 대체와 개량은 모두 본 출원의 보호범위 내에 포함된다.

Claims (23)

  1. 차선의 확정방법에 있어서,
    수신한 도로 이미지에서 라인을 확정하는 단계;
    상기 라인을 조성한 픽셀을 선별하여, 차선을 조성하는 픽셀을 확정하는 단계; 및
    상기 차선을 조성하는 픽셀을 피팅하여, 차선을 획득하는 단계를 포함하되;
    여기서, 상기의 수신한 도로 이미지에서 라인을 확정하는 단계는,
    상기 도로 이미지에서의 에지를 확정하는 단계;
    상기 에지에 근거하여 적어도 하나의 라인 세그먼트를 확정하는 단계; 및
    상기 적어도 하나의 라인 세그먼트에서의 각 라인 세그먼트와 상기 에지의 중첩부분을 확정하고, 상기 중첩부분에 근거하여 상기 라인을 확정하는 단계를 포함하는 것을 특징으로 하는 차선의 확정방법.
  2. 삭제
  3. 제1항에 있어서,
    상기의 수신한 도로 이미지에서 라인을 확정하는 단계는, 각 상기 중첩부분의 곡선 방정식을 확정하는 단계;
    각 상기 중첩부분의 곡선 방정식에서의 파라미터에 대해 정규화 처리를 진행하는 단계; 및
    상기 정규화 처리 후의 곡선 방정식과 대응되는 라인에 대해 클러스터링을 진행하여, 클러스터링 결과를 얻고, 상기 클러스터링 결과에 근거하여 상기 도로 이미지에서의 라인을 확정하는 단계를 더 포함하는 것을 특징으로 하는 차선의 확정방법.
  4. 제1항에 있어서,
    상기의 상기 적어도 하나의 라인 세그먼트에서의 각 라인 세그먼트와 상기 에지의 중첩부분을 확정하는 단계는,
    상기 적어도 하나의 라인 세그먼트에서의 각 라인 세그먼트에 대해 오버스트라이킹(overstriking) 처리를 진행하는 단계; 및
    오버스트라이킹 처리 후의 라인 세그먼트에 대응되는 픽셀 및 상기 에지에 대응되는 픽셀에 대해 논리곱 연산을 진행하여, 중첩된 부분을 확정하는 단계를 포함하는 것을 특징으로 하는 차선의 확정방법.
  5. 제1항에 있어서,
    상기의 상기 라인을 조성한 픽셀을 선별하여, 차선을 조성하는 픽셀을 확정하는 단계는,
    상기 라인의 방향에 근거하여 주축을 확정하는 단계;
    상기 주축과 수직되는 투영축을 확정하는 단계;
    상기 라인을 조성하는 픽셀을 상기 투영축에 투영하는 단계; 및
    상기 투영축에서의 투영 결과에 근거하여 차선을 조성하는 픽셀을 확정하는 단계를 포함하는 것을 특징으로 하는 차선의 확정방법.
  6. 제1항에 있어서,
    상기 도로 이미지는 이미지 수집기기가 수집한, 타임스탬프가 표기된 이미지이고;
    상기 이미지 수집기기는 4개이며, 타겟 차량의 좌우 양측에 각각 설치되고, 상기 이미지 수집기기의 방향은 상기 타겟 차량의 주행방향과 수직되며;
    상기의 상기 차선을 조성하는 픽셀을 피팅하여, 차선을 획득하는 단계는, 상기 타임스탬프에 근거하여, 상기 타겟 차량의 좌우 양측에 설치된 이미지 수집기기가 수집한 상기 도로 이미지에서의 상기 픽셀을 각각 피팅함으로써, 차선을 획득하는 단계를 포함하는 것을 특징으로 하는 차선의 확정방법.
  7. 제6항에 있어서,
    상기의 상기 타겟 차량의 좌우 양측에 설치된 이미지 수집기기가 수집한 상 기 도로 이미지에서의 상기 픽셀을 각각 피팅함으로써, 차선을 획득하는 단계는,
    최소 기울기 오차에 근거하여, 타겟 차량의 좌우 양측에 설치된 이미지 수집 기기가 수집한 상기 도로 이미지에서의 상기 픽셀을 피팅함으로써, 피팅된 후의 상기 타겟 차량의 좌우 양측의 차선이 기울기 오차가 허용범위 내에 있도록 하는 단계를 포함하는 것을 특징으로 하는 차선의 확정방법.
  8. 차선 포지셔닝 정밀도의 평가방법에 있어서,
    평가 대기 차선 검측값을 획득하는 단계;
    청구항 1의 방법을 이용하여 획득한 차선 진리값을 획득하는 단계;
    상기 차선 검측값과 상기 차선 진리값 사이의 오차에 근거하여, 상기 평가 대기 차선 검측값을 평가하는 단계를 포함하는 것을 특징으로 하는 차선 포지셔닝 정밀도의 평가방법.
  9. 제8항에 있어서,
    상기 차선 검측값과 상기 차선 진리값 사이의 오차의 확정방식은,
    상기 차선 검측값과 상기 차선 진리값 사이의 횡방향 차이 값을 계산하는 것과
    상기 차선 검측값과 상기 차선 진리값 사이의 방향각 차이 값을 계산하는 것 중의 적어도 하나; 및
    상기 횡방향 차이 값 및 상기 방향각 차이 값 중의 적어도 하나를 상기 차선 검측값과 상기 차선 진리값 사이의 오차로 하는 것; 을 포함하는 것을 특징으로 하는 차선 포지셔닝 정밀도의 평가방법.
  10. 제8항에 있어서,
    상기 평가 대기 차선 검측값은 고정밀 지도 포지셔닝 알고리즘에 근거하여 얻은 것임을 특징으로 하는 차선 포지셔닝 정밀도의 평가방법.
  11. 차선의 확정장치에 있어서,
    수신한 도로 이미지에서 라인을 확정하기 위한 라인 확정모듈;
    상기 라인을 조성한 픽셀을 선별하여, 차선을 조성하는 픽셀을 확정하기 위한 픽셀 확정모듈; 및
    상기 차선을 조성하는 픽셀을 피팅하여, 차선을 획득하기 위한 픽셀 피팅모듈을 포함하되;
    여기서, 상기 라인 확정모듈은,
    상기 도로 이미지에서의 에지를 확정하기 위한 에지 확정 서브모듈;
    상기 에지에 근거하여 적어도 하나의 라인 세그먼트를 확정하기 위한 라인 세그먼트 확정 서브모듈; 및
    상기 적어도 하나의 라인 세그먼트에서의 각 라인 세그먼트와 상기 에지의 중첩부분을 확정하고, 상기 중첩부분에 근거하여 상기 라인을 확정하기 위한 라인 확정 실행 서브모듈을 포함하는 것을 특징으로 하는 차선의 확정장치.
  12. 삭제
  13. 제11항에 있어서,
    상기 라인 확정모듈은,
    각 상기 중첩부분의 곡선 방정식을 확정하기 위한 곡선 방정식 확정 서브모듈; 및
    각 상기 중첩부분의 곡선 방정식에서의 파라미터에 대해 정규화 처리를 진행하기 위한 정규화 처리 서브모듈을 더 포함하고,
    상기 라인 확정 실행 서브모듈은, 또한 상기 정규화 처리 후의 곡선 방정식에 대응되는 라인에 대해 클러스터링을 진행하여, 클러스터링 결과를 얻고, 상기 클러스터링 결과에 근거하여 상기 도로 이미지에서의 라인을 확정하는데 사용되는 것을 특징으로 하는 차선의 확정장치.
  14. 제11항에 있어서,
    상기 라인 확정 실행 서브모듈은,
    상기 적어도 하나의 라인 세그먼트에서의 각 라인 세그먼트에 대해 오버스트라이킹(overstriking) 처리를 진행하기 위한 라인 세그먼트처리 서브모듈을 포함하고,
    상기 라인 확정 실행 서브모듈은 구체적으로, 오버스트라이킹 처리 후의 라인 세그먼트에 대응되는 픽셀 및 상기 에지에 대응되는 픽셀에 대해 논리곱 연산을 진행하여, 중첩된 부분을 확정하는데 사용되는 것을 특징으로 하는 차선의 확정장치.
  15. 제11항에 있어서,
    상기 픽셀 확정모듈은,
    상기 라인의 방향에 근거하여 주축을 확정하기 위한 주축 확정 서브모듈;
    상기 주축과 수직되는 투영축을 확정하기 위한 투영축 확정 서브모듈;
    상기 라인을 조성하는 픽셀을 상기 투영축에 투영하기 위한 픽셀 투영 서브 모듈; 및
    상기 투영축에서의 투영 결과에 근거하여, 차선을 조성하는 픽셀을 확정하기 위한 픽셀 확정 실행 서브모듈을 포함하는 것을 특징으로 하는 차선의 확정장치.
  16. 제11항에 있어서,
    상기 도로 이미지는 이미지 수집기기가 수집한, 타임스탬프가 표기된 이미지이고;
    상기 이미지 수집기기는 4개이며, 타겟 차량의 좌우 양측에 각각 설치되고, 상기 이미지 수집기기의 방향은 상기 타겟 차량의 주행방향과 수직되며;
    상기 픽셀 피팅모듈은 구체적으로, 상기 타임스탬프에 근거하여, 상기 타겟 차량의 좌우 양측에 설치된 이미지 수집기기가 수집한 상기 도로 이미지에서의 상기 픽셀을 각각 피팅함으로써, 차선을 획득하는데 사용되는 것을 특징으로 하는 차선의 확정장치.
  17. 제16항에 있어서,
    상기 픽셀 피팅모듈은 구체적으로,
    최소 기울기 오차에 근거하여, 타겟 차량의 좌우 양측에 설치된 이미지 수집기기가 수집한 상기 도로 이미지에서의 상기 픽셀을 피팅함으로써, 피팅된 후의 상기 타겟 차량의 좌우 양측의 차선이 기울기 오차가 허용범위 내에 있도록 하는데 사용되는 것을 특징으로 하는 차선의 확정장치.
  18. 차선 포지셔닝 정밀도 평가장치에 있어서,
    평가 대기 차선 검측값을 획득하기 위한 차선 검측값 획득모듈;
    청구항 11, 청구항 13 내지 청구항 17 중 임의의 한 항의 장치를 이용하여 획득한 차선 진리값을 획득하기 위한 차선 진리값 획득모듈; 및
    상기 차선 검측값과 상기 차선 진리값 사이의 오차에 근거하여, 상기 평가 대기 차선 검측값을 평가하기 위한 평가모듈을 포함하는 것을 특징으로 하는 차선 포지셔닝 정밀도 평가장치.
  19. 제18항에 있어서,
    상기 평가모듈은,
    상기 차선 검측값과 상기 차선 진리값 사이의 횡방향 차이 값을 계산하기 위한 횡방향 차이 값 계산 서브모듈과,
    상기 차선 검측값과 상기 차선 진리값 사이의 방향각 차이 값을 계산하기 위한 방향각 차이 값 계산 서브모듈 중의 적어도 하나를 포함하며,
    여기서, 상기 횡방향 차이 값과 상기 방향각 차이 값 중의 적어도 하나를 상기 차선 검측값과 상기 차선 진리값 사이의 오차로 하는 것을 특징으로 하는 차선 포지셔닝 정밀도 평가장치.
  20. 제18항에 있어서,
    상기 평가 대기 차선 검측값은 고정밀 지도 포지셔닝 알고리즘에 근거하여 얻은 것임을 특징으로 하는 차선 포지셔닝 정밀도 평가장치.
  21. 적어도 하나의 프로세서; 및
    상기 적어도 하나의 프로세서와 통신연결된 메모리를 포함하는 전자기기에 있어서,
    상기 메모리에는 상기 적어도 하나의 프로세서에 의해 실행 가능한 명령이 저장되어 있고, 상기 명령은 상기 적어도 하나의 프로세서에 의해 실행되어, 상기 적어도 하나의 프로세서로 하여금 제1항 또는 제3항 내지 제10항 중의 어느 한 항의 방법을 수행할 수 있도록 하는 것을 특징으로 하는 전자기기.
  22. 컴퓨터로 하여금 제1항 또는 제3항 내지 제10항 중의 어느 한 항의 방법을 수행하도록 하기 위한 컴퓨터 명령이 저장된 비일시적 컴퓨터 판독 가능 저장매체.
  23. 컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램에 있어서,
    상기 컴퓨터 프로그램 중의 명령이 프로세서에 의해 실행될 경우, 제1항 또는 제3항 내지 제10항 중의 어느 한 항의 방법을 구현하는 것을 특징으로 하는 컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
KR1020210051111A 2020-07-20 2021-04-20 차선의 확정방법, 포지셔닝 정밀도의 평가방법, 장치, 기기 및 컴퓨터 프로그램 KR102543952B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010700409.XA CN111860319B (zh) 2020-07-20 2020-07-20 车道线的确定方法、定位精度的评测方法、装置、设备
CN202010700409.X 2020-07-20

Publications (2)

Publication Number Publication Date
KR20210052409A KR20210052409A (ko) 2021-05-10
KR102543952B1 true KR102543952B1 (ko) 2023-06-14

Family

ID=73001823

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210051111A KR102543952B1 (ko) 2020-07-20 2021-04-20 차선의 확정방법, 포지셔닝 정밀도의 평가방법, 장치, 기기 및 컴퓨터 프로그램

Country Status (5)

Country Link
US (1) US11328520B2 (ko)
EP (1) EP3905114A1 (ko)
JP (1) JP7223805B2 (ko)
KR (1) KR102543952B1 (ko)
CN (1) CN111860319B (ko)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112863194B (zh) * 2021-01-20 2022-08-23 青岛以萨数据技术有限公司 一种图像处理方法、装置、终端及介质
CN112989991A (zh) * 2021-03-09 2021-06-18 贵州京邦达供应链科技有限公司 车道线检测方法及装置、电子设备和计算机可读存储介质
US11898868B2 (en) 2021-09-10 2024-02-13 Here Global B.V. System and method for identifying redundant road lane detections
CN114543819B (zh) * 2021-09-16 2024-03-26 北京小米移动软件有限公司 车辆定位方法、装置、电子设备及存储介质
CN114743178B (zh) * 2021-12-29 2024-03-08 北京百度网讯科技有限公司 道路边缘线生成方法、装置、设备及存储介质
CN114120258B (zh) * 2022-01-26 2022-05-03 深圳佑驾创新科技有限公司 一种车道线识别方法、装置及存储介质
CN114475614A (zh) * 2022-03-21 2022-05-13 中国第一汽车股份有限公司 一种危险目标的筛选方法、装置、介质及设备
CN115713750B (zh) * 2023-01-09 2023-04-11 广汽埃安新能源汽车股份有限公司 一种车道线检测方法、装置、电子设备及存储介质
CN117576651A (zh) * 2024-01-18 2024-02-20 合众新能源汽车股份有限公司 一种用于辅助驾驶的车道线拟合方法、系统及车辆

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160107689A1 (en) * 2014-10-17 2016-04-21 Hyundai Mobis Co., Ltd. Apparatus and method for driver assistance
US20200026930A1 (en) * 2018-07-20 2020-01-23 Boe Technology Group Co., Ltd. Lane line detection method and apparatus

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS625480A (ja) * 1985-06-29 1987-01-12 Agency Of Ind Science & Technol エッジ検出方法
WO1996034363A1 (fr) * 1995-04-26 1996-10-31 Hitachi, Ltd. Processeur d'images pour vehicule
JP2011243018A (ja) * 2010-05-19 2011-12-01 Kyodo Printing Co Ltd 画像処理システム及び画像処理方法
CN103262139B (zh) * 2010-12-15 2015-06-24 本田技研工业株式会社 行车道识别装置
KR101517181B1 (ko) 2014-02-28 2015-05-04 주식회사 코아로직 차선 이탈 경보 시스템 및 방법
WO2016178335A1 (ja) * 2015-05-07 2016-11-10 株式会社日立製作所 レーン検出装置およびレーン検出方法
JP2018116369A (ja) * 2017-01-16 2018-07-26 株式会社Soken 車線認識装置
US10699135B2 (en) * 2017-11-20 2020-06-30 Here Global B.V. Automatic localization geometry generator for stripe-shaped objects
US20190241180A1 (en) * 2018-02-07 2019-08-08 Baidu Usa Llc Lane self-localization system using multiple cameras for autonomous driving vehicles
US11087469B2 (en) * 2018-07-12 2021-08-10 Here Global B.V. Method, apparatus, and system for constructing a polyline from line segments
CN109359602B (zh) 2018-10-22 2021-02-26 长沙智能驾驶研究院有限公司 车道线检测方法和装置
US10976747B2 (en) * 2018-10-29 2021-04-13 Here Global B.V. Method and apparatus for generating a representation of an environment
CN109961013A (zh) * 2019-02-21 2019-07-02 杭州飞步科技有限公司 车道线的识别方法、装置、设备及计算机可读存储介质
CN110595494B (zh) * 2019-09-17 2021-06-22 百度在线网络技术(北京)有限公司 地图误差确定方法和装置
CN110647877B (zh) 2019-10-30 2022-11-25 武汉中海庭数据技术有限公司 一种基于神经网络的立体交通设施定位纠偏方法及装置
CN111178150B (zh) 2019-12-09 2023-05-09 安徽奇点智能新能源汽车有限公司 车道线检测方法、系统及存储介质
CN111080684B (zh) 2019-12-12 2023-11-17 哈尔滨工程大学 一种点邻域尺度差异描述的点云配准方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160107689A1 (en) * 2014-10-17 2016-04-21 Hyundai Mobis Co., Ltd. Apparatus and method for driver assistance
US20200026930A1 (en) * 2018-07-20 2020-01-23 Boe Technology Group Co., Ltd. Lane line detection method and apparatus

Also Published As

Publication number Publication date
CN111860319A (zh) 2020-10-30
US11328520B2 (en) 2022-05-10
US20210295061A1 (en) 2021-09-23
JP2021119507A (ja) 2021-08-12
KR20210052409A (ko) 2021-05-10
CN111860319B (zh) 2024-03-26
EP3905114A1 (en) 2021-11-03
JP7223805B2 (ja) 2023-02-16

Similar Documents

Publication Publication Date Title
KR102543952B1 (ko) 차선의 확정방법, 포지셔닝 정밀도의 평가방법, 장치, 기기 및 컴퓨터 프로그램
EP3506162B1 (en) Method and apparatus for determining matching relationship between point cloud data
CN110793544B (zh) 路侧感知传感器参数标定方法、装置、设备及存储介质
US11694445B2 (en) Obstacle three-dimensional position acquisition method and apparatus for roadside computing device
CN111563450B (zh) 数据处理方法、装置、设备及存储介质
CN111612753B (zh) 三维物体检测方法、装置、电子设备和可读存储介质
CN111310840B (zh) 数据融合处理方法、装置、设备和存储介质
US11423659B2 (en) Method, apparatus, electronic device, and storage medium for monitoring an image acquisition device
CN111612852A (zh) 用于验证相机参数的方法和装置
CN111401251A (zh) 车道线提取方法、装置、电子设备及计算机可读存储介质
CN111652113A (zh) 障碍物检测方法、装置、设备以及存储介质
CN111666876A (zh) 用于检测障碍物的方法、装置、电子设备和路侧设备
CN110675635A (zh) 相机外参的获取方法、装置、电子设备及存储介质
CN111597987A (zh) 用于生成信息的方法、装置、设备和存储介质
CN112528846A (zh) 障碍物检测的测评方法、装置、设备以及存储介质
CN112184828A (zh) 激光雷达与摄像头的外参标定方法、装置及自动驾驶车辆
CN114662600B (zh) 一种车道线的检测方法、装置和存储介质
CN115937449A (zh) 高精地图生成方法、装置、电子设备和存储介质
CN115147561A (zh) 位姿图生成方法、高精地图生成方法和装置
CN110399892B (zh) 环境特征提取方法和装置
CN112581526A (zh) 障碍物检测的测评方法、装置、设备以及存储介质
CN111753765B (zh) 感知设备的检测方法、装置、设备及存储介质
CN111784836B (zh) 高精地图生成方法、装置、设备及可读存储介质
CN111753765A (zh) 感知设备的检测方法、装置、设备及存储介质
CN117671983A (zh) 确定红绿灯变更的方法、装置、设备以及存储介质

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant