KR102596437B1 - 차량 충돌을 방지할 수 있도록 하는 교통안전표지 인지 거리의 산출방법 및 산출시스템 - Google Patents

차량 충돌을 방지할 수 있도록 하는 교통안전표지 인지 거리의 산출방법 및 산출시스템 Download PDF

Info

Publication number
KR102596437B1
KR102596437B1 KR1020220152772A KR20220152772A KR102596437B1 KR 102596437 B1 KR102596437 B1 KR 102596437B1 KR 1020220152772 A KR1020220152772 A KR 1020220152772A KR 20220152772 A KR20220152772 A KR 20220152772A KR 102596437 B1 KR102596437 B1 KR 102596437B1
Authority
KR
South Korea
Prior art keywords
traffic safety
data
learning
distance
safety sign
Prior art date
Application number
KR1020220152772A
Other languages
English (en)
Inventor
박재홍
윤덕근
Original Assignee
한국건설기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국건설기술연구원 filed Critical 한국건설기술연구원
Priority to KR1020220152772A priority Critical patent/KR102596437B1/ko
Application granted granted Critical
Publication of KR102596437B1 publication Critical patent/KR102596437B1/ko

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • B60W2420/42
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/802Longitudinal distance

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Transportation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 운전자의 개입 없이 자동차 스스로 주행하는 자율주행차량에서, 차량의 충돌 사고를 방지하고, 안전한 자율주행이 실행될 수 있도록, 교통안전표지판의 정보를 실시간으로 정확하게 인식할 수 있는 거리를 실주행 영상 자료 및 시뮬레이션을 기반하여 구체적으로 신뢰성있게 산출하는 시스템 및 방법에 관한 것이다.

Description

차량 충돌을 방지할 수 있도록 하는 교통안전표지 인지 거리의 산출방법 및 산출시스템{Estimating Method and System of Perception Distance using Image Data on Road}
본 발명은 운전자의 개입 없이 자동차 스스로 주행하는 자율주행차량에서, 차량의 충돌 사고를 방지하고, 안전한 자율주행이 실행될 수 있도록, 교통안전표지판의 정보를 실시간으로 정확하게 인식할 수 있는 거리("표지 인지 거리")를 실주행 영상 자료 및 시뮬레이션을 기반하여 구체적으로 신뢰성있게 산출하는 시스템 및 방법에 관한 것이다.
운전자의 개입 없이 자동차 스스로 주행하는 자율주행차가 도입되어 상용화됨에 따라 자율주행차에 대한 관심도 높아지고 있다. 자율주행차는 촬영영상과 거리 센서를 이용하여 도로를 주행하며, 도로에 설치된 교통안전표지 등을 인지하여 주행 경로와 속도 등을 제어하는데, 이를 위해서 최근에는 자율주행차에 부착된 카메라 및 LiDAR(Light Detection and Ranging)를 이용한다. 대한민국 공개특허공보 제10-2021-0079638호를 통해서 영상 자료를 활용하여 교통표지를 인식하는 매우 효율적인 기술이 제시되어 있다.
일반적으로 교통안전표지를 인지하기 위해서는, 인식(Perception)-식별(Identification)-행동(Evaluation)-검증(Validation)의 순서로 이루어진 일련의 과정이 수행되어야 한다. 따라서 자율주행차의 자율 주행에 있어서, <교통안전표지의 인식(perception)>은 그 출발점이 되는 것이며 매우 중요하다. 특히, 차량은 주행하는 상황에서 이러한 교통안전표지를 인식하게 되는 바, 교통안전표지를 정확하게 인식하여 그 정보를 파악할 수 있게 되는 거리 ("표지 인지 거리")를 규정하고, 이에 맞추어서 교통안전표지를 설치할 필요가 있다.
대한민국 공개특허공보 제10-2021-0079638호(2021.06.30.공개).
본 발명은 위와 같은 현재 기술 상황에서의 필요성에 따라 개발된 것으로서, 운전자의 개입 없이 자동차 스스로 주행하는 자율주행차량에서, 차량의 충돌 사고를 방지하고, 안전한 자율주행이 실행될 수 있도록, 교통안전표지판의 정보를 실시간으로 정확하게 인식할 수 있는 거리("표지 인지 거리")를 실주행 영상 자료 및 시뮬레이션을 기반하여 구체적으로 신뢰성있게 산출하는 시스템 및 방법을 제공하는 것을 목적으로 한다.
위와 같은 과제를 달성하기 위하여 본 발명에서는, 본 발명에서는 자율주행에 사용되는 영상 센서를 자동차에 부착하여 카메라 위치에 따른 카메라의 검지 영역을 분석하고, 실제 도로를 주행하면서 취득한 영상 자료를 분석하여, 교통안전표지의 인식 정확도를 확보에 필요한 거리 즉, 표지 인식 거리를 산출하는 기술이 제공된다.
본 발명에 의하면, 운전자의 개입 없이 자동차 스스로 주행하는 자율주행차량에서, 차량의 충돌 사고를 방지하고, 안전한 자율주행이 실행될 수 있도록, 교통안전표지판의 정보를 실시간으로 정확하게 인식할 수 있는 거리를 실주행 영상 자료 및 시뮬레이션을 기반하여 구체적으로 신뢰성있게 산출할 수 있게 되는 효과가 발휘된다.
도 1은 차량 주행 방향을 기준으로 차량에서 카메라가 설치된 9개의 위치를 나타내는 도면 대용 사진이다.
도 2는 시뮬레이션에서 주행하는 차량 및 차량에 부착된 카메라에서 수집된 화면 사진이다.
도 3의 (a) 내지 (d)는 각각 차선의 개수에 따라 거리를 구분한 영상 자료를 보여주는 사진이다.
도 4의 (a), (b), (c) 및 (d)는 각각 Box loss, Classification loss, Objectness loss, Total loss를 보여주는 그래프도이다.
도 5의 (a)는 모델 학습에 따른 mAP 변화를 보여주는 그래프도이다.
도 5의 (b)는 17종으로 분류한 도로 표지판의 종류에 따른 mAP 변화를 보여주는 그래프도이다.
도 5의 (c)는 운행 중인 차량과 표지판의 거리에 따른 mAP 변화를 보여주는 그래프도이다.
도 6은 도로의 유형별 시뮬레이션에 따른 차량의 정지시거 산출 관계를 보여주며 각각의 중요 지수(index)를 정리한 개략도이다.
도 7은 도로의 선형에 따른 정지시거의 산출 관계를 보여주며 각각의 중요 지수 및 산출 수학식을 정리한 개략도이다.
이하, 본 발명의 바람직한 실시예를 첨부한 도면을 참조하여 설명한다. 본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 하나의 실시예로서 설명되는 것이며, 이것에 의해 본 발명의 기술적 사상과 그 핵심 구성 및 작용이 제한되지 않는다.
도로 설계 기준에서는 운전자가 물체를 인지하여 적절한 행동을 수행하는데 소요되는 시간을 "인지반응시간"으로 정의하고 있으며, 인지반응시간, 주행 속도 등을 이용하여 "정지 시거(Stopping Distance)"를 제시하고 있다.
정지 시거는 물체 인식(perception) 시간, 운전자 반응(reaction) 시간에 직접적인 영향을 받게 되는데, 영상 센서의 경우, 물체와의 거리에 따라 인식 정확도의 차이가 발생하는 바, 물체 인식을 위한 최소 거리 검토가 필요하다. 특히, 센서에서 취득한 정보를 이용하는 자율주행차의 경우, 인지반응시간을 정확하게 측정하는데 한계가 있으므로, 교통안전표지를 인식하는데 필요한 거리를 정확하게 산출하는 것이 매우 중요하다.
이를 위하여 본 발명에서는 자율주행에 사용되는 영상 센서를 자동차에 부착하여 카메라 위치에 따른 카메라의 검지 영역을 분석하고, 실제 도로를 주행하면서 취득한 영상 자료를 분석하여, 교통안전표지의 인식 정확도를 확보에 필요한 거리 즉, 표지 인식 거리를 산출하게 된다.
본 발명의 방법을 상세히 살펴보면, 우선 차량에 부착된 카메라의 설치 위치에 따라 도로에 구축된 도로 시설물이 검지되는 영상이 상이하므로, 차량이 주행하면서 취득되는 영상 중에서 교통안전표지 데이터가 가장 많이 확보될 수 있는 카메라 설치 위치를 선정해야 한다(단계 S1 - 카메라 설치 위치 선정 단계).
도 1은 차량 주행 방향을 기준으로 차량에서 카메라가 설치된 9개의 위치를 나타내는 도면 대용 사진이다. 도 2는 시뮬레이션에서 주행하는 차량 및 차량에 부착된 카메라에서 수집된 화면 사진이다. 차량의 다양한 위치를 "예비 설치 위치"로 선정한 후, 각각의 예비 설치 위치에서 동일한 교통안내표지의 영상을 취득한 후, 육안으로 각각의 영상을 비교하여 교통안내표지가 가장 정확하게 인식될 수 있는 위치를 카메라 설치 위치로 선정하게 된다.
카메라 설치 위치가 선정되면, 선정된 카메라 설치 위치에 카메라를 장착한 차량을 실제 도로에 주행시키면서 교통안전표지 데이터를 취득하여 데이터베이스를 구축한다(단계 S2- 실주행을 통한 교통안전표지 데이터 취득 및 데이터베이스 구축 단계). 즉, 차량을 실제로 주행시키면서 교통안전표지를 인식한 결과물을 데이터로 취득하는 것이다. 이러한 일련의 작업은 데이터 구축 모듈을 통해서 수행된다.
후속하여 교통안전표지 인식 학습 모듈에서는, 교통안전표지 데이터에 대한 교통안전표지 인식 학습 단계(단계 S3)을 수행하고, 표지 인식 산출 모듈에서는 이를 통해서 표지 인식 거리를 산출한다(단계 S4 ?? 표지 인식 거리 산출 단계). 이 때, 차량의 실제 주행으로부터 취득된 영상으로부터 교통안전표지를 인식하고 학습하는데 이용된 기술로는 머신 러닝 기법(You Only Look Once : YOLOv5)를 사용한다.
이를 위해서 우선 취득된 교통안전표지 데이터는 <학습 데이터>와 <평가 데이터>로 구분하여 분류하였다. 취득된 교통안전표지 데이터 전체를 100%라고 하였을 때, 80%를 학습 데이터, 20%를 평가 데이터로 분류하였다. 후속하여 머신 러닝 기법을 이용하여 교통안전표지를 인식하는 학습을 수행한다(단계 S3-교통안전표지 인식 학습 단계). YOLO 계열의 객체 탐지 모델은 One-stage로 네트워크를 구성하여 빠르게 객체를 탐지할 수 있다는 장점이 있으며, 최근에는 정확도 면에서도 만족할만한 성능을 보여주고 있다. YOLOv5에서 제공하고 있는 다양한 사전학습 체크 포인트 중에서 v6.0의 YOLOv5 모델을 적용하였다. 도로를 주행하며 촬영한 1936×1456 해상도의 이미지는 YOLOv5에 입력하기 위해 640×640 해상도로 조정되며, 탐지한 도로표지판 객체는 17개의 객체에 대해 Bounding Box로 제공된다.
각각의 학습 방법은 교통안전표지의 인식을 위해 자동차 분야에서 많이 적용되는 알고리즘을 사용하였다. 영상 센서가 교통안전표지판에서 떨어진 거리를 구분하는 방법으로써 차선(점선)을 이용하였다. 차량이 일정한 속도로 주행하여 1개의 차선(점선)을 차량이 완전히 통과하는데 6개의 도로 이미지를 얻을 수 있다. 또한 도로 표지판과 차량이 가장 근접한 이미지에서 차량과 표지판 거리는 약 8m로 분석되었으며, 이후 도로 표지판은 이미지를 벗어났다. 따라서 근접한 교통안전표지판으로부터 이미지 프레임이 증가할 때마다 일정거리를 가산하여 교통안전표지판과 차량의 거리를 추정한다. 도 3의 (a) 내지 (d)는 각각 차선의 개수에 따라 거리를 구분한 영상 자료를 보여주는 사진이다.
교통안전표지로서, 도로 표지판 이미지를 사용하여 모델을 학습할 수 있으며, epoch 300까지 32의 batch size로 학습할 수 있다. 실제의 실시예에서는 640 해상도로 reshape된 이미지는 HSV 색 공간에서 색상(Hue, H)은 0.015, 채도(Saturation, S)는 0.7, 명도(Valus, V)는 0.4까지 변화시키고, translate는 0.1, scale은 0.5, 좌우 반전율은 0.5로 변화시켰으며, Mosaic 기법을 적용하여 data augmentation을 실시하였다. 가중치 최적화를 위하여 ADAM을 optimizer로 사용하였으며, initial learning rate는 0.001, 최종 learning rate는 0.01까지 가능하도록 지정하였다. ADAM의 momentum은 0.9, weight decay는 0.005로 하였다. 모델 학습을 위한 loss function으로 Box loss, Classification loss, 그리고 Objectness loss를 사용하였으며, IoU(Intersection over Union) score가 0.5 이상이 될 때, True로 여겨 mean average precision(mAP)을 계산하여 가장 높은 mAP를 보이는 epoch에서 최종 모델로 저장하였다. 도 4의 (a), (b), (c) 및 (d)에는 각각 Box loss, Classification loss, Objectness loss, Total loss를 보여주는 그래프도가 도시되어 있다.
Box loss는 예측된 경계상자 위치와 크기에서 발생하는 오차를 측정하며, Classification loss는 감지된 객체서 발생한 각 셀의 분류 손실에 대한 오차 제곱을 나타낸다. 마지막으로 Objectness loss는 상자에서 객체가 탐지되었을 경우 신뢰성에 대한 손실을 측정한다. YOLO에서는 이와 같은 3가지 loss의 합산을 이용하여 모델 학습을 진행한다. 도면에서 각 loss는 125 epochs에서 모두 수렴하며 큰 폭의 oscillation이 발생하지 않는 양상을 나타낸다. 또한 125 epochs이후에는 train loss와 validation loss간 차이가 상당히 줄어들어 over-fitting이 크게 발생하지 않았음을 알 수 있다. Total loss에 가장 큰 영향을 미친 loss는 classification loss이며 box loss, objectness loss의 순으로 total loss의 변화에 영향을 미치는 것으로 확인되었다. 또한 총 300의 epochs로 학습을 진행하였으나, 160 epoch이후 100회의 추가 epochs단계에서 loss의 큰 개선이 발견되지 않아 총 260 epochs에서 학습이 조기 종료되었다.
IoU score가 0.5이상일 경우를 True로 판정했을 경우, 최대 mAP는 160 epoch에서 0.927로 나타났다. 정밀도와 재현율은 각각 0.944와 0.831로 재현율에 비하여 높은 정밀도를 지닌 모델로 확인되었다. 또한, 전체 17종류 중에서 test를 위한 이미지로 총 13종의 도로 표지판이 사용되었으며, 10종이 0.95이상의 높은 mAP를 보이는 것으로 분석되었다. 322, 226, 308로 class name을 표기한 3종을 각각 횡단보도 표지, 서행(천천히) 표지, 직진 및 우회전 표지로써 다른 표지판에 비하여 복잡한 그림으로 구성된 경우였다. 거리가 가까울수록 높은 mAP를 보이며, 거리가 증가할수록 점점 감소하여 약 25m의 거리에서 0.85로 mAP를 나타내었다. 차량과 표지판의 거리가 25m 이상이 되면 mAP는 급격히 감소하여 33m 부근에서는 약 0.73으로 mAP가 낮아지는 것으로 분석되었다. 거리가 멀어지게 되면 탐지하는 객체가 차지하는 픽셀 영역이 감소하고, 큰 물체를 감지해내는데 용이한 YOLO 계열의 모델에서 탐지에 한계가 존재하는 것으로 분석되었다. 도 5의 (a)는 모델 학습에 따른 mAP 변화, 도 5의 (b)는 17종으로 분류한 도로 표지판의 종류에 따른 mAP 변화, 도 5의 (c)는 운행 중인 차량과 표지판의 거리에 따른 mAP 변화를 보여주는 그래프도이다.
위의 결과에서 제시된 바와 같이 거리가 가까울수록 높은 mAP를 보이며, 거리가 증가할수록 점점 감소하여 약 25m의 거리에서 0.85로 mAP를 나타내었다. 차량과 표지판의 거리가 25m 이상이 되면 mAP는 급격히 감소하여 33m 부근에서는 약 0.73으로 mAP가 낮아진다.
도 6은 도로의 유형별 시뮬레이션에 따른 차량의 정지시거 산출 관계를 보여주며 각각의 중요 지수(index)를 정리한 개략도이다. 도 6에서 위쪽의 그림은 운전자 정지 시거 상태를 보여주는 아래쪽의 그림은 자율주행차의 정지 시거 상태를 보여준다.
도 7은 도로의 선형에 따른 정지시거의 산출 관계를 보여주며 각각의 중요 지수 및 산출 수학식을 정리한 개략도이다. 도 7에서 위쪽의 그림은 물체 지면 측정시의 센서 인지각 관계를 보여주는 것이고 도 7에서 아래쪽의 그림은 물체 높이 측정시의 센서 인지각 관계를 보여주는 것이다. 이러한 관계는 결국 센서의 설치 위치 및 물체의 높이를 고려한 정지 시거를 산출하는데 이용된다.
구체적으로
Figure 112022121589442-pat00001
Figure 112022121589442-pat00002
이상의 정지 시거 확보하는 경우에는 자율주행차가 기존 도로를 주행하는데 적합한 것으로 본다.
그러나
Figure 112022121589442-pat00003
Figure 112022121589442-pat00004
미만의 정지 시거 확보하는 경우에는 자율주행차에 부착된 센서 위치, 화각(FOV) 또는 인지반응시간 조정을 통한 정지 시거 확보하거나, 또는 자율주행지원 부대시설의 설치를 통한 정지 시거 확보한다.
정지 시거는 물체 인식(perception) 시간, 운전자 반응(reaction) 시간에 직접적인 영향을 받게 되는데, 영상 센서의 경우, 물체와의 거리에 따라 인식 정확도의 차이가 발생하는 바, 물체 인식을 위한 최소 거리 검토가 필요하다.

Claims (4)

  1. 카메라 설치 위치를 선정하는 단계(단계 S1);
    실주행을 통한 교통안전표지 데이터를 취득하고 데이터베이스를 구축하는 단계(단계 S2);
    교통안전표지 인식 학습 단계(단계 S3); 및
    표지 인식 거리 산출 단계(단계 S4)를 포함하며
    교통안전표지 인식 학습 단계(단계 S3)에서는 머신 러닝 기법을 이용하여 차량의 실제 주행으로부터 취득된 영상으로부터 교통안전표지를 인식하는 기계 학습을 수행하는데, 상기한 단계 2에 의해 취득된 교통안전표지 데이터를 <학습 데이터>와 <평가 데이터>로 구분하여 분류하는 단계를 포함하며;
    교통안전표지 데이터를 <학습 데이터>와 <평가 데이터>로 구분하여 분류할 때에는, 취득된 교통안전표지 데이터 전체를 100%라고 하였을 때, 80%를 학습 데이터, 20%를 평가 데이터로 분류하여 학습을 수행하는 것을 특징으로 하는 차량 충돌을 방지할 수 있도록 하는 교통안전표지 인지 거리의 산출방법.
  2. 삭제
  3. 선정된 위치에 설치되어 영상을 취득하는 카메라;
    실주행을 통한 교통안전표지 데이터 취득 및 데이터베이스 구축하게 되는 데이터 구축 모듈;
    교통안전표지 인식 학습 모듈; 및
    표지 인식 거리를 산출하는 표지 인식 산출 모듈을 포함하는 구성을 가지고 있어서, 차량 충돌을 방지할 수 있도록 하는 교통안전표지 인지 거리를 산출하게 되며;
    교통안전표지 인식 학습 모듈에서는, 머신 러닝 기법을 이용하여 차량의 실제 주행으로부터 취득된 영상으로부터 교통안전표지를 인식하게 되는데, 취득된 교통안전표지 데이터를 <학습 데이터>와 <평가 데이터>로 구분하여 분류하되, 취득된 교통안전표지 데이터 전체를 100%라고 하였을 때, 80%를 학습 데이터, 20%를 평가 데이터로 분류하여 학습하는 것을 특징으로 하는 산출시스템.
  4. 삭제
KR1020220152772A 2022-11-15 2022-11-15 차량 충돌을 방지할 수 있도록 하는 교통안전표지 인지 거리의 산출방법 및 산출시스템 KR102596437B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220152772A KR102596437B1 (ko) 2022-11-15 2022-11-15 차량 충돌을 방지할 수 있도록 하는 교통안전표지 인지 거리의 산출방법 및 산출시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220152772A KR102596437B1 (ko) 2022-11-15 2022-11-15 차량 충돌을 방지할 수 있도록 하는 교통안전표지 인지 거리의 산출방법 및 산출시스템

Publications (1)

Publication Number Publication Date
KR102596437B1 true KR102596437B1 (ko) 2023-11-01

Family

ID=88746265

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220152772A KR102596437B1 (ko) 2022-11-15 2022-11-15 차량 충돌을 방지할 수 있도록 하는 교통안전표지 인지 거리의 산출방법 및 산출시스템

Country Status (1)

Country Link
KR (1) KR102596437B1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008083816A (ja) * 2006-09-26 2008-04-10 Hitachi Ltd 自動車の走行制御システム、および、車両制御装置
KR20210062791A (ko) * 2019-11-21 2021-06-01 엘지전자 주식회사 자율 주행 차량을 위한 맵 데이터 생성 장치 및 방법
KR20210079638A (ko) 2019-12-20 2021-06-30 한국건설기술연구원 영상 자료를 활용한 교통표지의 인식장치 및 인식방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008083816A (ja) * 2006-09-26 2008-04-10 Hitachi Ltd 自動車の走行制御システム、および、車両制御装置
KR20210062791A (ko) * 2019-11-21 2021-06-01 엘지전자 주식회사 자율 주행 차량을 위한 맵 데이터 생성 장치 및 방법
KR20210079638A (ko) 2019-12-20 2021-06-30 한국건설기술연구원 영상 자료를 활용한 교통표지의 인식장치 및 인식방법

Similar Documents

Publication Publication Date Title
Possatti et al. Traffic light recognition using deep learning and prior maps for autonomous cars
US11294392B2 (en) Method and apparatus for determining road line
US11727799B2 (en) Automatically perceiving travel signals
EP2549457B1 (en) Vehicle-mounting vehicle-surroundings recognition apparatus and vehicle-mounting vehicle-surroundings recognition system
US7046822B1 (en) Method of detecting objects within a wide range of a road vehicle
CN110619279B (zh) 一种基于跟踪的路面交通标志实例分割方法
US9626599B2 (en) Reconfigurable clear path detection system
US10650256B2 (en) Automatically perceiving travel signals
US20100259609A1 (en) Pavement marker recognition device, pavement marker recognition method and pavement marker recognition program
US8050460B2 (en) Method for recognition of an object
US20180299893A1 (en) Automatically perceiving travel signals
KR20170124299A (ko) 가상 주차선 생성에 의한 주차 지원 장치 및 그 방법
CN111874006A (zh) 路线规划处理方法和装置
US11371851B2 (en) Method and system for determining landmarks in an environment of a vehicle
CN103770704A (zh) 用于识别车辆的停车位标志线的系统和方法
JP4937844B2 (ja) 歩行者検出装置
CN111091037A (zh) 用于确定驾驶信息的方法和设备
EP3612424A1 (en) Automatically perceiving travel signals
US20180300566A1 (en) Automatically perceiving travel signals
JP2004265432A (ja) 走行環境認識装置
KR102157990B1 (ko) 신경망을 이용한 차량 번호판 인식 방법 및 시스템
KR102596437B1 (ko) 차량 충돌을 방지할 수 있도록 하는 교통안전표지 인지 거리의 산출방법 및 산출시스템
CN116524454A (zh) 物体追踪装置、物体追踪方法及存储介质
KR20230082323A (ko) 차량 속도 검출 방법 및 장치
KR102368262B1 (ko) 다중 관측정보를 이용한 신호등 배치정보 추정 방법

Legal Events

Date Code Title Description
AMND Amendment
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant