KR102178202B1 - 신호등 검출 방법 및 장치 - Google Patents

신호등 검출 방법 및 장치 Download PDF

Info

Publication number
KR102178202B1
KR102178202B1 KR1020190011788A KR20190011788A KR102178202B1 KR 102178202 B1 KR102178202 B1 KR 102178202B1 KR 1020190011788 A KR1020190011788 A KR 1020190011788A KR 20190011788 A KR20190011788 A KR 20190011788A KR 102178202 B1 KR102178202 B1 KR 102178202B1
Authority
KR
South Korea
Prior art keywords
traffic light
color
learning model
information
image
Prior art date
Application number
KR1020190011788A
Other languages
English (en)
Other versions
KR20200101509A (ko
Inventor
선우명호
장철훈
Original Assignee
(주)컨트롤웍스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)컨트롤웍스 filed Critical (주)컨트롤웍스
Priority to KR1020190011788A priority Critical patent/KR102178202B1/ko
Publication of KR20200101509A publication Critical patent/KR20200101509A/ko
Application granted granted Critical
Publication of KR102178202B1 publication Critical patent/KR102178202B1/ko

Links

Images

Classifications

    • G06K9/00825
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • G06K9/4652
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0454
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

신호등 검출 방법을 개시한다.
본 발명의 일 실시예에 의하면, 제1학습모델이 신호등 및 그 주변 환경을 촬영한 입력영상을 적어도 제1신호색, 제2 신호색 및 배경색으로 구성된 저채널 변환영상으로 변환하는 영상변환단계, 제2학습모델이 상기 저채널 변환영상 내에서 상기 제1 신호색을 갖는 복수의 제1 색군 및 상기 제2 신호색을 갖는 복수의 제2 색군을 기초로 하나 이상의 신호등 후보영역을 선별하는 후보영역 선별단계 및, 제3학습모델이 상기 신호등 후보영역에 대응하는 상기 입력영상의 부분 영상들을 기초로 상기 신호등의 상태를 판단하는 신호등 상태 판단단계를 포함하는 신호등 검출 방법을 제공한다.
본 발명의 다른 실시예에 의하면, 위 신호등 검출 방법에 의해 신호등 검출을 수행하는 신호등 검출 장치를 제공한다.

Description

신호등 검출 방법 및 장치{Method and apparatus for detecting traffic light}
본 개시는 신호등 검출 방법 및 장치에 관한 것이다.
이 부분에 기술된 내용은 단순히 본 개시에 대한 배경정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.
딥러닝은 머신 러닝의 한 종류로서, 데이터로부터 직접 유용한 대표적인 특징들을 학습하여 다중 비선형 처리 계층을 사용하는 것을 말한다. 한편, 머신러닝 또는 딥러닝을 활용하여 스마트폰, CCTV, 블랙박스, 위성 영상 등으로부터 수집되는 영상 데이터를 기반으로 사물 등을 인식 및 분석하고, 이를 활용하기 위한 기술 개발의 필요성이 강조되는 추세이다.
차량의 자율 주행을 위해 주변 도로 상황을 실시간으로 인식하는 기술이 개발되고 있다. 이 기술은 특히, 차량의 도로 주행 시 발생하는 이벤트, 예를 들면 인접 차량의 주행 상태, 사고 발생 여부 및 도로 상태 등을 실시간으로 감지하고, 감지된 이벤트에 대응하여 차량의 주행 상태를 조정하거나 이를 운전자에게 알려는 것을 필요로 한다.
다만, 차량의 주변 도로 상황은 도로의 위치에 따라 그리고 주행 시간에 따라 지속적으로 변하는 것은 물론이고, 카메라를 통해 촬영된 외부 환경에 대한 데이터도 날씨, 해의 방향, 주행 시간(주간 또는 야간) 등에 의존적이기 때문에, 이와 같은 동적 변수를 모두 고려하여 차량의 주변 상황 특히 신호등의 위치 또는 상태 등을 신뢰성 있게 검출하는 것은 쉽지 않은 과제이다.
이에, 차량의 주변 상황 인식, 특히, 신호등 검출에 앞서 설명한 딥러닝을 적용하려는 시도가 진행되고 있다.
다만, 신호등의 검출 및 그 후속 조치를 위해서, 신호등의 검출은 상당한 거리, 예를 들어, 신호등으로부터 50미터 내지 100미터 거리에서도 신뢰성 있게 이루어져야 한다. 신호등의 검출은 카메라를 통해 인지되는 외부 환경 데이터, 즉, 영상 데이터를 통해 이루어지기 때문에, 상당 거리에서 신호등을 식별하기 위해서는 높은 해상도의 영상 이미지를 필요로 한다. 신호등 식별 과정에서 사용되는 영상 이미지의 해상도가 증가하면 신호등 검출을 위한 연산량이 증가하게 되고, 이로 인해 신호등 인식의 실시간성이 떨어질 수 있다.또한, 이는 시스템의 처리 속도 또는 비용을 증가시키는 어려움을 일으킨다.
아울러, 높은 해상도를 갖는 전체 주변 이미지에서 신호등에 대응하는 영상이 차지하는 영역 또는 픽셀 수는 상대적으로 매우 작다. 이는 신호등의 영상 변화 특히, 그 색 변화가 전체 영상의 특질에 미치는 영향이 적다고 해석될 수 있다. 즉, 신호등의 위치 및 그 상태 변화에 민감한 그리고 신뢰성 있는 신호등 검출 모델을 학습하는 것은 쉽지 않은 문제이다.
이에, 본 발명은 차량 주행 시 도로 상의 신호등의 위치 및 상태를 인식함에 있어서, 신호등 인식 모델을 최적화하여 임베디드 시스템에 적용성을 높이고, 연산량을 최소화하여 실차 적용 시 실시간성을 확보하는 신호등 검출 방법 및 장치를 제공하는 데 주된 목적이 있다.
또한, 본 발명은 지도 학습을 통해 신호등에 대한 인식 정확도를 높일 수 있는 신호등 검출 방법 및 장치를 제공하는 데 주된 목적이 있다.
본 발명의 목적들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
본 발명의 일 실시예에 의하면, 제1학습모델이 신호등 및 그 주변 환경을 촬영한 입력영상을 적어도 제1신호색, 제2 신호색 및 배경색으로 구성된 저채널 변환영상으로 변환하는 영상변환단계, 제2학습모델이 상기 저채널 변환영상 내에서 상기 제1 신호색을 갖는 복수의 제1 색군 및 상기 제2 신호색을 갖는 복수의 제2 색군을 기초로 하나 이상의 신호등 후보영역을 선별하는 후보 영역 선별단계 및, 제3학습모델이 상기 신호등 후보영역에 대응하는 상기 입력영상의 부분 영상들을 기초로 상기 신호등의 상태를 판단하는 신호등 상태 판단단계를 포함하는 신호등 검출 방법을 제공한다.
본 발명의 다른 실시예에 의하면, 위 신호등 검출 방법에 의해 신호등 검출을 수행하는 신호등 검출 장치를 제공한다.
도 1은 본 발명의 일 실시예에 따른 신호등 검출 방법 및 장치에서 수행되는 각 과정을 도시한 순서도이다.
도 2는 본 발명의 일 실시예에 따른 신호등 검출 방법 및 장치에서 수행되는 각 과정이 도시된 개념도이다.
도 3은 본 발명의 일 실시예의 영상변환단계의 구체적인 과정을 도시한 순서도이다.
도 4는 본 발명의 일 실시예에서 예시적인 입력영상이 표현된 것이다.
도 5는 본 발명의 일 실시예에서 예시적인 저채널 변환영상이 표현된 것이다.
도 6은 본 발명의 일 실시예에서 제1학습모델의 학습 과정을 도시한 순서도이다.
도 7은 본 발명의 일 실시예의 후보영역 선별단계의 구체적인 과정을 도시한 순서도이다.
도 8은 본 발명의 일 실시예에서 입력영상 상에 복수의 색군에 대응하는 색군대응영역을 표시한 것이다.
도 9는 본 발명의 일 실시예에서 입력영상 상에 신호등 후보영역을 표시한 상태를 도시한 것이다.
도 10은 본 발명의 일 실시예에서 제2학습모델의 학습 과정을 도시한 순서도이다.
도 11은 본 발명의 일 실시예의 신호등상태 판단단계의 구체적인 과정을 도시한 순서도이다.
도 12는 본 발명의 일 실시예의 신호등상태 판단단계에서 신호등 후보영역의 신호등 상태가 검출되는 상태를 표현한 것이다.
도 13은 본 발명의 일 실시예에서 제3학습모델의 학습 과정을 도시한 순서도이다.
이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성 요소들에 참조 부호를 부가함에 있어서, 동일한 구성 요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.
본 발명에 따른 실시예의 구성요소를 설명하는 데 있어서, 제1, 제2, i), ii), a), b) 등의 부호를 사용할 수 있다. 이러한 부호는 그 구성요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 부호에 의해 해당 구성요소의 본질 또는 차례나 순서 등이 한정되지 않는다. 명세서에서 어떤 부분이 어떤 구성요소를 '포함' 또는 '구비'한다고 할 때, 이는 명시적으로 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
도 1은 본 발명의 일 실시예에 따른 신호등 검출 방법 및 장치에서 수행되는 각 과정을 도시한 순서도이며, 도 2는 본 발명의 일 실시예에 따른 신호등 검출 방법 및 장치에서 수행되는 각 과정이 도시된 개념도이다.
이하 도 1 및 도 2를 참조하여, 본 발명의 일 실시예에 따른 신호등 검출 방법 및 장치에서 수행되는 각 과정을 개략적으로 설명한다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 신호등 검출 방법은 영상변환단계(S1), 후보영역 선별단계(S2) 및 신호등상태 판단단계(S3)를 포함한다.
영상변환단계(S1)에서는 입력영상(11)을 복수의 채널을 가진 저채널 변환영상(12)으로 변환한다.
이때 입력영상(11)은 차량의 외부 영상, 특히, 차량의 전방을 촬영하도록 설치된 카메라에 의해 촬영 및 입수되는 영상을 의미한다. 여기서, 카메라의 크기, 설치 위치 및 종류는 한정되지 않으며, 예를 들어, 차량 주행 시 블랙박스 카메라로부터 입수된 영상일 수도 있다.
예시적으로 위 입력영상(11) 획득을 위한 촬영은 차량 주행시 실시간으로 이루어질 수 있다.
한편 예를 들어, 일반적인 촬영 영상, 예를 들어 Full HD 화질을 가진 영상에서 신호등의 신호 점등 전구인 신호등 색구가 대략 10픽셀 정도 이상 차지하는 경우 신호등 색구에 대한 유효한 인식을 수행할 수 있다.
이때 신호등과 차량 간의 거리는 약 103미터 정도인 것을 확인할 수 있었다. 따라서, 예시적으로 신호등과 차량 간의 거리가 약 103 미터 이내인 순간부터 신호등, 구체적으로는 신호등 색구에 대한 인식이 가능할 수 있다.
다만 이는 예시적인 것일 뿐이며, 촬영 영상의 화질의 증감에 따라 차량이 신호등을 인식할 수 있는 거리의 크기는 변동할 수 있다.
한편, 입력영상(11) 상에는 신호등에 관한 정보뿐 아니라, 도로 상의 다른 차량 및 주변 환경에 대한 정보도 포함되어 있다. 따라서 입력영상(11) 상에서 도로 상의 다른 차량 및 주변 환경에 대한 정보를 제외한, 순수 신호등(정확히는 신호등 색구)에 관한 정보만을 구분해내는 것이 중요하다.
이와 같은 정보 구분을 위해, 본 발명의 일 실시예와 다르게 학습 모델을 사용하지 않고 입력영상(11)을 구성하는 각각의 요소가 가진 색이 신호등 색구 색에 특정 임계치 이상으로 가까운 경우에 신호등 색구 색과 일치하는 것으로 판단하는 방법을 생각할 수 있다.
다만, 이와 같은 방법으로 신호등 색을 분류하는 경우, 다양한 환경 변화(조도, 주행환경) 등에 민감하여 검출 성능이 현저히 저하될 수 있다. 반면, 인공지능 학습 모델을 기반한 방법들은 영상 전체를 입력으로 받고 베이스 네트워크로 다양한 특징을 추출해야 하기 때문에 베이스 네트워크 상의 모델 파라미터의 수가 상당히 커지게 된다. 이 경우 파라미터의 수는 대략 700만 개 이상이 필요하게 되며, 이에 따라 신호등 상태를 인식하기 위해 수행해야 하는 연산량이 막대해지게 된다.
이로 인해 연산을 위한 네트워크의 복잡도도 증가하게 되며, 또한 신호등 상태 인식을 위한 연산시간도 증가하게 된다. 이는 도로 주행시 실시간으로 짧은 시간 내에 신호등의 상태를 파악하도록 하기에는 적절하지 않은 측면이 있다.
따라서 본 발명은 신호등을 인식하는 데 있어서, 입력영상(11) 상의 색을 특정 임계치를 기준으로 구분하는 방법을 사용하지 않고, 지도 학습 방식을 사용하여 연산을 위한 파라미터를 줄이는 방법을 제안한다.
즉, 본 발명의 일 실시예는, 영상변환단계(S1)에서 입력영상(11)을 뉴럴 네트워크로 구성된 제1학습모델(10)에 입력하여 저채널 변환영상(12)으로 변환한다.
여기서 제1학습모델(10)은 추후 자세히 설명할 내용과 같이 딥러닝 방식으로 학습된 뉴럴 네트워크로 구성된다.
또한, 다수의 훈련데이터를 통한 학습을 이미 마친 상태인 제1 학습모델(10)을 이용해 입력영상(11)을 저채널 변환영상(12)으로 변환하게 되는 데, 이와 같은 방식은 신호등 후보군을 줄일 수 있는 장점이 있고, 더불어 적은 파라미터로 구성된 학습모델을 사용하기 때문에 연산량을 상당히 감소시킬 수 있다.
본 발명의 일 실시예는 이와 같은 방식을 사용함으로써, 영상변환단계(S1)에서 연산을 위한 파라미터를 예시적으로 백 개 이내로 제한할 수 있다.
한편, 저채널 변환영상(12)은 입수된 입력영상(11)이 영상변환단계(S1)를 거침으로써 제한된 채널로만 구성되도록 변환된 영상을 의미한다. 구체적으로, 저채널 변환영상(12)은 제한된 종류의 색을 갖는 픽셀로 이루어진 영상이다.
이는 신호등의 색이 일반적으로 적색 또는 녹색으로 구성되는 등 그 색이 매우 제한적이라는 점에 기인한다. 즉, 신호등의 신호색은 그 종류가 매우 한정적이므로, 영상변환단계(S1)에서는 신호등의 신호색에 대응하지 않는 색에 대한 정보는 모두 제거하여 추후 단계에서 불필요한 연산이 수행되지 않도록 한다.
한편, 이때 저채널 변환영상(12)을 구성하는 복수의 채널은 추후 더욱 구체적으로 설명할 바와 같이 신호등의 각 신호색에 각각 대응되는 채널일 수 있다.
저채널 변환영상(12)을 구성하는 복수의 채널은 예시적으로 신호등의 제1신호색에 대응하는 제1채널(13), 신호등의 제2신호색에 대응하는 제2채널(14), 기타 색에 대응하는 제3채널(15)로 구성될 수 있다.
여기서, 예시적으로 신호등의 제1신호색은 적색, 제2신호색은 녹색으로 지정될 수 있으며, 적색 및 녹색을 제외한 색은 기타 색으로 지정될 수 있다.
후보영역 선별단계(S2)에서는 저채널 변환영상(12) 상에서 신호등의 신호색에 대응하는 색을 가진 복수의 색군을 검출하고, 상기 복수의 색군을 기초로 신호등 후보영역(17; 도 9 참조)을 선별한다.
한편, 여기서 색군이란 유사한 색을 가진 픽셀들 복수가 인접하여 군집된 집합체를 의미한다. 예를 들어, 입력영상(11) 상에서 신호등 상에 적색으로 점등된 영역은 저채널 변환영상(12) 상에서 전체적으로 원형 형태로 인접 배치된 적색 픽셀들로 형성된 색군으로 표현될 수 있다.
이때 신호등 후보영역(17)은 복수의 색군들 중 실제 신호등에 대응할 확률이 일정 확률 이상인 색군에 대응하는 입력영상(11) 상의 영역을 지칭하는 용어일 수 있다.
후보영역 선별단계(S2)에서는 추후 구체적으로 설명할 내용과 같이, 제2학습모델(20)을 이용하여 신호등 후보영역(17)을 선별한다. 이때 제2학습모델(20)은 제1학습모델(10)과 마찬가지로 딥러닝에 의해 미리 학습된 뉴럴 네트워크로 구성된 학습모델일 수 있다.
신호등상태 판단단계(S3)에서는 후보영역 선별단계(S2)에서 선별된 신호등 후보영역(17)에 기반하여, 해당 영역에 대응하는 신호등의 상태를 판단한다. 이때 판단되는 신호등의 상태는 신호등의 위치 및 신호등의 색 또는 방향 표시 등을 포함할 수 있다.
구체적으로, 신호등상태 판단단계(S3)에서는 신호등의 상태에 대한 분석 데이터인 신호등상태 결과데이터(18)를 출력할 수 있다. 이때 신호등상태 결과데이터(18)는 실제 신호등이 존재하는가에 대한 검출값(o), 신호등의 상태에 대한 검출값(s1, s2, s3, s4) 및 신호등의 위치 및 크기에 대한 검출값(xc, yc, w, h)을 포함할 수 있다.
여기서 신호등 상태에 대한 검출값은 신호등에 점등된 신호의 색 또는 형태에 관한 값일 수 있으며, 신호등의 위치 및 크기에 대한 검출값은 신호등의 위치에 관한 좌표값(xc, yc) 또는 신호등 후보영역의 가로 및 세로 길이(w, h)일 수 있다.
신호등상태 판단단계(S3)에서는 추후 구체적으로 설명할 내용과 같이, 제3학습모델(30)을 이용하여 신호등의 상태를 판단한다. 이때 제3학습모델(30)은 제1학습모델(10) 및 제2학습모델(20)과 마찬가지로 딥러닝에 의해 미리 학습된 뉴럴 네트워크로 구성된 학습모델일 수 있다.
도 3은 본 발명의 일 실시예의 영상변환단계의 구체적인 과정을 도시한 순서도이다.
또한, 도 4는 본 발명의 일 실시예에서 예시적인 입력영상이 표현된 것이며, 도 5는 본 발명의 일 실시예에서 예시적인 저채널 변환영상이 표현된 것이다.
이하 도 3 내지 도 5를 참조하여 본 발명의 일 실시예에서 영상변환단계(S1)의 구체적인 과정을 설명한다.
먼저, 예시적으로 도 4에 표현된, 차량 주행 시 신호등 및 주변 환경을 촬영한 입력영상(11)을 획득한다. 예시적으로 위 입력영상(11) 획득을 위한 촬영은 차량 주행시 실시간으로 이루어질 수 있다.
입력영상(11)을 획득한 후, 상기 입력영상(11)을 제1학습모델(10)에 입력한다. 이때 제1학습모델(10)은 CNN(Convolutional Neural Network)으로 구성된 학습모델로서, 차량 주행 시 입력영상(11)을 저채널 변환영상(12)으로 변환하도록 미리 학습된 모델이다. 이때 제1학습모델(10)을 구성하는 CNN을 제1 CNN으로 지칭하기로 한다.
제1학습모델(10)에 입력된 입력영상(11)은 복수의 채널로 구성된 저채널 변환영상(12)으로 변환된다. 이때 저채널 변환영상(12)은 제한된 채널 수를 가진 저채널 변환영상(12)이다. 또한 위 채널은 신호등의 복수의 신호색에 각각 대응되는 채널로 구성된다.
예를 들어 가장 일반적인 신호등은 적색 또는 녹색 신호를 가지도록 구성되므로, 저채널 변환영상(12)은 적색 영상 요소에 대응되는 제1채널(13), 녹색 영상 요소에 대응되는 제2채널(14) 및, 적색 및 녹색을 제외한 기타 색인 배경색 영상 요소에 대응되는 제3채널(15)로 구성될 수 있다.
또한 예시적으로 신호등의 제1신호색을 적색, 제2신호색을 녹색이라고 하면, 저채널 변환영상(12) 상에는 제1신호색이 일정 영역에서 군집을 이루는 제1색군 및 제2신호색이 일정 영역에서 군집을 이루는 제2색군이 형성될 수 있다.
한편, 저채널 변환영상(12)은 위와 같은 3채널 영상이 아닌 4채널 영상일 수도 있다.
이 경우, 저채널 변환영상(12)을 구성하는 각각의 채널은 적색, 녹색, 배경색 영상 요소에 대응되는 채널뿐 아니라 황색 영상 요소에 대응되는 채널을 더 포함할 수 있다. 이는 실제 도로상의 신호등은 적색 및 녹색 신호뿐 아니라 황색 신호도 존재하는 점을 반영한 구성이다.
미리 지도학습된 제1 CNN으로 구성된 제1학습모델(10)을 통해 입력영상(11)을 저채널 변환영상(12)으로 변환하는 과정은 앞서 설명한 바와 같이 연산량이 매우 적으므로, 신호등의 상태 검출 과정에 있어서 매우 빠른 연산을 수행할 수 있다.
도 6은 본 발명의 일 실시예에서 제1학습모델의 학습 과정을 도시한 순서도이다. 이하 도 6을 참조하여 본 발명의 일 실시예에서 제1학습모델(10)의 학습 과정을 설명한다.
제1학습모델(10)은 제1 CNN으로 구성되며, 지도 학습(supervised learning) 방식에 의해 학습될 수 있다.
먼저 복수의 영상을 확보한다. 이때 복수의 영상은 예시적으로 여러 장소에 존재하는 도로 상의 신호등 및 그 주변 환경을 촬영한, 본 발명의 일 실시예의 입력영상(11)과 같은 다수의 영상일 수 있다.
또한, 확보한 복수의 영상 상의 신호등의 위치에 대한 정보를 표시한 데이터를 축적한다.
이때 신호등에 대한 정보는 예시적으로 위 복수의 영상을 참조하여 사람이 직접 표시한 상기 신호등의 위치에 대한 정보이다.
한편, 이와 같이 확보한 복수의 영상 상의 신호등 정보를 표시한 데이터의 집합을 통틀어 제1훈련데이터라 지칭하기로 한다.
또한, 저채널 변환영상(12)을 확보함으로써 저채널 변환영상(12) 상에 표현된 복수의 신호색 영역 및 배경색 영역을 확보한다. 이때 저채널 변환영상(12)은 예를 들어 본 발명의 일 실시예에서의 영상변환단계(S1)를 수행하여 획득한 저채널 변환영상(12)일 수 있다.
또한, 확보된 저채널 변환영상(12) 상에 표현된 복수의 신호색 영역과 배경색 영역 및 제1훈련데이터에 기반하여 제1학습모델(10)을 학습한다. 즉, 제1 학습모델(10)이 생성한 저채널 변환영상(12)과 일종의 정답에 해당하는 제1 훈련데이터를 비교하여, 저채널 변환영상(12) 상에 신호등이 존재하는 지 여부를 제1훈련데이터에 의해 평가함으로써 제1학습모델(10)을 학습한다.
이때 제1학습모델(10)의 학습 과정에서 에러 최적화가 수행될 수 있다. 이는 영상변환단계(S1)에서 변환된 저채널 변환영상(12) 상에 신호등 위치에 대응되는 영역이 충실히, 그리고 오류 없이 반영되도록 하기 위함이다.
예를 들어, 제1학습모델(10)의 학습 과정에서 출력된 저채널 변환영상(12)을 제1훈련데이터와 비교했을 때 저채널 변환영상(12)이 제1훈련데이터에 대응되지 않는 복수의 에러가 존재할 수 있다.
이때 예시적으로 저채널 변환영상(12) 중 신호등 영역에 대응하는 영역과 관련된 에러 값에만 가중치를 부여하는 에러 최적화를 수행함으로써 제1학습모델(10)이 신호등 영역에 대응하는 영역을 누락할 가능성을 낮출 수 있다.
구체적으로, 신호등 영역에 대응하는 영역에 관련된 에러 값에만 부여되는 가중치는 1000배 이상으로 설정될 수 있다. 이는 전체 영상에서 신호등 영역에 대응하는 영역이 차지하는 비중이 매우 적기 때문이다. 따라서 이와 같이 가중치를 1000배 이상 부여함으로써 제1학습모델(10)의 학습을 효과적으로 수행할 수 있다.
한편 이때 적합한 형태의 손실함수(loss function)를 통해 신호등 색구의 인식률을 높이도록 학습이 진행될 수 있다.
도 7은 본 발명의 일 실시예의 후보영역 선별단계(S2)의 구체적인 과정을 도시한 순서도이다.
또한, 도 8은 본 발명의 일 실시예에서 입력영상 상에 복수의 색군에 대응하는 색군대응영역을 표시한 것이며, 도 9는 본 발명의 일 실시예에서 입력영상 상에 신호등 후보영역을 표시한 상태를 도시한 것이다.
여기서 색군대응영역(16)이란 저채널 변환영상(12) 상에 형성된 색군에 대응하는, 입력영상(11) 상의 영역을 말하며, 신호등 후보영역(17)이란 복수의 색군대응영역(16) 중 입력영상(11) 상에서 신호등 위치에 대응되는 것으로 판단되는 영역을 의미한다.
한편, 도 8에는 편의상 색군대응영역(16) 중 일부에만 도면부호를 표시하였으나, 입력영상(11) 상에서 별도로 표시된 부분은 모두 색군대응영역(16)에 해당함에 유의한다.
이하 도 7 내지 도 9를 참조하여 본 발명의 일 실시예에서 후보영역 선별단계(S2)의 과정에 대해 구체적으로 설명한다.
먼저, 영상변환단계(S1)에서 변환된 저채널 변환영상(12)에 관한 정보를 제2학습모델(20)에 입력한다.
이때, 예시적으로 제2학습모델(20)에 입력되는 정보는 저채널 변환영상(12) 상의 복수의 색군의 위치 및 크기 등, 기하학적 정보이다. 또한 예를 들어 제2학습모델(20)에 입력되는 정보는 저채널 변환영상(12)을 구성하는 채널 별 또는 색군 별로 분류되어 입력될 수 있다.
이때 복수의 색군은 앞서 설명한 바와 같이 예를 들어 신호등의 제1신호의 색에 대응하는 제1신호색으로 구성된 제1색군 및, 신호등의 제2신호의 색에 대응하는 제2신호색으로 구성된 제2색군으로 구성될 수 있다.
이 경우 예시적으로 제1색군은 적색에 대응하는 색을 가진 색군일 수 있으며, 제2색군은 녹색에 대응하는 색을 가진 색군일 수 있다.
또한, 신호등이 적색 및 녹색의 제1신호 및 제2신호만으로 구성된 것을 전제로 설명하나, 신호등이 황색의 제3신호도 포함하는 경우에 대비하여 복수의 색군은 위 제1색군 및 제2색군 뿐 아니라 제3신호에 대응하는 추가적인 색군도 포함할 수 있음에 유의하여야 한다.
후보영역 선별단계(S2)에서는 제2학습모델(20)에 입력하기 위한, 복수의 색군에 관한 기하정보를 먼저 추출할 수 있다. 이때 각각의 색군은 모두 위치 또는 크기 중 하나 이상의 요소가 다르게 형성되므로, 위 각각의 색군들의 위치 및 크기 정보는 각각의 색군을 구분하기 위한 정보로 활용될 수 있다.
이때 각 색군들의 위치 정보는 예를 들어 색군의 중심점을 기준으로 할 수 있다. 또한, 각 색군들의 위치 정보는 예를 들어 각 색군의 가장 좌측 및 우측에 있는 픽셀의 x좌표를 선정하고, 가장 상측 및 하측에 있는 픽셀의 y좌표를 선정하여, 위 좌표들을 지나는 사각형을 토대로 판단되는 것일 수도 있다.
한편, 색군들의 위치 정보의 설정은 위 예시들과 다른 방식이라도 무방하다.
이때 색군의 중심점에 관한 정보는 예를 들어 저채널 변환영상(12) 상에서 설정된 좌표 평면 상의 좌표 정보로 추출될 수 있다. 또한 예시적으로 각 색군들의 크기 정보는 색군의 가로 및 세로 길이의 크기일 수 있다.
이와 같은 복수의 색군의 기하정보는 제2학습모델(20)에 복수의 색군에 관한 정보가 입력되기 전에 별도로 추출될 수도 있으나, 제2학습모델(20)에 저채널 변환영상(12)을 직접 입력하여 제2학습모델(20)에서 저채널 변환영상(12)으로부터 직접 각 색군들의 기하정보를 추출하는 것도 가능하다.
추출된 각 색군들의 기하정보는 제2학습모델(20)에 입력된다. 한편, 각 색군들의 기하정보는 제2학습모델(20)에 입력되기 전에 정규화 과정을 거칠 수 있다. 이는 화면 크기의 편차에 따라 에러가 발생할 가능성을 감소시키기 위함이다.
제2학습모델(20)은 이미 수행된 학습에 의해 얻어진 데이터에 기초하여 각 색군들이 실제 신호등 색구에 대응하는지 여부를 판단한다. 이를 위해 제2학습모델(20)은 각 색군들이 실제 신호등 색구에 대응될 확률들을 산출한다.
이때, 예를 들어 저채널 변환영상(12) 상에서의 각각의 색군의 위치 및 크기 정보가 실제 신호등 색구의 위치 및 크기 정보와 대응되는지 여부를 바탕으로 위 대응 확률을 산출할 수 있다.
한편, 도로상에서 신호등은 일반적으로 도로로부터 일정 높이 이격되어 위치하므로 그 위치에 있어 큰 변동이 없다. 또한 신호등 형태는 일반적으로 직사각형의 틀 내에 3 또는 4의 신호등 색구가 배치되며, 그 크기도 대부분 규격화되어 큰 차이가 없다.
따라서, 이와 같은 판단 과정은 실제 도로에서 신호등의 위치, 형태 및 크기가 어느 정도 제한적이라는 점으로부터 특히 높은 활용성 및 정확도를 가짐을 알 수 있다.
이와 같은 과정을 통해, 각각의 색군이 신호등 색구에 해당할 확률인 신호등 대응확률이 산출되며, 신호등 대응확률이 일정 확률보다 낮은 색군은 무의미한 데이터로 판단할 수 있다.
즉, 신호등 대응확률이 일정 확률보다 낮은 색군은 신호등이 아닌 것으로 확신할 수 있으므로, 해당 색군들은 신호등상태 판단단계(S3)에서 신호등의 상태를 판단하기 위한 자료로 사용하지 않게 된다.
이때 판단 기준이 되는 기준확률은 적정한 신뢰도를 갖는 값으로 임의 설정할 수 있다. 또한, 신호등 대응확률이 기준확률보다 높은 색군은 신호등 색구에 대응되는 색군으로 잠정적으로 판단할 수 있다.
또한, 저채널 변환영상(12) 상에서 신호등 색구가 표현된 것으로 판단된 색군이 존재하는 영역에 대응하는 입력영상(11) 상의 영역을 신호등 후보영역(17)으로 지정할 수 있다. 이때 신호등 후보영역(17)이란 입력영상(11) 상에서 신호등에 해당하는 것으로 판단되는 영역을 의미한다.
도 10은 본 발명의 일 실시예에서 제2학습모델(20)의 학습 과정을 도시한 순서도이다. 이하 도 10을 참조하여 본 발명의 일 실시예에서 제2학습모델(20)의 학습 과정을 구체적으로 설명한다.
제2학습모델(20)은 제1학습모델(10)과 같이 지도 학습(supervised learning) 방식에 의해 학습될 수 있다. 또한 제2학습모델(20)도 제1학습모델(10)과 유사하게 CNN으로 구성될 수 있다. 이때 제2학습모델(20)을 구성하는 CNN을 제1학습모델(10)을 구성하는 CNN과 구별하기 위해, 제 2 CNN으로 지칭하기로 한다.
제2학습모델(20)을 학습하기 위해, 먼저 하나 이상의 색군이 포함된 복수의 저채널 변환영상(12)을 확보한다. 이때 하나 이상의 색군은 앞서 설명한 바와 같이 영상변환단계(S1)를 거쳐 변환된 저채널 변환영상(12) 상에서 동일 색이 군집을 이루는 영역이다.
이후, 복수의 색군이 실제 신호등 색구에 대응하는지 여부를 표시한 훈련데이터를 작성 및 수집한다.
이때 위 표시 정보는 예시적으로 저채널 변환영상(12) 상에 존재하는 복수의 색군 중 실제 신호등 색구에 대응하는 색군을 사람이 직접 선별하여 표시한 정보일 수 있다. 한편, 이와 같이 확보한 훈련데이터의 집합을 제2훈련데이터라 지칭하기로 한다.
또한, 후보영역 선별단계(S2)에서 출력된 복수의 확률데이터를 확보한다.
위 확률데이터는 앞서 설명한 바와 같이 후보영역 선별단계(S2)에서 저채널 변환영상(12) 상의 복수의 색군에 대한 기하학적 정보에 기초하여 산출된, 각각의 색군이 신호등 색구에 대응할 확률에 관한 정보의 집합을 의미한다.
이후, 확률데이터 및 제2훈련데이터를 기초로 지도학습을 수행한다. 이때, 확률데이터를 구성하는 각각의 확률정보가 제2훈련데이터의 정보와 일치 또는 불일치하는지 여부를 확인하는 과정을 거침으로써 지도학습이 수행될 수 있다.
이와 같은 지도학습을 수행함으로써 에러 최적화가 수행될 수 있다. 즉, 지도학습이 수행되는 횟수가 증가할수록 에러 가능성이 감소할 수 있다. 이로 인해, 결과적으로 제2학습모델(20)의 학습 경험이 증가할수록 후보영역 선별단계(S2)에서 선별한 신호등 후보영역(17)이 실제 신호등 위치에 더욱 정확히 대응될 수 있다.
도 11은 본 발명의 일 실시예의 신호등상태 판단단계(S3)의 구체적인 과정을 도시한 순서도이며, 도 12는 본 발명의 일 실시예의 신호등상태 판단단계(S3)에서 신호등 후보영역(17)의 신호등 상태가 검출되는 상태를 표현한 것이다.
이하 도 11 및 도 12를 참조하여 본 발명의 일 실시예의 신호등상태 판단단계(S3)의 구체적인 과정을 설명한다.
먼저, 후보영역 선별단계(S2)에서 선별한 신호등 후보영역(17)을 제3학습모델(30)에 입력한다.
제3학습모델(30)은 입력된 신호등 후보영역(17)에 대한 정보를 분석하여 신호등 상태를 판단한다. 이때 판단되는 신호등 상태는 신호 상태 및 영상 내 위치 정보를 의미하는 것으로, 이로 인해 신호등 색구의 색의 상태를 판단할 수 있다. 즉, 신호등 색구 상에 표시된 신호가 적색인지 또는 녹색인지 여부를 판단할 수 있다.
또한, 이때 판단되는 신호등 상태에는 신호등 색구에 표시된 표지에 대한 인식도 포함될 수 있다. 이때 위 표지는 좌회전, 우회전 등 차량의 진행 방향에 대한 지시 표지일 수 있다.
한편, 이때 구체적으로 신호등상태 판단단계(S3)에서 먼저 출력되는 값은 각각의 해당 신호등 상태가 존재할 확률 값일 수 있다. 즉, 신호등상태 판단단계(S3)에서는 먼저 입력된 신호등 후보영역(17)이 특정 신호 상태일 확률을 계산하여 해당 확률 값을 출력할 수 있다.
이때 출력된 확률 값이 미리 설정된 기준 확률보다 높은 값을 가지면 해당 신호등 후보영역(17)에 표시된 신호가 특정 색 또는 표지가 표시된 신호에 해당하는 것으로 판단할 수 있다.
또한 제3학습모델(30)의 출력은 제2신호등 존재 여부 확률을 더 포함할 수도 있다. 이와 같이 신호등 존재 여부 확률을 신호등상태 판단단계(S3)에서도 산출함으로써 해당 신호등 후보영역(17)이 실제로 신호등에 대응되는 영역이 맞는지 여부를 후보영역 선별단계(S2)에 이어 다시 한번 체크할 수 있다.
이때 복수의 신호등 후보영역(17) 중 실제로 신호등에 해당하지 않는 것으로 판명된 신호등 후보영역(17)은 신호등 상태를 판단함에 있어 제외할 수 있다.
이와 같은 과정을 거쳐, 결과적으로 도 12에 표현된 바와 같이 신호등상태 결과데이터(18)를 도출할 수 있다. 도 12에서 신호등상태 결과데이터(18)는 검출된 신호등 후보영역(17)에 대한 분석으로부터 실제 신호등의 신호등 색구에 녹색 신호가 점등되어 있다고 판단하는 상태가 표현되었다.
도 13은 본 발명의 일 실시예에 따른 신호등 검출 방법에서 제3학습모델(30)의 학습 과정을 도시한 순서도이다. 이하 도 13을 참조하여 제3학습모델(30)의 학습 과정을 구체적으로 설명한다.
제3학습모델(30)은 제1학습모델(10) 및 제2학습모델(20)과 마찬가지로 지도 학습 방식에 의해 학습될 수 있다.
제3학습모델(30)을 학습하기 위해, 먼저 복수의 신호등 후보영역(17)을 포함한 데이터를 확보한다. 이때, 위 데이터는 복수의 신호등 후보영역(17)을 포함한 입력영상(11)에 관한 데이터일 수 있다.
또한, 위 신호등 후보영역(17)들은 본 발명의 일 실시예의 후보영역 선별단계(S2)에서 복수의 저채널 변환영상(12)에 관한 기하학적 정보를 기초로 선별한 신호등 후보영역(17)들일 수 있다.
이후, 복수의 위 신호등 후보영역(17)을 기초로, 각각의 신호등 후보영역(17)의 위치 및 상태 정보에 대해 표시한 훈련데이터를 축적한다.
이때, 위치 및 상태 정보에 대한 표시는 사람이 직접 표시한 것일 수 있으나, 제3학습모델(30)의 정답 역할을 할 수 있는 데이터를 수집할 수 있는 방식이라면 다른 방식에 의해 위 데이터를 축적하는 것도 무방하다.
이와 같은 방식으로 확보한, 복수의 신호등 후보영역(17)의 위치 및 상태를 표시한 훈련데이터의 집합을 제3훈련데이터라 지칭하기로 한다.
또한, 복수의 신호등 상태 정보를 확보한다. 이때 복수의 신호등 상태 정보는 본 발명의 일 실시예에서의 신호등상태 판단단계(S3)를 수행함으로써 출력된 신호등의 상태에 대한 정보의 집합을 의미한다. 이는 앞서 설명한 신호등상태 결과데이터를 포함하는 의미로 사용될 수 있다.
이후, 확보된 복수의 신호등 상태 정보 및 제3훈련데이터에 기반하여 제3학습모델(30)을 학습한다. 구체적으로, 제3훈련데이터에 기반하여, 복수의 신호등 상태 정보가 옳은 정보인지 여부의 판단을 반복 판단함으로써 제3학습모델(30)이 학습될 수 있다.
또한, 제3학습모델(30)이 학습을 반복함으로써 신호등상태 판단단계(S3)에서 잘못된 판단을 할 가능성이 점점 낮아지므로, 학습 반복에 의해 에러 최적화가 진행될 수 있다.
이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
10: 제1학습모델 20: 제2학습모델
11: 입력영상 30: 제3학습모델
12: 저채널 변환영상
13: 제1채널
14: 제2채널
15: 제3채널
16: 색군대응영역
17: 신호등 후보영역
18: 신호등상태 결과데이터

Claims (13)

  1. 제1학습모델이 신호등 및 그 주변 환경을 촬영한 입력영상을 기초로 제1신호색 및 제2신호색을 포함하는 신호색 영역 및 배경색 영역으로 구성된 저채널 변환영상을 획득하는 영상변환단계;
    상기 신호색 영역 내 상기 제1신호색에 대응하는 제1색군 및 상기 제2신호색에 대응하는 제2색군을 포함하는 복수의 색군을 기초로 하나 이상의 신호등 후보영역을 선별하는 후보영역 선별단계;
    제3학습모델이 상기 신호등 후보영역을 기초로 신호등의 위치 정보, 상태 정보 및 제2신호등이 존재할 확률을 판단하는 신호등 상태 판단단계
    를 포함하는 신호등 검출 방법.
  2. 제1항에 있어서,
    상기 후보영역 선별단계는 상기 제1색군 및 제2색군이 상기 신호등 상의 신호등 색구 위치에 대응할 확률을 기준으로 상기 신호등 후보영역을 선별하는 것을 특징으로 하는 신호등 검출 방법.
  3. 제1항에 있어서,
    상기 저채널 변환영상은 제3신호색을 더 포함하는 것을 특징으로 하는 신호등 검출 방법.
  4. 제1항에 있어서,
    상기 영상변환단계는,
    신호등 및 그 주변 환경을 촬영한 복수의 영상에 대하여, 상기 복수의 영상에 신호등에 대한 정보를 각각 표시한 제1훈련데이터를 기초로, 상기 저채널 변환 영상 상의 상기 신호색 영역 및 상기 배경색 영역이 신호등 영역에 대응하는 영역인지 판단함으로써 상기 제1학습모델을 지도 학습하되, 상기 제1학습모델은 CNN을 기초로 한 것
    을 특징으로 하는 신호등 검출 방법.
  5. 제4항에 있어서,
    상기 제1학습모델은,
    상기 판단 결과 출력된 에러값에 대하여, 상기 신호등 영역에 대응하는 영역과 관련된 에러값에만 가중치를 부여하는 것
    을 특징으로 하는 신호등 검출 방법.
  6. 제4항에 있어서,
    상기 신호등에 대한 정보는 사람이 표시한 상기 신호등의 위치 정보인 것을 특징으로 하는 신호등 검출 방법.
  7. 제2항에 있어서,
    상기 후보영역 선별단계는,
    하나 이상의 색군이 포함된 복수의 저채널 변환영상에 대하여, 상기 복수의 저채널 변환영상의 상기 색군이 신호등 색구에 대응하는지 여부를 각각 표시한 제2훈련데이터를 기초로, 상기 제1색군 및 제2색군이 신호등 색구 위치에 대응할 확률을 판단함으로써 제2학습모델을 지도 학습하되, 상기 제2학습모델은 CNN을 기초로 한 것
    을 특징으로 하는 신호등 검출 방법.
  8. 제1항에 있어서,
    상기 후보영역 선별단계는,
    상기 복수의 색군 각각의 위치 정보 및 크기 정보를 포함하는 기하 정보를 이용하여 상기 신호등 후보영역을 선별하는 것
    을 특징으로 하는 신호등 검출 방법.
  9. 제8항에 있어서,
    상기 위치 정보는 각 색군의 가장 좌측 픽셀, 가장 우측 픽셀, 가장 상측 픽셀 및 가장 하측 픽셀 각각의 좌표정보로 구성된 것을 특징으로 하는 신호등 검출 방법.
  10. 제1항에 있어서,
    상기 신호등 상태 판단단계는,
    복수의 신호등 후보영역에 위치 및 상태 정보를 각각 표시한 제3훈련데이터를 기초로 상기 신호등 후보영역의 판단된 신호등의 위치 정보 및 상태 정보를 판단함으로써 상기 제3학습모델을 지도 학습하는 것
    을 특징으로 하는 신호등 검출 방법.
  11. 제10항에 있어서,
    상기 신호등의 위치 정보는 상기 신호등의 중심, 가로 길이 및 세로 길이인 것을 특징으로 하는 신호등 검출 방법.
  12. 제10항에 있어서,
    상기 신호등의 상태 정보는 상기 신호등의 신호등 색구의 색 또는 방향 표시인 것을 포함하는 것을 특징으로 하는 신호등 검출 방법.
  13. 제1항에 기재된 신호등 검출 방법에 의해 신호등 검출을 수행하는 신호등 검출 장치.
KR1020190011788A 2019-01-30 2019-01-30 신호등 검출 방법 및 장치 KR102178202B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190011788A KR102178202B1 (ko) 2019-01-30 2019-01-30 신호등 검출 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190011788A KR102178202B1 (ko) 2019-01-30 2019-01-30 신호등 검출 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20200101509A KR20200101509A (ko) 2020-08-28
KR102178202B1 true KR102178202B1 (ko) 2020-11-12

Family

ID=72265811

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190011788A KR102178202B1 (ko) 2019-01-30 2019-01-30 신호등 검출 방법 및 장치

Country Status (1)

Country Link
KR (1) KR102178202B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114241438B (zh) * 2021-11-26 2023-05-16 电子科技大学 一种基于先验信息的交通信号灯快速精确的识别方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018055591A (ja) * 2016-09-30 2018-04-05 株式会社リコー 情報処理装置、情報処理方法およびプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101606476B1 (ko) * 2014-04-02 2016-03-25 한양대학교 산학협력단 카메라의 다중 노출 영상을 이용한 신호등 자동 인식 장치 및 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018055591A (ja) * 2016-09-30 2018-04-05 株式会社リコー 情報処理装置、情報処理方法およびプログラム

Also Published As

Publication number Publication date
KR20200101509A (ko) 2020-08-28

Similar Documents

Publication Publication Date Title
CN109977812B (zh) 一种基于深度学习的车载视频目标检测方法
CN110197589B (zh) 一种基于深度学习的闯红灯违法检测方法
CN106599792B (zh) 一种手部驾驶违规行为的检测方法
CN103778786B (zh) 一种基于显著车辆部件模型的交通违章检测方法
CN110619279B (zh) 一种基于跟踪的路面交通标志实例分割方法
CN105788142A (zh) 一种基于视频图像处理的火灾检测系统及检测方法
CN105512720A (zh) 一种公交车辆客流统计方法和系统
CN109255350B (zh) 一种基于视频监控的新能源车牌检测方法
CN105744232A (zh) 一种基于行为分析技术的输电线路视频防外破的方法
WO2013186662A1 (en) Multi-cue object detection and analysis
CN103761529A (zh) 一种基于多色彩模型和矩形特征的明火检测方法和系统
CN111339905B (zh) 基于深度学习及多视角的cim井盖状态视觉检测系统
CN111626170B (zh) 一种铁路边坡落石侵限检测的图像识别方法
WO2021018144A1 (zh) 指示灯检测方法、装置、设备及计算机可读存储介质
CN112733815B (zh) 一种基于rgb室外道路场景图像的红绿灯识别方法
CN110991221A (zh) 一种基于深度学习的动态交通闯红灯识别方法
WO2021076573A1 (en) Systems and methods for assessing infrastructure
WO2021147055A1 (en) Systems and methods for video anomaly detection using multi-scale image frame prediction network
CN113657305B (zh) 一种基于视频的黑烟车辆及林格曼黑度等级智能检测方法
KR102178202B1 (ko) 신호등 검출 방법 및 장치
CN113158954A (zh) 交通非现场的基于ai技术的斑马线区域自动检测方法
Moseva et al. Development of a System for Fixing Road Markings in Real Time
CN110163081A (zh) 基于ssd的实时区域入侵检测方法、系统及存储介质
CN111402185A (zh) 一种图像检测方法及装置
CN111583341B (zh) 云台像机移位检测方法

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
G170 Re-publication after modification of scope of protection [patent]