KR20210097782A - Indicator light detection method, apparatus, device and computer-readable recording medium - Google Patents

Indicator light detection method, apparatus, device and computer-readable recording medium Download PDF

Info

Publication number
KR20210097782A
KR20210097782A KR1020217020933A KR20217020933A KR20210097782A KR 20210097782 A KR20210097782 A KR 20210097782A KR 1020217020933 A KR1020217020933 A KR 1020217020933A KR 20217020933 A KR20217020933 A KR 20217020933A KR 20210097782 A KR20210097782 A KR 20210097782A
Authority
KR
South Korea
Prior art keywords
classification
indicator light
indicator
image
classifications
Prior art date
Application number
KR1020217020933A
Other languages
Korean (ko)
Inventor
저치 허
자빈 마
쿤 왕
싱위 쩡
Original Assignee
저지앙 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 저지앙 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 filed Critical 저지앙 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드
Publication of KR20210097782A publication Critical patent/KR20210097782A/en

Links

Images

Classifications

    • G06K9/00825
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06K9/6268
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 지시등 검출 방법, 장치, 디바이스 및 컴퓨터 판독 가능 기록 매체에 관한 것이다. 상기 방법은 수집된 도로 이미지를 인식하여 상기 도로 이미지 내의 지시등의 후보 경계 박스를 얻는 것; 상기 도로 이미지 내의 상기 후보 경계 박스에 대응하는 이미지 영역에 기반하여, 지시등의 복수의 분류를 예측하여 상기 지시등의 복수의 분류 예측 결과를 얻는 것; 및 상기 지시등의 복수의 분류 예측 결과에 기반하여 상기 지시등의 전시 상태를 확정하는 것을 포함하되, 상기 복수의 분류는 용도 분류, 형상 분류, 배열 분류, 기능 분류, 색상 분류 및 지향 분류 중의 적어도 두 개를 포함한다.The present invention relates to a method, an apparatus, a device, and a computer-readable recording medium for detecting an indicator light. The method includes: recognizing the collected road images to obtain candidate bounding boxes of indicator lights in the road images; predicting a plurality of classifications of indicator lights based on an image region corresponding to the candidate bounding box in the road image to obtain a plurality of classification prediction results of the indicator lights; and determining the display state of the indicator light based on a plurality of classification prediction results of the indicator light, wherein the plurality of classifications include at least two of a use classification, a shape classification, an arrangement classification, a function classification, a color classification, and an orientation classification. includes

Description

지시등 검출 방법, 장치, 디바이스 및 컴퓨터 판독 가능 기록 매체Indicator light detection method, apparatus, device and computer-readable recording medium

[관련 출원의 상호인용][Citation of related applications]

본 발명은 출원일이 2019년7월31일이고, 출원 번호가 CN2019107037635이며, 발명의 명칭이 "지시등 검출 방법, 장치, 디바이스 및 컴퓨터 판독 가능 기록 매체”인 중국 특허 출원의 우선권을 주장하는바, 당해 중국 특허 출원의 모든 내용은 참조로서 본 원에 통합된다.The present invention claims the priority of a Chinese patent application whose filing date is July 31, 2019, the application number is CN2019107037635, and the title of the invention is "Indicator detection method, apparatus, device and computer readable recording medium", All contents of the Chinese patent application are incorporated herein by reference.

[기술분야][Technology]

본 발명은 컴퓨터 시각 기술의 분야에 관한 것인바, 구체적으로 지시등 검출 방법, 장치, 디바이스 및 컴퓨터 판독 가능 기록 매체에 관한 것이다.The present invention relates to the field of computer vision technology, and more particularly, to a method, an apparatus, a device, and a computer-readable recording medium for detecting an indicator light.

지시등의 검출은 차량의 자동 운전 및 로봇의 자율 주행에 있어서 대단히 중요한 부분이다. 차량의 자동 운전이나 로봇의 자율 주행 과정에서, 안전 운전을 위하여 교통 룰에 맞는 판단을 하기 위하여, 카메라에 의해 촬영된 도로 이미지로부터 지시등을 검출하고, 당해 지시등의 상태 및 의미를 판단할 필요가 있다.The detection of indicator lights is a very important part in autonomous driving of vehicles and autonomous driving of robots. In the process of autonomous driving of a vehicle or robot, in order to make a judgment that meets traffic rules for safe driving, it is necessary to detect an indicator light from a road image captured by a camera and determine the state and meaning of the indicator light. .

관련 기술에 존재하는 문제를 극복하기 위하여, 본 발명은 지시등 검출 방법, 장치, 디바이스 및 컴퓨터 판독 가능한 기록 매체를 제공한다.In order to overcome the problems existing in the related art, the present invention provides a method, an apparatus, a device, and a computer-readable recording medium for detecting an indicator light.

제1 양태에 따르면, 지시등 검출 방법을 제공하는바, 당해 방법은, 수집된 도로 이미지를 인식하여 상기 도로 이미지 내의 지시등의 후보 경계 박스를 얻는 것; 상기 도로 이미지 내의 상기 후보 경계 박스에 대응하는 이미지 영역에 기반하여, 지시등의 복수의 분류를 예측하여 상기 지시등의 복수의 분류 예측 결과를 얻는 것; 및 상기 지시등의 복수의 분류 예측 결과에 기반하여 상기 지시등의 전시 상태를 확정하는 것을 포함하되, 상기 복수의 분류는 용도 분류, 형상 분류, 배열 분류, 기능 분류, 색상 분류 및 지향 분류 중의 적어도 두 개를 포함한다.According to a first aspect, there is provided a method for detecting an indicator light, the method comprising: recognizing a collected road image to obtain a candidate bounding box of an indicator light in the road image; predicting a plurality of classifications of indicator lights based on an image region corresponding to the candidate bounding box in the road image to obtain a plurality of classification prediction results of the indicator lights; and determining the display state of the indicator light based on a plurality of classification prediction results of the indicator light, wherein the plurality of classifications include at least two of a use classification, a shape classification, an arrangement classification, a function classification, a color classification, and an orientation classification. includes

제2 양태에 따르면, 지시등 검출 장치를 제공하는 바, 당해 장치는 수집된 도로 이미지를 인식하여 상기 도로 이미지 내의 지시등의 후보 경계 박스를 얻기 위한 인식 유닛; 상기 도로 이미지 내의 상기 후보 경계 박스에 대응하는 이미지 영역에 기반하여, 지시등의 복수의 분류를 예측하여 상기 지시등의 복수의 분류 예측 결과를 얻기 위한 예측 유닛; 및 상기 지시등의 복수의 분류 예측 결과에 기반하여 상기 지시등의 전시 상태를 확정하기 위한 확정 유닛을 포함하되, 상기 복수의 분류는 용도 분류, 형상 분류, 배열 분류, 기능 분류, 색상 분류 및 지향 분류 중의 적어도 두 개를 포함한다.According to a second aspect, there is provided an indicator light detecting apparatus, comprising: a recognition unit for recognizing a collected road image to obtain a candidate bounding box of an indicator light in the road image; a prediction unit for predicting a plurality of classifications of indicator lights based on an image region corresponding to the candidate bounding box in the road image to obtain a plurality of classification prediction results of the indicator lights; and a determining unit configured to determine a display state of the indicator light based on a plurality of classification prediction results of the indicator light, wherein the plurality of classifications include one of usage classification, shape classification, arrangement classification, function classification, color classification, and orientation classification. include at least two

제3 양태에 따르면, 지시등 검출 디바이스를 제공하는 바, 상기 디바이스는 메모리 및 프로세서를 구비하고, 상기 메모리는 프로세서 상에서 실행 가능한 컴퓨터 명령을 기억하며, 상기 프로세서는 상기 컴퓨터 명령이 실행될 때에 상기에 기재된 방법을 실현한다.According to a third aspect, there is provided an indicator light detection device, the device comprising a memory and a processor, the memory storing computer instructions executable on the processor, the processor when the computer instructions are executed, the method described above to realize

제4 양태에 따르면, 컴퓨터 프로그램이 기억되어 있는 컴퓨터 판독 가능 기록 매체를 제공하는 바, 상기 프로그램이 프로세서에 의해 실행될 때에 상기에 기재된 방법이 실현된다.According to a fourth aspect, there is provided a computer-readable recording medium having a computer program stored thereon, wherein the method described above is realized when the program is executed by a processor.

제5 양태에 따르면, 컴퓨터 판독 가능 코드를 포함하는 컴퓨터 프로그램을 제공하는 바,According to a fifth aspect, there is provided a computer program comprising computer readable code,

상기 컴퓨터 판독 가능 코드가 컴퓨터에 의해 실행될 때에 본 발명의 실시예에 기재된 방법이 실현된다.The method described in the embodiment of the present invention is realized when the computer readable code is executed by a computer.

본 발명의 하나 또는 복수의 실시예의 지시등 검출 방법, 장치, 디바이스 및 컴퓨터 판독 가능 기록 매체는, 높은 정밀도의 센서 등에 의존할 필요 없이, 카메라에 의해 수집된 도로 이미지를 이용하여 지시등의 검출 및 분류를 실행함으로써, 지시등의 검출에 필요한 디바이스 하드웨어의 비용을 효과적으로 절감할 수 있다. 도로 이미지 내의 지시등의 후보 경계 박스에 대응하는 이미지 영역을 인식하는 과정에 있어서, 지시등에 대해 명확한 분류 논리의 분할을 실행함으로써, 복수의 측면 및 복수의 차원으로 지시등을 분류하고, 얻어진 복수의 분류 예측 결과가 가능한 한 각각의 경우의 지시등을 커버하도록 하며, 다양한 상황의 지시등의 전시 상태의 판단에 유리하기 때문에, 지시등 검출의 포괄성과 정확성을 효과적으로 향상시킬 수 있다.The indicator light detection method, apparatus, device and computer readable recording medium of one or more embodiments of the present invention can detect and classify the indicator light using a road image collected by a camera, without having to rely on a high-precision sensor or the like. By implementing it, it is possible to effectively reduce the cost of device hardware required for detecting the indicator light. In the process of recognizing the image region corresponding to the candidate bounding box of the indicator light in the road image, by executing a clear classification logic division on the indicator light, the indicator light is classified into a plurality of aspects and a plurality of dimensions, and a plurality of classification predictions obtained Since the result covers the indicator light in each case as much as possible, and it is advantageous for the judgment of the display state of the indicator light in various situations, it is possible to effectively improve the comprehensiveness and accuracy of the indicator light detection.

상기의 일반적인 설명 및 이하의 상세한 설명은 예시적 및 설명적인 것에 지나지 않으며, 본 발명에 대한 한정이 아님을 이해해야 한다.It should be understood that the foregoing general description and the following detailed description are illustrative and explanatory only, and not limitation to the present invention.

여기에서의 도면은 명세서에 병합되어 본 명세서의 일부를 구성한다. 이러한 도면은 본 발명에 부합되는 실시예를 나타내며, 명세서와 함께 본 발명의 실시예를 설명하는데에 이용될 수 있다.
도 1은 본 발명의 예시적인 일 실시예에 따른 지시등 검출 방법의 플로우를 나타내는 모식도이다.
도 2는 본 발명의 예시적인 일 실시예에 따른 지시등 분류 논리를 나타내는 모식도이다.
도 3a는 본 발명의 예시적인 일 실시예에 따른 뉴럴 네트워크 모델의 구성을 나타내는 모식도이다.
도 3b는 도 3a중의 뉴럴 네트워크 모델이 지시등의 복수의 분류 예측을 실행하는 방법의 플로우를 나타내는 모식도이다.
도 4는 본 발명의 예시적인 일 실시예에 따른 지시등 검출 결과를 나타내는 모식도이다.
도 5는 본 발명의 예시적인 일 실시예에 따른 검출된 지시등이 동일의 위치 지시등인지 여부를 판단하는 방법의 플로우를 나타내는 모식도이다.
도 6은 본 발명의 예시적인 일 실시예에 따른 뉴럴 네트워크 모델의 트레이닝 방법의 플로우를 나타내는 모식도이다.
도 7은 본 발명의 예시적인 일 실시예에 따른 지시등 검출 장치의 구성을 나타내는 모식도이다.
도 8은 본 발명의 예시적인 일 실시예에 따른 지시등 검출 디바이스를 나타내는 구성도이다.
The drawings herein are incorporated in and constitute a part of this specification. These drawings show embodiments consistent with the present invention, and together with the specification may be used to describe embodiments of the present invention.
1 is a schematic diagram showing a flow of a method for detecting an indicator light according to an exemplary embodiment of the present invention.
Fig. 2 is a schematic diagram showing the indicator light classification logic according to an exemplary embodiment of the present invention.
3A is a schematic diagram showing the configuration of a neural network model according to an exemplary embodiment of the present invention.
Fig. 3B is a schematic diagram showing a flow of a method in which the neural network model in Fig. 3A executes a plurality of classification predictions for indicators.
4 is a schematic diagram showing a result of detecting an indicator light according to an exemplary embodiment of the present invention.
5 is a schematic diagram illustrating a flow of a method for determining whether a detected indicator light is the same location indicator light according to an exemplary embodiment of the present invention.
6 is a schematic diagram showing a flow of a method for training a neural network model according to an exemplary embodiment of the present invention.
Fig. 7 is a schematic diagram showing the configuration of an indicator light detecting apparatus according to an exemplary embodiment of the present invention.
8 is a block diagram showing an indicator light detecting device according to an exemplary embodiment of the present invention.

여기서 예시적인 실시예를 상세하게 설명하며, 그 예를 도면에 나타낸다. 이하의 설명이 도면을 언급할 경우, 특별히 명기하지 않는 한, 서로 다른 도면 내의 같은 부호는 동일 또는 유사한 요소를 나타낸다. 이하의 예시적인 실시예에서 설명되는 실시 형태는 본 발명과 일치한 모든 실시 형태를 대표하지 않는다. 반대로, 이들은 첨부된 특허 청구의 범위에 상세히 서술된 본 발명의 몇몇의 양태와 일치하는 장치와 방법의 예에 지나지 않는다.Exemplary embodiments are described in detail herein, examples of which are shown in the drawings. When the following description refers to drawings, the same reference numerals in different drawings refer to the same or similar elements, unless otherwise specified. The embodiments described in the following exemplary embodiments do not represent all embodiments consistent with the present invention. To the contrary, these are merely examples of apparatus and methods consistent with several aspects of the invention as detailed in the appended claims.

본 명세서 내의 "및/또는”이라는 용어는 단지 관련 대상의 관련 관계를 서술하는 것인바, 예를 들면 A 및/또는 B는, A가 단독적으로 존재하는 것, A와 B가 동시에 존재하는 것 및 B가 단독적으로 존재하는 것과 같은 세 가지 관계가 존재할 수 있음을 의미한다. 또한 본 명세서 내의 "적어도 두 가지”라는 용어는 복수 종 중의 임의 두 가지, 또는 복수 종 중의 적어도 두 가지의 임의 조합을 의미하는바, 예를 들면, A, B, C 중의 적어도 하나를 포함하는 것은, A, B 및 C로부터 구성된 집합 중에서 선택한 임의 두개 또는 복수의 요소를 의미한다.As used herein, the term “and/or” merely describes the related relationship of the related subject, for example, A and/or B are: A alone, A and B concurrently, and It means that there may be three relationships, such as the existence of alone B. The term "at least two" in this specification also means any two of a plurality of species, or any combination of at least two of a plurality of species. That is, for example, including at least one of A, B, and C means any two or a plurality of elements selected from the group consisting of A, B and C.

도 1은 본 발명의 실시예에 따른 지시등 검출 방법의 하나의 플로우를 나타내는 모식도이다. 도 1에 나타낸 바와 같이, 당해 실시예 방법은 단계110∼단계130을 포함한다.1 is a schematic diagram showing one flow of a method for detecting an indicator light according to an embodiment of the present invention. As shown in Fig. 1, the method of this embodiment includes steps 110 to 130.

단계110에 있어서, 수집된 도로 이미지를 인식하여 상기 도로 이미지 내의 지시등의 후보 경계 박스를 얻는다.In step 110, the collected road images are recognized to obtain candidate bounding boxes of indicator lights in the road images.

차량 또는 로봇 등의 지능 디바이스의 주행 과정에 있어서, 지능 디바이스 또는 지능 디바이스의 주위에 설치된 적어도 하나의 이미지 수집 장치(예를 들면 카메라 등)를 이용하여 지능 디바이스 주위의 도로 이미지를 수집한다.In the driving process of an intelligent device such as a vehicle or a robot, road images around the intelligent device are collected by using the intelligent device or at least one image collecting device (eg, a camera, etc.) installed around the intelligent device.

수집된 도로 이미지에 대한 인식을 통해, 예를 들면 수집한 도로 이미지를 사전에 트레이닝한 뉴럴 네트워크 모델에 입력하여, 상기 도로 이미지 내의 지시등의 후보 경계 박스를 얻을 수 있다. 상기 지시등은 예를 들면 교통 신호 등, 철도 신호 등 등을 포함하는바, 본 발명은 지시등의 타입에 대해 한정하지 않는다.Through recognition of the collected road images, for example, by inputting the collected road images into a pre-trained neural network model, candidate bounding boxes for indicators in the road images can be obtained. The indicator light includes, for example, a traffic signal light, a railroad signal, etc., and the present invention is not limited to the type of the indicator light.

단계120에 있어서, 상기 도로 이미지 내의 상기 후보 경계 박스에 대응하는 이미지 영역에 기반하여, 지시등의 복수의 분류를 예측하여 상기 지시등의 복수의 분류 예측 결과를 얻는다.In step 120, based on the image region corresponding to the candidate bounding box in the road image, a plurality of classifications of indicator lights are predicted to obtain a plurality of classification prediction results of the indicator lights.

여기서, 상기 복수의 분류는 용도 분류, 형상 분류, 배열 분류, 기능 분류, 색상 분류 및 지향 분류 중의 적어도 두 개를 포함한다.Here, the plurality of classifications include at least two of a use classification, a shape classification, an arrangement classification, a function classification, a color classification, and an orientation classification.

상기 복수의 분류는 복수의 측면 및 복수의 차원으로 지시등을 분류하는 것을 나타낸다. 지시등 분류 논리를 설계함으로써, 지시등의 분류가 다양한 타입의 지시등을 커버하도록 한다.The plurality of classification refers to classification of the indicator light into a plurality of aspects and a plurality of dimensions. By designing the indicator light classification logic, the classification of the indicator light can cover various types of indicator lights.

본 발명의 실시예에 있어서, 적어도 상기 복수의 분류 중의 두 개의 분류를 예측하고, 당해 두 개의 분류 중의 각 서브 분류에 대해 모두 유형 예측을 실행할 필요가 있다.In the embodiment of the present invention, it is necessary to predict at least two classifications among the plurality of classifications, and to perform type prediction for each sub-classification of the two classifications.

단계130에 있어서, 상기 지시등의 복수의 분류 예측 결과에 기반하여 상기 지시등의 전시 상태를 확정한다.In step 130, the display state of the indicator lamp is determined based on prediction results of a plurality of classifications of the indicator lamp.

각 분류의 예측 결과의 서로 다른 상황에 대응하여, 상기 지시등의 서로 다른 전시 상태를 확정할 수 있다.It is possible to determine different display states of the indicator lights according to different situations of the prediction results of each classification.

본 발명의 실시예에 있어서, 적어도 두 개의 분류 중의 각 분류의 예측 결과에 기반하여 지시등의 전시 상태를 확정한다.In an embodiment of the present invention, the display state of the indicator light is determined based on the prediction result of each of the at least two classifications.

본 실시예에 따르면, 높은 정밀도의 센서 등에 의존할 필요 없이, 카메라에 의해 수집된 도로 이미지를 이용하여 지시등의 검출 및 분류를 실행함으로써, 지시등의 검출에 필요한 디바이스 하드웨어의 비용을 효과적으로 절감할 수 있다. 도로 이미지 내의 지시등의 후보 경계 박스에 대응하는 이미지 영역을 인식하는 과정에 있어서, 지시등에 대해 명확한 분류 논리의 분할을 실행함으로써, 복수의 측면 및 복수의 차원으로 지시등을 분류하고, 얻어진 복수의 분류 예측 결과가 가능한 한 다양한 상황의 지시등을 커버하도록 하고, 다양한 상황의 지시등의 전시 상태의 판단에 유리하기 때문에, 지시등 검출의 포괄성과 정확성을 효과적으로 향상시킬 수 있다.According to this embodiment, it is possible to effectively reduce the cost of device hardware required for detecting the indicator light by executing the detection and classification of the indicator light using the road image collected by the camera, without having to rely on a high-precision sensor or the like. . In the process of recognizing the image region corresponding to the candidate bounding box of the indicator light in the road image, by executing a clear classification logic division on the indicator light, the indicator light is classified into a plurality of aspects and a plurality of dimensions, and a plurality of classification predictions obtained Since the result covers the indicator lights of various situations as much as possible, and is advantageous in judging the display state of the indicator lights of various situations, it is possible to effectively improve the comprehensiveness and accuracy of the indicator lamp detection.

이하의 설명에 있어서, 지시등 검출 방법을 더 상세하게 설명한다.In the following description, the indicator light detection method will be described in more detail.

도 2는 예시적인 지시등 분류 논리를 나타낸다. 도 2에 나타낸 바와 같이, 용도 분류는 예를 들면 당해 지시등이 보행자를 지시하기 위하여 사용되는 것 / 당해 지시등이 차량을 지시하기 위하여 사용되는 것을 포함할 수 있다. 지시등이 차량을 지시하기 위하여 사용되는 것일 경우, 형상 분류는 예를 들면 당해 지시등이 풀 스크린 라이트(원형 등이라고도 불림)에 속하는 것 / 화살표 등에 속하는 것을 포함할 수 있고, 배열 분류는 예를 들면, 당해 지시등이 수평 배열에 속하는 것 / 연직 배열에 속하는 것 / 단독 지시등에 속하는 것을 포함할 수 있으며, 기능 분류는 예를 들면, 당해 지시등이 통상의 지시등에 속하는 것 / 경고 등에 속하는 것 / 전자 요금 징수(Electronic Toll Collection, ETC)지시등에 속하는 것을 포함할 수 있고, 색상 분류는 예를 들면 당해 지시등이 빨간색 등에 속하는 것 / 황색 등에 속하는 것 / 녹색 등에 속하는 것 / 알 수 없는 색(점등되지 않은 상황에 대응됨)에 속하는 것을 포함할 수 있다. 당해 지시등이 화살표 등일 경우, 지향 분류는 예를 들면 좌/우/앞/왼쪽 앞/오른쪽 앞을 포함할 수 있다. 당업자는 지시등의 분류는 상기에 한정되지 않으며, 기타 측면 또는 차원의 분류를 포함할 수 있음을 이해해야 한다.2 illustrates an exemplary indicator light classification logic. As shown in FIG. 2 , the usage classification may include, for example, that the indicator light is used to indicate a pedestrian / that the indicator light is used to indicate a vehicle. When the indicator light is used to indicate a vehicle, the shape classification may include, for example, that the indicator light belongs to a full screen light (also called a circular light) / arrow or the like, and the arrangement classification is, for example, It may include that the indicator light belongs to a horizontal arrangement / belongs to a vertical arrangement / belongs to a single indicator light, and the function classification is, for example, that the indicator light belongs to a normal indicator / warning, etc. / electronic toll collection (Electronic Toll Collection, ETC) may include those belonging to the indicator light, and the color classification is, for example, that the indicator belongs to red, etc. / belongs to yellow, etc. / belongs to green, etc. / unknown color corresponding) may be included. When the indicator light is an arrow or the like, the direction classification may include, for example, left/right/front/left front/right front. Those skilled in the art should understand that the classification of the indicator light is not limited to the above, and may include classification of other aspects or dimensions.

지시등의 복수의 분류 예측 결과를 얻기 위하여, 사전에 라벨링된 정보를 포함하는 도로 이미지(샘플 이미지로 불림)를 이용하여 뉴럴 네트워크 모델을 트레이닝(트레이닝 과정은 나중에 상세하게 설명함)할 수 있고, 트레이닝된 뉴럴 네트워크 모델은 입력된 도로 이미지 내에서 지시등을 인식하여, 인식된 지시등의 복수의 분류를 예측하여 복수의 분류 예측 결과를 얻을 수 있다.In order to obtain a plurality of classification prediction results of indicators, a neural network model may be trained (training process will be described in detail later) using a road image (referred to as a sample image) including previously labeled information, and The obtained neural network model recognizes an indicator in the input road image, predicts a plurality of classifications of the recognized indicator, and obtains a plurality of classification prediction results.

몇몇의 실시예에 있어서, 뉴럴 네트워크 모델에 포함되어 있는 복수의 서브 네트워크 브랜치를 이용하여 상기 지시등의 복수의 분류를 각각 예측하여 상기 지시등의 복수의 분류 예측 결과를 얻을 수 있으며, 여기서, 상기 복수의 서브 네트워크 브랜치의 수량은 상기 복수의 분류 수량과 동일하며, 각 서브 네트워크 브랜치는 상기 복수의 분류 중의 하나의 분류의 서브 유형을 인식하기 위하여 사용된다.In some embodiments, a plurality of classifications of the indicator light may be predicted by using a plurality of subnetwork branches included in the neural network model, and a plurality of classification prediction results of the indicator light may be obtained, where the plurality of The number of subnetwork branches is equal to the plurality of classification quantities, and each subnetwork branch is used to recognize a subtype of one of the plurality of classifications.

도 3a는 본 발명의 적어도 하나의 실시예에 의해 제공되는 뉴럴 네트워크 모델의 네트워크 구성의 모식도이며, 도 3a에 나타낸 바와 같이, 당해 뉴럴 네트워크 모델은 특징 추출 층(301), 영역 후보(Region Proposal Network)층(302), 풀링 층(303)및 완전 접속 층(304)을 포함한다. 여기서, 완전 접속 층(304)은 회귀 브랜치(3041)와 복수의 서브 네트워크 브랜치(3042)을 포함한다.3A is a schematic diagram of a network configuration of a neural network model provided by at least one embodiment of the present invention. As shown in FIG. 3A , the neural network model includes a feature extraction layer 301 and a region candidate (Region Proposal Network). ) layer 302 , a pulling layer 303 and a fully connected layer 304 . Here, the fully connected layer 304 includes a regression branch 3041 and a plurality of subnetwork branches 3042 .

옵션의 일 실시 형태에 있어서, 완전 접속 층(304)은 컨볼루션 층을 더 포함하며, 당해 컨볼루션 층은 풀링 층(303)과 접속된다.In one optional embodiment, the fully connected layer 304 further comprises a convolutional layer, the convolutional layer being connected with the pooling layer 303 .

도 3b는 도 3a 중의 뉴럴 네트워크 모델을 이용하여 지시등의 복수의 분류 예측을 실행하는 방법의 플로우를 나타내는 모식도이며, 도 3b에 나타낸 바와 같이, 당해 방법은 단계 310∼340을 포함한다.Fig. 3B is a schematic diagram showing a flow of a method for executing a plurality of classification predictions of indicators using the neural network model in Fig. 3A, and as shown in Fig. 3B, the method includes steps 310 to 340;

단계 310에 있어서, 상기 특징 추출 층을 이용하여 상기 도로 이미지의 특징 맵을 얻는다.In step 310, a feature map of the road image is obtained using the feature extraction layer.

특징 추출 층(301)은 입력된 도로 이미지의 특징을 추출하는 데에 사용되며, 당해 특징 추출 층(301)은 컨볼루션 뉴럴 네트워크일 수 있으며, 예를 들면, 기존의 시각적 기하학 그룹(Visual Geometry Group, VGG)네트워크, 잔차 네트워크(Residual Network, ResNet), 고밀도 접속 네트워크(Dense Connection Network, DenseNet)등을 채용할 수 있으며, 또한 기타 컨볼루션 뉴럴 네트워크를 채용할 수도 있다. 본 발명은 특징 추출 층(301)의 구체적인 구성에 대해 한정하지 않는다. 옵션의 일 실시 형태에 있어서, 특징 추출 층(301)은 컨볼루션 층, 활성화 층, 풀링 층 등의 네트워크 유닛을 포함할 수 있고, 상술한 네트워크 유닛은 일정한 방식을 따라 적층될 수 있다. 여기서, 컨볼루션 층은 복수의 컨볼루션 커널을 이용하여 각각 입력된 도로 이미지 내의 서로 다른 특징을 추출하여 복수의 특징 맵을 얻을 수 있으며, 풀링 층은 컨볼루션 층의 뒤에 위치하여, 특징 맵에 대해 로컬 평균화와 다운 샘풀링의 조작을 실행하며, 특징 맵의 해상도를 저하시킬 수 있다. 컨볼루션 층과 풀링 층의 수량의 증가에 따라, 특징 맵의 수량이 점점 많아지고, 특징 맵의 해상도가 점점 저하된다.The feature extraction layer 301 is used to extract features of the input road image, and the feature extraction layer 301 may be a convolutional neural network, for example, an existing Visual Geometry Group (Visual Geometry Group). , VGG) networks, residual networks (ResNet), dense connection networks (DenseNet), etc. may be employed, and other convolutional neural networks may also be employed. The present invention does not limit the specific configuration of the feature extraction layer 301 . In an optional embodiment, the feature extraction layer 301 may include network units such as a convolution layer, an activation layer, a pooling layer, and the like, and the above-described network units may be stacked in a certain manner. Here, the convolution layer can obtain a plurality of feature maps by extracting different features from each input road image using a plurality of convolution kernels, and the pooling layer is located behind the convolution layer, Local averaging and downsampling are performed, and the resolution of the feature map can be reduced. As the number of convolutional layers and pooling layers increases, the number of feature maps gradually increases, and the resolution of the feature maps gradually deteriorates.

단계 320에 있어서, 상기 영역 후보 층을 이용하여 상기 특징 맵에 대한 처리를 실행하여, 상기 도로 이미지 내의 지시등의 후보 경계 박스를 생성한다.In step 320, processing is performed on the feature map by using the area candidate layer to generate a candidate bounding box of an indicator light in the road image.

영역 후보 층(302)은 지시등의 후보 경계 박스를 예측하기 위하여 사용되는바, 즉 후보 경계 박스의 예측 정보를 생성한다. 영역 후보 층(302)은 영역 후보 네트워크(RPN, Region Proposal Network)에 있을 수 있으며, 본 발명은 영역 후보 층(302)의 구체적인 구성에 대해 한정하지 않는다. 옵션의 일 실시 형태에 있어서, 영역 후보 층(302)은 컨볼루션 층, 분류 층, 회귀 층 등의 네트워크 유닛을 포함할 수 있으며, 상술한 네트워크 유닛이 일정한 방식을 따라 적층되어 생성된다. 여기서, 컨볼루션 층은 슬라이딩 윈도우(예를 들면 3*3임)를 이용하여 입력한 특징 맵에 대해 컨볼루션을 실행하며, 각 윈도우는 복수의 앵커(anchor)박스에 대응되고, 각 윈도우는 하나의 분류 층 및 회귀 층과 완전 접속하기 위한 벡터를 생성한다. 당해 분류 층은 앵커 박스에 의해 생성된 후보 경계 박스 내의 이미지 영역이 전경인지 배경인지를 판단하고, 회귀 층은 후보 경계 박스의 대략적인 위치를 얻기 위하여 사용되며, 분류 층 및 회귀 층의 출력 결과에 기반하여 지시등을 포함하는 후보 경계 박스를 예측하고, 당해 후보 경계 박스 내의 이미지 영역이 전경인 확률 또는 배경인 확률 및 당해 후보 경계 박스의 위치 파라미터를 출력한다.The region candidate layer 302 is used to predict a candidate bounding box of an indicator, that is, generates prediction information of a candidate bounding box. The region candidate layer 302 may be in a region candidate network (RPN), and the present invention does not limit the specific configuration of the region candidate layer 302 . In an optional embodiment, the region candidate layer 302 may include network units such as a convolution layer, a classification layer, a regression layer, and the like, and the above-described network units are generated by stacking them in a certain manner. Here, the convolution layer performs convolution on the input feature map using a sliding window (for example, 3*3), each window corresponds to a plurality of anchor boxes, and each window has one Generate vectors for full access to the classification and regression layers of The classification layer determines whether the image region in the candidate bounding box generated by the anchor box is foreground or background, and the regression layer is used to obtain the approximate position of the candidate bounding box, and is based on the output results of the classification layer and the regression layer. Based on the prediction, the candidate bounding box including the indicator light is predicted, and the probability that the image area in the candidate bounding box is the foreground or the background and the position parameter of the candidate bounding box are output.

당해 단계에 있어서, 생성된 후보 경계 박스는 Region Proposal로 불릴 수 있으며, 후속의 단계에 있어서 당해 영역은 관심 영역(Region of Interest, ROI)이라고 불릴 수 있다.In this step, the generated candidate bounding box may be called a Region Proposal, and in a subsequent step, the corresponding region may be called a Region of Interest (ROI).

단계 330에 있어서, 상기 풀링 층을 이용하여 상기 후보 경계 박스의 특징 맵 중의 대응되는 소정의 크기의 이미지 특징을 얻는다.In step 330, an image feature of a corresponding predetermined size in the feature map of the candidate bounding box is obtained by using the pooling layer.

본 단계에 있어서, 풀링 층(303)을 채용하여 각 ROI에 대해 소정의 크기(고정 사이즈인바, 예를 들면 7Х7임)의 특징 맵을 추출하는바, 즉 단계 320에서 얻어진 크기가 다른 ROI를 크기가 동일한 영역으로 매핑하며, 당해 과정을 ROI 풀링(ROI Polling)이라고 부를 수 있다. 풀링 층(303)을 채용하여 크기가 동일한 영역에 대한 특징 추출을 실행함으로써, 당해 ROI에 대응하는 이미지 특징을 얻을 수 있다.In this step, the pooling layer 303 is employed to extract a feature map of a predetermined size (a fixed size, for example, 7Х7) for each ROI, that is, ROIs having different sizes obtained in step 320 are sized. maps to the same region, and this process can be called ROI polling. By employing the pooling layer 303 to perform feature extraction on regions having the same size, image features corresponding to the ROI can be obtained.

단계 340에 있어서, 상기 완전 접속 층(304)을 통해 상기 지시등의 복수의 분류 예측 결과를 얻는다. 당해 완전 접속 층(304)은 회귀 브랜치(3041)와 복수의 서브 네트워크 브랜치(3042)를 포함한다. 회귀 브랜치(3041)와 각 서브 네트워크 브랜치(3042)는 각각 1Х1의 컨볼루션 커널을 이용하여 특징 추출을 한층 더 실행한다. 당해 1Х1의 컨볼루션 커널은 각 채널에 대해 서로 다른 파라미터를 가지며, 완전 접속의 기능에 상당한다.In step 340 , a plurality of classification prediction results of the indicator light are obtained through the fully connected layer 304 . The fully connected layer 304 includes a regression branch 3041 and a plurality of subnetwork branches 3042 . The regression branch 3041 and each subnetwork branch 3042 further perform feature extraction using a convolution kernel of 1Х1, respectively. The convolutional kernel of 1Х1 has different parameters for each channel, and corresponds to a function of complete connection.

여기서, 회귀 브랜치(3041)는 상술한 후보 경계 박스에 대해 회귀를 실행하여, 후보 경계 박스의 위치를 수정함으로써, 지시등의 경계 박스에 대해 더 정확하게 위치 확인을 실행한다. 회귀 브랜치(3041)는 트레이닝 과정에서 학습을 통해 얻은 후보 경계 박스와 실제 경계 박스 사이의 변환 관계를 이용하여 지시등의 경계 박스를 예측하여 얻는바, 즉 지시등의 경계 박스의 위치 정보를 예측하여 얻을 수 있다. 당해 위치 정보는(x1, y1, x2, y2)로 나타낼 수 있으며, 여기서, x1, y1은 예측된 경계 박스의 왼쪽 위 모서리 좌표이고, x2, y2은 예측된 경계 박스의 오른쪽 아래 모서리 좌표이다. 당해 위치 정보는(x, y, w, h)로 나타낼 수도 있으며, 여기서 x, y는 예측된 경계 박스 중심점의 좌표를 나타내며, w, h는 각각 예측된 경계 박스의 폭 및 높이를 나타낸다.Here, the regression branch 3041 performs regression on the above-described candidate bounding box, correcting the position of the candidate bounding box, thereby more accurately positioning the bounding box of the indicator light. The regression branch 3041 is obtained by predicting the bounding box of the indicator using the transformation relationship between the candidate bounding box and the actual bounding box obtained through learning in the training process, that is, it can be obtained by predicting the position information of the bounding box of the indicator. there is. The location information may be expressed as (x1, y1, x2, y2), where x1 and y1 are the coordinates of the upper left corner of the predicted bounding box, and x2, y2 are the coordinates of the lower right corner of the predicted bounding box. The location information may be expressed as (x, y, w, h), where x and y represent the coordinates of the predicted bounding box center point, and w and h represent the predicted width and height of the bounding box, respectively.

여기서, 각 서브 네트워크 브랜치(3042)는 상술한 복수의 분류 중에 하나의 분류의 서브 유형을 인식하기 위하여 사용된다.Here, each subnetwork branch 3042 is used to recognize a subtype of one classification among the plurality of classifications described above.

일 예에 있어서, 상기 서브 네트워크 브랜치는 이하의 방식에 의해 지시등의 복수의 분류 예측 결과를 얻을 수 있는바, 당해 방식은, 상기 후보 경계 박스에 대응하는 이미지 특징 및 상기 복수의 서브 네트워크 브랜치 중의 제1 서브 네트워크 브랜치를 이용하여 상기 지시등의 복수의 분류 중의 제1 분류를 예측하여, 제1 분류에 대응하는 적어도 두 개의 서브 유형의 예측 확률을 얻는 것; 및 상기 적어도 두 개의 서브 유형 중의 상기 예측 확률이 가장 높은 서브 유형을 상기 지시등의 상기 제1 분류의 서브 유형으로 마크하는 것을 포함한다.In an example, the subnetwork branch may obtain a plurality of classification prediction results such as an indicator by the following method, wherein the method includes an image feature corresponding to the candidate bounding box and a first among the plurality of subnetwork branches. predicting a first classification among a plurality of classifications of the indicator light by using one subnetwork branch to obtain prediction probabilities of at least two subtypes corresponding to the first classification; and marking a subtype having the highest prediction probability among the at least two subtypes as a subtype of the first classification of the indicator light.

여기서, 상기 제1 서브 네트워크 브랜치는 복수의 서브 네트워크 브랜치 중의 임의의 하나일 수 있고, 상기 제1 분류는 복수의 분류 중의 임의 하나의 분류일 수 있다.Here, the first subnetwork branch may be any one of a plurality of subnetwork branches, and the first classification may be any one of a plurality of classifications.

예를 들면, 제1 서브 네트워크 브랜치는 형상 분류를 실행하기 위한 서브 네트워크 브랜치일 수 있으며, 형상 분류에 대응하는 두 개의 서브 유형(풀 스크린 라이트 및 화살표 등)의 예측 확률을 얻을 수 있다. 예를 들면 풀 스크린 라이트의 예측 확률은 90%이고, 화살표 등의 예측 확률은 10%이다. 이 경우, 당해 서브 네트워크 브랜치는 예측 확률이 가장 높은 서브 유형 즉 풀 스크린 라이트를 형상 분류의 서브 유형으로 마크한다.For example, the first subnetwork branch may be a subnetwork branch for performing shape classification, and prediction probabilities of two subtypes (full screen light and arrow, etc.) corresponding to shape classification may be obtained. For example, the prediction probability of a full screen light is 90%, and the prediction probability of an arrow etc. is 10%. In this case, the sub-network branch in question marks the subtype with the highest prediction probability, that is, full screen light, as the subtype of shape classification.

상기 지시등의 복수의 분류 사이는 층차적인바, 즉 논리관계가 있기 때문에, 지시등의 복수의 분류 예측 결과에 기반하여 공동으로 지시등의 전시 상태를 확정할 필요가 있다.Since there is a hierarchical bar, that is, a logical relationship between the plurality of classifications of the indicator lights, it is necessary to jointly determine the display state of the indicator lights based on the prediction results of the plurality of classifications of the indicator lights.

몇몇의 실시예에 있어서, 이하의 방식을 이용하여 지시등의 전시 상태를 확정한다.In some embodiments, the display state of the indicator light is determined using the following method.

상기 복수의 분류가 상기 용도 분류 및 상기 형상 분류를 포함하는 동시에, 상기 용도 분류의 예측 결과가 상기 지시등이 차량을 지시하는 것이고, 상기 형상 분류의 예측 결과가 상기 지시등이 원형 등인 것일 경우, 상기 배열 분류, 상기 기능 분류 및 상기 색상 분류에 각각 대응하는 예측 결과를 결합시켜 상기 지시등의 제1 전시 상태를 얻고,When the plurality of classifications include the use classification and the shape classification, and the prediction result of the use classification is that the indicator light indicates a vehicle, and the prediction result of the shape classification is that the indicator light is a circular light, the arrangement a first display state of the indicator light is obtained by combining the prediction results corresponding to the classification, the function classification, and the color classification, respectively;

상기 복수의 분류가 상기 용도 분류 및 상기 형상 분류를 포함하는 동시에, 상기 용도 분류의 예측 결과가 상기 지시등이 차량을 지시하는 것이고, 상기 형상 분류의 예측 결과가 상기 지시등이 화살표 등인 것일 경우, 상기 색상 분류 및 상기 지향 분류에 각각 대응하는 예측 결과를 결합시켜 상기 지시등의 제2 전시 상태를 얻으며,When the plurality of classifications include the use classification and the shape classification, and the prediction result of the use classification is that the indicator indicates a vehicle, and the predictive result of the shape classification is that the indicator light is an arrow, the color combining the classification and the prediction result respectively corresponding to the directed classification to obtain a second display state of the indicator light,

상기 복수의 분류가 상기 용도 분류를 포함하는 동시에, 상기 용도 분류의 예측 결과가 상기 지시등이 보행자를 지시하는 것일 경우, 상기 지시등의 제3전시 상태를 얻는다.When the plurality of classifications include the use classification and the prediction result of the use classification is that the indicator light indicates a pedestrian, a third display state of the indicator light is obtained.

도 4는 지시등 검출의 예시적인 출력 결과를 나타내며, 도 4에 나타낸바와 같이, 당해 검출 결과는 예측하여 얻어진 지시등의 경계 박스 및 당해 지시등의 복수의 분류 예측 결과를 포함하고, 또한 당해 예측하여 얻어진 경계 박스의 신뢰도 평가를 더 포함할 수 있다. 당해 신뢰도 평가는 당해 예측하여 얻어진 경계 박스에 지시등이 존재할 가능성 및 예측하여 얻어진 경계 박스 위치의 정확성을 종합적으로 반영한다.Fig. 4 shows an exemplary output result of indicator light detection, as shown in Fig. 4 , the detection result includes a bounding box of an indicator light obtained by prediction and a plurality of classification prediction results of the indicator light, and a boundary obtained by prediction It may further include evaluating the reliability of the box. The reliability evaluation comprehensively reflects the possibility that the indicator light is present in the bounding box obtained by the prediction and the accuracy of the position of the bounding box obtained by the prediction.

도 4에 나타낸바와 같이, 당해 도로 이미지 내에(출력하는 예측 결과를 명확히 표시하기 위하여 일부의 도로 이미지만을 표시함), 예측하여 얻어진 3개의 지시등의 경계 박스를 출력한다. 여기서, 검은색의 직사각 형 경계 박스 내의 지시등의 분류 예측 결과는 "빨강, 수평”(red horizon)이며, 당해 지시등이 수평으로 배열되고, 빨간색의 통상 지시등인 것을 나타내며, 당해 예측하여 얻어진 경계 박스의 신뢰도 평가가 1.0이다. 통상의 지시등의 분류 예측 결과는 표시하지 않는 것으로(비표시)설정되어 있기 때문에, 당해 지시등의 전시 상태는 제1 전시 상태에 대응된다.As shown in Fig. 4, in the road image (only a part of the road image is displayed to clearly display the prediction result to be output), a bounding box of three indicator lights obtained by prediction is output. Here, the classification prediction result of the indicator in the black rectangular bounding box is “red horizon”, indicating that the indicator is horizontally arranged and is a red normal indicator, and the bounding box obtained by the prediction is The reliability evaluation is 1.0. Since the classification prediction result of a normal indicator light is set to not be displayed (not displayed), the display state of the indicator lamp corresponds to the first display state.

검은색의 정방형 경계 박스 내의 지시등의 분류 예측 결과는 "알 수 없는 색, 단독”인바, 즉, 당해 지시등은 단독적이고, 점등되지 않은 지시등인 것을 나타내며, 이 두 개의 분류 예측 결과는 비표시로 설정되어 있기 때문에, 이미지에 표시하지 않으며, 제1 전시 상태에 대응된다. 당해 예측하여 얻어진 경계 박스의 신뢰도 평가는 0.98이다.The classification prediction result of the indicator in the black square bounding box is "unknown color, single", that is, the indicator is independent and indicates that the indicator is not lit, and the prediction results of these two classifications are set to not displayed. Therefore, it is not displayed in the image and corresponds to the first display state.The reliability evaluation of the bounding box obtained by the prediction is 0.98.

백색의 정방형 내의 지시등의 분류 예측 결과는 "녹색, 화살표, 좌”(green arrow left)인바, 당해 지시등이 단독적의 화살표 형상의 지시등이고, 색상이 녹색이며, 지향이 좌인 것을 나타내며, 당해 예측하여 얻어진 경계 박스의 신뢰도 평가는 0.99이다. 당해 지시등의 전시 상태는 제2 전시 상태에 대응된다.The classification prediction result of the indicator in the white square is "green, arrow, left", the indicator is a single arrow-shaped indicator, the color is green, and the direction is left, and the result obtained by the prediction The reliability evaluation of the bounding box is 0.99 The display state of the indicator light corresponds to the second display state.

지시등의 전시 상태를 확정하는 것은 지시등이 항상 켜짐 또는 깜박임의 상태인지를 판단하는 것을 더 포함하며, 따라서 지능 디바이스가 자동적으로 주행하도록 더 잘 안내할 수 있고, 지능 디바이스가 교통 룰을 준수하여 안전 운전을 실현하도록 한다.Determining the display state of the indicator light further includes determining whether the indicator light is always on or flashing, so that the intelligent device can better guide the driving automatically, and the intelligent device complies with the traffic rules to drive safely to realize

몇몇의 실시예에 있어서, 소정의 시간 내에 수집한 복수의 도로 이미지 내의 동일한 위치의 상기 지시등 및 상기 지시등의 복수의 분류 예측 결과를 얻고, 상기 복수의 도로 이미지 내의 동일한 위치의 상기 지시등의 복수의 분류 예측 결과에 기반하여 상기 지시등의 전시 상태를 판단한다.In some embodiments, the indicator light and a plurality of classification prediction results of the indicator light at the same position in the plurality of road images collected within a predetermined time are obtained, and a plurality of classifications of the indicator light at the same position in the plurality of road images are obtained. The display state of the indicator light is determined based on the prediction result.

하나의 옵션의 실시 형태에 있어서, 연속된 프레임의 도로 이미지를 수집하고, 상기 복수의 도로 이미지 내의 동일한 위치의 상기 지시등을 얻을 수 있다. 상기 연속된 프레임의 이미지는 연속적으로 촬영한 복수의 프레임의 이미지일 수 있고, 또한 연속적으로 촬영한 복수의 프레임의 이미지 중에서 몇개의 프레임을 일정한 간격으로 하나의 목표 프레임을 선택하여, 연속으로 선택한 복수의 목표 프레임을 연속된 프레임으로 간주할 수도 있다.In one optional embodiment, it is possible to collect consecutive frames of road images, and obtain the indicator lights at the same location in the plurality of road images. The image of the continuous frame may be an image of a plurality of frames taken continuously, and a plurality of consecutively selected frames by selecting one target frame at regular intervals from several frames from among the images of a plurality of frames taken continuously The target frame of may be regarded as a continuous frame.

도 5는 검출된 지시등이 동일한 위치의 지시등인지 여부를 판단하는 방법의 플로우를 나타내는 모식도이며, 도 5에 나타낸 바와 같이, 당해 방법은 이하의 단계를 포함한다.Fig. 5 is a schematic diagram showing a flow of a method for determining whether a detected indicator light is an indicator light at the same position, and as shown in Fig. 5 , the method includes the following steps.

단계510에 있어서, 상기 지시등의 상기 연속된 프레임의 도로 이미지의 제1 프레임의 이미지 내의 위치를 얻는다.In step 510, the position of the indicator light in the image of the first frame of the road image of the successive frame is obtained.

즉, 소정의 시간 내의 시작 프레임 내의 예측하여 얻어진 지시등의 위치를 얻는다.That is, the position of the indicator lamp obtained by prediction within the start frame within a predetermined time is obtained.

상술한 지시등 검출 방법에 따르면, 도로 이미지 내의 지시등을 검출한 후에, 뉴럴 네트워크 모델을 이용하여 이미지 내의 지시등의 위치를 얻을 수 있는바, 즉 예측하여 얻어진 지시등의 경계 박스의 위치 파라미터를 얻을 수 있다. 또한 화상 처리의 방식에 따라, 이미지 내의 검출된 지시등의 위치를 얻을 수 있다.According to the indicator light detection method described above, after detecting the indicator lamp in the road image, the position of the indicator lamp in the image can be obtained using the neural network model, that is, the position parameter of the bounding box of the indicator lamp obtained by prediction can be obtained. Also, according to the manner of image processing, the position of the detected indicator light in the image can be obtained.

단계520에 있어서, 상기 지시등의 상기 제1 프레임의 이미지 내의 위치 및 상기 도로 이미지를 촬영하는 디바이스의 운동 속도와 촬영 빈도에 기반하여, 상기 지시등의 상기 연속된 프레임의 도로 이미지 중의 상기 제1 프레임의 이미지 이외의 기타 각 프레임의 이미지 내의 제1 위치를 계산한다.In step 520, based on the position of the indicator light in the image of the first frame and the movement speed and shooting frequency of the device for capturing the road image, the first frame of the road image of the consecutive frame of the indicator light is A first position in the image of each frame other than the image is calculated.

상기 도로 이미지를 촬영하는 디바이스는 이미지 수집 장치(예를 들면 카메라 등)이며, 당해 디바이스의 운동 속도는 자동적으로 주행하는 지능 디바이스의 운동 속도와 동일하며, 촬영 빈도는 미리 설정되거나 디바이스의 구성을 판독하여 취득된다. 시작 프레임 내의 이미지 내의 지시등의 위치가 이미 알려진 경우, 당해 디바이스의 운동 속도 및 촬영 빈도에 기반하여, 후속의 각 프레임(기타 프레임 즉 연속된 프레임의 이미지 중의 상기 제1 프레임 이외의 이미지)내의 당해 지시등의 이미지 내의 이론 상의 위치를 계산할 수 있다. 당해 위치를 제1 위치로 부름으로써, 후속의 단계의 위치와 구별한다.The device for photographing the road image is an image collection device (eg, a camera, etc.), the movement speed of the device is the same as the movement speed of the automatically running intelligent device, and the photographing frequency is preset or the configuration of the device is read is obtained by If the position of the indicator in the image in the start frame is already known, the indicator in each subsequent frame (that is, an image other than the first frame in the images of other frames in successive frames) based on the movement speed and shooting frequency of the device. We can compute the theoretical position within the image of By calling this position the first position, it is distinguished from the position of a subsequent step.

단계530에 있어서, 상기 지시등의 상기 연속된 프레임의 이미지 중의 상기 기타의 각 프레임의 이미지 내의 제2 위치를 얻는다.In step 530, a second position in the image of each other frame of the image of the successive frame of the indicator light is obtained.

후속의 각 프레임에 대해, 뉴럴 네트워크 모델을 이용하여 검출된 지시등의 이미지 내의 위치를 예측할 수 있거나, 또는 화상 처리 방식을 통해 검출된 지시등의 이미지 내의 위치를 얻을 수 있으며, 당해 위치를 제2 위치라고 부른다.For each subsequent frame, the position in the image of the detected indicator light can be predicted using the neural network model, or the position of the detected indicator light can be obtained through the image processing method, and the position is referred to as the second position. call

단계540에 있어서, 상기 기타 프레임의 이미지 중의 각 프레임의 이미지에 대해, 상기 제2 위치와 제1 위치 사이의 차이가 소정의 값 미만이면, 상기 연속된 프레임의 도로 이미지 내에서 검출된 지시등이 동일한 위치의 지시등인 것으로 확정한다.In step 540, if the difference between the second position and the first position is less than a predetermined value for the image of each frame among the images of the other frames, the indicator lights detected in the road images of the successive frames are the same Confirm that it is a position indicator light.

동일한 위치의 지시등에 대해, 단계530에서 검출된 지시등 이미지 내의 제2 위치는 단계520에서 계산하여 얻은 제1 위치와 접근되어 있을 것이다. 따라서, 후속의 각 프레임에 대해, 제2 위치와 제1 위치 사이의 차이가 소정의 값 미만이면, 상기 연속된 프레임의 도로 이미지 내에서 검출된 지시등이 동일한 위치의 지시등인 것으로 확정하고, 그렇지 않으면 동일한 위치의 지시등이 아니라고 판단한다. 검출된 지시등이 동일한 위치의 지시등이 아니면, 후속의 지시등 상태를 판단하는 단계를 실행할 필요가 없다. 당업자는 상술한 소정의 값은 필요한 검출 정확도에 따라 설정할 수 있음을 이해해야 한다.For the indicator light at the same position, the second position in the indicator light image detected in step 530 may be close to the first position calculated in step 520 . Therefore, for each subsequent frame, if the difference between the second position and the first position is less than a predetermined value, it is determined that the indicator light detected in the road image of the successive frames is the indicator light of the same position, otherwise It is judged that the indicator lights are not in the same position. If the detected indicator lights are not indicators of the same position, there is no need to execute the step of determining the status of the subsequent indicator lights. A person skilled in the art should understand that the above-described predetermined value can be set according to the required detection accuracy.

복수의 도로 이미지 내의 동일한 위치의 상기 지시등을 얻은 후, 복수의 도로 이미지 내의 동일한 위치의 지시등의 복수의 분류 예측 결과가 그대로 유지되었는지 아니면 변화되었는지를 비교함으로써, 상기 지시등이 항상 켜짐 상태에 있는지 아니면 깜박임 상태에 있는지를 판단할 수 있다.After obtaining the indicator light at the same position in a plurality of road images, by comparing whether a plurality of classification prediction results of the indicator light at the same position in a plurality of road images are maintained or changed, whether the indicator light is always on or blinks state can be determined.

하나의 옵션의 실시 형태에 있어서, 상기 복수의 도로 이미지 내의 동일한 위치의 지시등의 색상 분류 예측 결과가 동일할 경우, 상기 지시등의 전시 상태를 항상 켜짐인 것으로 판단하고,In one optional embodiment, when the color classification prediction results of the indicator lights at the same location in the plurality of road images are the same, it is determined that the display state of the indicator lights is always on,

상기 복수의 이미지 내의 동일한 위치의 지시등의 색상 분류 예측 결과가 간격을 두고 변화하는 것일 경우, 상기 지시등의 전시 상태를 깜박임인 것으로 판단한다.When the color classification prediction result of the indicator lamp at the same position in the plurality of images changes at intervals, it is determined that the display state of the indicator lamp is blinking.

예를 들면, 상술한 복수의 도로 이미지 중의 동일한 위치의 지시등의 색상 분류의 예측 결과가 동일하면, 소정의 시간(예를 들면 3초)내에서, 당해 지시등의 색이 변화되지 않은 것을 의미하기 때문에, 당해 지시등이 항상 켜짐 상태에 있는 것으로 판단할 수 있다. 여기에서의 예측 결과가 동일한 색상 분류는 알 수 없는 색을 포함하지 않는 것에 주의할 필요가 있다.For example, if the prediction result of color classification of the indicator light at the same position in the plurality of road images described above is the same, it means that the color of the indicator light does not change within a predetermined time (for example, 3 seconds). , it may be determined that the indicator light is always on. It is worth noting that color classifications with the same prediction result here do not include unknown colors.

상술한 복수의 도로 이미지 중의 동일한 위치의 지시등의 색상 분류의 예측 결과가 간격을 두고 변화하면, 예를 들면, 일정한 기간 내에서 색상 분류의 예측 결과가 녹색이고, 또 다른 일정한 기간 내에서 색상 분류의 예측 결과가 알 수 없는 색(또는 여기에 등이 있는 것으로 검출할 수 없음)이고, 또한 이 두 개의 상황이 번갈아 나타나면, 소정의 시간 내에서 당해 지시등의 색상에 교체적인 변화가 발생한 것을 의미하기 때문에, 당해 지시등이 깜박임 상태에 있다고 판단할 수 있다.If the prediction result of color classification of the indicator light at the same position in the above-described plurality of road images changes at intervals, for example, the prediction result of color classification within a certain period is green, and the color classification of the color classification within another period of time is green. If the predicted result is an unknown color (or it cannot be detected that there is a light here), and these two situations alternate, it means that the color of the indicator light has alternately changed within a predetermined time. , it may be determined that the indicator is in a blinking state.

이하의 설명에 있어서는 뉴럴 네트워크 모델을 어떻게 트레이닝할지를 설명한다. 도 6은 본 발명의 실시예의 뉴럴 네트워크 모델의 트레이닝 방법의 하나의 플로우를 나타내는 모식도이다. 도 6에 나타낸바와 같이, 당해 실시예 방법은 이하의 단계를 포함한다.The following description describes how to train a neural network model. 6 is a schematic diagram showing one flow of a training method for a neural network model according to an embodiment of the present invention. As shown in FIG. 6 , the method of this example includes the following steps.

단계610에 있어서, 지시등을 포함하는 샘플 이미지를 상기 뉴럴 네트워크 모델에 입력하고, 지시등의 복수의 분류 예측 결과 및 경계 박스 예측 결과를 얻는다.In step 610, a sample image including indicator lights is input to the neural network model, and a plurality of classification prediction results of indicator lights and bounding box prediction results are obtained.

트레이닝을 실행하기 전에, 먼저 뉴럴 네트워크 모델에 대해 초기화를 실행하여, 초기화된 네트워크 파라미터를 확정한다.Before training, initialization is performed on the neural network model to determine the initialized network parameters.

뉴럴 네트워크 모델에 입력하는 샘플 이미지는 지시등을 포함하는 도로 이미지일 수 있고, 당해 샘플 이미지 내에 지시등의 라벨링 정보를 사전에 라벨링할 수 있으며, 당해 라벨링 정보는 지시등의 실제 경계 박스 정보를 포함하는바, 예를 들면, 당해 경계 박스의 좌측 상부 정점의 좌표 및 좌측 하부 정점의 좌표를 포함하며, 또한 당해 라벨링 정보는 지시등의 복수의 분류 정보를 더 포함한다.The sample image input to the neural network model may be a road image including an indicator, and labeling information of the indicator may be pre-labeled in the sample image, and the labeling information includes actual bounding box information of the indicator, For example, it includes the coordinates of the upper left vertex and the coordinates of the lower left vertex of the bounding box, and the labeling information further includes a plurality of classification information such as an indicator.

상기 샘플 이미지를 초기화된 뉴럴 네트워크 모델에 입력하여, 상기 샘플 이미지 내의 지시등의 복수의 분류 예측 결과 및 경계 박스 예측 결과를 예측하여 얻을 수 있다.By inputting the sample image to an initialized neural network model, a plurality of classification prediction results and bounding box prediction results of indicators in the sample image may be predicted and obtained.

단계620에 있어서, 상기 복수의 분류 예측 결과와 상기 경계 박스 예측 결과 및 상기 복수의 분류 정보와 상기 실제 경계 박스 정보에 기반하여, 손실 함수의 손실 값을 계산한다.In step 620, a loss value of the loss function is calculated based on the plurality of classification prediction results, the boundary box prediction results, and the plurality of classification information and the actual boundary box information.

당해 손실 함수의 손실 값은 예측하여 얻어진 복수의 분류 결과 및 예측하여 얻어진 경계 박스와, 미리 라벨링한 복수의 분류 정보 및 실제 경계 박스 정보 사이의 차이를 나타낸다.The loss value of the loss function represents a difference between a plurality of classification results obtained by prediction and a bounding box obtained by prediction, and a plurality of classification information and actual bounding box information that have been labeled in advance.

단계630에 있어서, 상기 손실 값에 기반하여 상기 뉴럴 네트워크 모델의 네트워크 파라미터를 조정한다.In step 630, a network parameter of the neural network model is adjusted based on the loss value.

옵션의 일 실시 형태에 있어서, 당해 손실 함수에 기반하여 확정한 손실 값을 당해 뉴럴 네트워크 모델에 반송함으로써, 네트워크 파라미터를 조정하는바, 예를 들면 각 층의 컨볼루션 커널의 값, 각 층의 가중치 파라미터 등을 조정한다.In an optional embodiment, the network parameter is adjusted by sending a loss value determined based on the loss function to the neural network model, for example, the value of the convolution kernel of each layer, and the weight of each layer. Adjust parameters, etc.

뉴럴 네트워크 모델을 트레이닝할 때에, 트레이닝 샘플을 복수의 이미지 서브 집합(batch)으로 분할하고, 매회의 반복 트레이닝에서 뉴럴 네트워크 모델에 차례로 하나의 이미지 서브 집합을 입력하며, 당해 이미지 서브 집합에 포함되어 있는 트레이닝 샘플 중의 각 샘플의 예측 결과의 손실 값을 결합시켜, 네트워크 파라미터의 조정을 실행한다. 이번의 반복 트레이닝이 완료된 후에, 뉴럴 네트워크 모델에 다음 하나의 이미지 서브 집합을 입력함으로써, 다음 일 회의 반복 트레이닝을 실행한다. 다른 이미지 서브 집합에 포함되어 있는 트레이닝 샘플은 적어도 일부가 다르다. 소정의 종료 조건에 달했을 경우, 뉴럴 네트워크 모델의 트레이닝을 완료할 수 있다. 상기 소정의 트레이닝 종료 조건은 예를 들면 손실 값이 일정한 한계값까지 저하된 것, 또는 소정의 뉴럴 네트워크 모델의 반복 회수에 달한 것을 포함할 수 있다.When training a neural network model, the training sample is divided into a plurality of image subsets (batch), and one image subset is sequentially input to the neural network model in each repetition training, The loss value of the prediction result of each sample in the training sample is combined to perform adjustment of the network parameter. After this iterative training is completed, the next one iteration training is executed by inputting the next one image subset to the neural network model. The training samples included in the different image subsets differ at least in part. When a predetermined termination condition is reached, training of the neural network model may be completed. The predetermined training termination condition may include, for example, that a loss value has decreased to a certain threshold value, or that a predetermined number of iterations of the neural network model has been reached.

본 실시예의 뉴럴 네트워크 모델의 트레이닝 방법에 따르면, 지시등의 분류 정보 및 실제 경계 박스가 미리 라벨링된 샘플 이미지를 이용하여 뉴럴 네트워크 모델을 트레이닝함으로써, 당해 트레이닝된 뉴럴 네트워크 모델이 입력한 이미지 내의 지시등을 검출하고, 상기 지시등의 복수의 분류를 예측할 수 있도록 한다.According to the training method of the neural network model of this embodiment, by training the neural network model using the sample image in which the classification information of the indicator and the actual bounding box are pre-labeled, the indicator in the image input by the trained neural network model is detected. and a plurality of classifications of the indicator light can be predicted.

트레이닝된 뉴럴 네트워크 모델이 상술한 지시등 검출 방법의 실시예에서 채용한 뉴럴 네트워크 모델이며, 그 구성은 예를 들면 도 3a에 나타낸 바와 같으며, 구별점이라면 단지 입력한 이미지가 라벨링 정보를 포함하는 샘플 이미지인 것일 뿐이다. 도 3a에 나타낸 뉴럴 네트워크 모델의 경우, 샘플 이미지에 기반하여 지시등의 예측 결과를 얻는 것은, 상기 특징 추출 층을 이용하여 상기 샘플 이미지의 특징 맵을 얻는 것; 상기 영역 후보 층을 이용하여 상기 특징 맵에 대해 처리를 실행하고, 상기 샘플 이미지 내의 지시등의 후보 경계 박스를 생성하는 것; 상기 풀링 층을 이용하여 상기 후보 경계 박스의 특징 맵 중 대응되는 소정의 크기의 이미지 특징을 얻는 것; 및 상기 완전 접속 층을 이용하여 상기 지시등의 복수의 분류 예측 결과 및 경계 박스의 예측 결과를 얻는 것을 포함한다.The trained neural network model is a neural network model employed in the above-described embodiment of the indicator light detection method, and its configuration is, for example, as shown in FIG. 3A, and if it is a distinguishing point, only the input image is a sample containing labeling information It's just an image. In the case of the neural network model shown in FIG. 3A , obtaining the prediction result of the indicator light based on the sample image includes: obtaining a feature map of the sample image using the feature extraction layer; performing processing on the feature map using the region candidate layer and generating a candidate bounding box of an indicator light in the sample image; obtaining an image feature of a corresponding predetermined size from the feature map of the candidate bounding box by using the pooling layer; and obtaining a plurality of classification prediction results of the indicator light and a prediction result of a bounding box by using the fully connected layer.

트레이닝 과정에서의 지시등 예측 과정은 상기 지시등 검출 방법 중의 지시등의 예측 과정과 유사하므로, 상세한 과정은 지시등 검출 방법의 실시예의 설명을 참고할 수 있다Since the indicator light prediction process in the training process is similar to the indicator light prediction process in the indicator light detection method, the detailed process may refer to the description of the embodiment of the indicator light detection method.

도 7은 지시등 검출 장치를 제공하는 바, 도 7에 나타낸바와 같이, 당해 장치는 인식 유닛(701), 예측 유닛(702)및 확정 유닛(703)을 포함할 수 있다.7 provides an indicator light detecting device, as shown in FIG. 7 , the device may include a recognizing unit 701 , a predicting unit 702 , and a determining unit 703 .

여기서, 인식 유닛(701)은 수집된 도로 이미지를 인식하여 상기 도로 이미지 내의 지시등의 후보 경계 박스를 얻는 데에 사용되며, 예측 유닛(702)은 상기 도로 이미지 내의 상기 후보 경계 박스에 대응하는 이미지 영역에 기반하여, 지시등의 복수의 분류를 예측하여 상기 지시등의 복수의 분류 예측 결과를 얻는 데에 사용되며, 확정 유닛(703)은 상기 지시등의 복수의 분류 예측 결과에 기반하여 상기 지시등의 전시 상태를 확정하는 데에 사용되며, 여기서, 상기 복수의 분류는 용도 분류, 형상 분류, 배열 분류, 기능 분류, 색상 분류 및 지향 분류 중의 적어도 두 개를 포함한다.Here, the recognition unit 701 is used to recognize the collected road image to obtain a candidate bounding box of an indicator light in the road image, and the prediction unit 702 is an image area corresponding to the candidate bounding box in the road image. is used to predict a plurality of classifications of the indicator lights to obtain a plurality of classification prediction results of the indicator lights, and the determining unit 703 determines the display state of the indicator lights based on the plurality of classification prediction results of the indicator lights. used to determine, wherein the plurality of classifications include at least two of a use classification, a shape classification, an arrangement classification, a function classification, a color classification, and an orientation classification.

또 하나의 실시예에 있어서, 예측 유닛(702)은 뉴럴 네트워크 모델을 이용하여 상기 후보 경계 박스에 대응하는 이미지 영역에 대해 특징 추출을 실행하여 상기 후보 경계 박스에 대응하는 이미지 특징을 얻고, 또한 상기 후보 경계 박스에 대응하는 이미지 특징 및 상기 뉴럴 네트워크 모델에 포함되어 있는 복수의 서브 네트워크 브랜치를 이용하여 상기 지시등의 복수의 분류를 각각 예측하여 상기 지시등의 복수의 분류 예측 결과를 얻으며, 여기서, 상기 복수의 서브 네트워크 브랜치의 수량은 상기 복수의 분류 수량과 동일하며, 각 서브 네트워크 브랜치는 상기 복수의 분류 중의 하나의 분류의 서브 유형을 인식하기 위하여 사용된다.In another embodiment, the prediction unit 702 performs feature extraction on an image region corresponding to the candidate bounding box by using a neural network model to obtain an image feature corresponding to the candidate bounding box, and further A plurality of classifications of the indicator are predicted by using an image feature corresponding to a candidate bounding box and a plurality of subnetwork branches included in the neural network model to obtain a plurality of classification prediction results of the indicator, where the plurality of classifications are predicted. The number of sub-network branches of A is equal to the quantity of the plurality of classifications, and each subnetwork branch is used to recognize a subtype of one of the plurality of classifications.

또 하나의 실시예에 있어서, 예측 유닛(702)은 상기 후보 경계 박스에 대응하는 이미지 특징 및 상기 복수의 서브 네트워크 브랜치 중의 제1 서브 네트워크 브랜치를 이용하여 상기 지시등의 복수의 분류 중의 제1 분류를 예측하여 제1 분류에 대응하는 적어도 두 개의 서브 유형의 예측 확률을 얻는다. 상기 적어도 두 개의 서브 유형 중의 상기 예측 확률이 가장 높은 서브 유형을 상기 지시등의 상기 제1 분류의 서브 유형으로 마크한다.In another embodiment, the prediction unit 702 is configured to use an image feature corresponding to the candidate bounding box and a first subnetwork branch among the plurality of subnetwork branches to determine a first classification among a plurality of classifications of the indicator light. Prediction to obtain prediction probabilities of at least two subtypes corresponding to the first classification. A subtype having the highest prediction probability among the at least two subtypes is marked as a subtype of the first classification of the indicator light.

또 하나의 실시예에 있어서, 확정 유닛(703)은 상기 복수의 분류가 상기 용도 분류 및 상기 형상 분류를 포함하는 동시에, 상기 용도 분류의 예측 결과가 상기 지시등이 차량을 지시하는 것이고, 상기 형상 분류의 예측 결과가 상기 지시등이 원형 등인 것을 가리킬 경우, 상기 배열 분류, 상기 기능 분류 및 상기 색상 분류에 각각 대응하는 예측 결과를 결합시켜 상기 지시등의 제1 전시 상태를 얻고, 또는 상기 복수의 분류가 상기 용도 분류 및 상기 형상 분류를 포함하는 동시에, 상기 용도 분류의 예측 결과가 상기 지시등이 차량을 지시하는 것이고, 상기 형상 분류의 예측 결과가 상기 지시등이 화살표 등인 것일 경우, 상기 색상 분류 및 상기 지향 분류에 각각 대응하는 예측 결과를 결합시켜 상기 지시등의 제2 전시 상태를 얻으며, 또한, 상기 복수의 분류가 상기 용도 분류를 포함하는 동시에, 상기 용도 분류의 예측 결과가 상기 지시등이 보행자를 지시하는 것일 경우, 상기 지시등의 제3전시 상태를 얻는다.In another embodiment, the determining unit 703 is configured such that the plurality of classifications include the use classification and the shape classification, and the prediction result of the use classification is that the indicator light indicates a vehicle, and the shape classification when the prediction result of indicates that the indicator light is a circular light, the first display state of the indicator light is obtained by combining the prediction results respectively corresponding to the arrangement classification, the function classification and the color classification, or the plurality of classifications are the At the same time including the usage classification and the shape classification, when the prediction result of the usage classification is that the indicator indicates a vehicle, and the prediction result of the shape classification is that the indicator light is an arrow, etc., the color classification and the orientation classification The second display state of the indicator light is obtained by combining the corresponding prediction results, and when the plurality of classifications include the use classification, and the prediction result of the use classification is that the indicator light indicates a pedestrian, A third display state of the indicator light is obtained.

또 하나의 실시예에 있어서, 확정 유닛(703)은 소정의 시간 내에 수집한 복수의 도로 이미지 내의 동일한 위치의 상기 지시등 및 상기 지시등의 복수의 분류 예측 결과를 얻고, 또한 상기 복수의 도로 이미지 내의 동일한 위치의 상기 지시등의 복수의 분류 예측 결과에 기반하여 상기 지시등의 전시 상태를 판단한다.In another embodiment, the determining unit 703 obtains the indicator light and a plurality of classification prediction results of the indicator light at the same position in the plurality of road images collected within a predetermined time, and also obtains the same position in the plurality of road images. The display state of the indicator lamp is determined based on a plurality of classification prediction results of the indicator lamp at the location.

또 하나의 실시예에 있어서, 상기 복수의 도로 이미지는 연속된 프레임의 도로 이미지이며, 확정 유닛(703)은 상기 지시등의 상기 연속된 프레임의 도로 이미지의 제1 프레임의 이미지 내의 위치를 얻고, 또한 상기 지시등의 상기 제1 프레임의 이미지 내의 위치 및 상기 도로 이미지를 촬영하는 디바이스의 운동 속도와 촬영 빈도에 기반하여, 상기 지시등의 상기 연속된 프레임의 도로 이미지 중의 상기 제1 프레임의 이미지 이외의 기타 각 프레임의 이미지 내의 제1 위치를 계산하고, 또한 상기 지시등의 상기 연속된 프레임의 이미지 중의 상기 기타의 각 프레임의 이미지 내의 제2 위치를 얻고, 상기 기타 프레임의 이미지 중의 각 프레임의 이미지에 대해, 상기 제2 위치와 제1 위치 사이의 차이가 소정의 값 미만이면, 상기 연속된 프레임의 도로 이미지 내에서 검출된 지시등이 동일한 위치의 지시등인 것으로 확정한다. In another embodiment, the plurality of road images are continuous frames of road images, and the determining unit 703 obtains the position in the first frame image of the continuous frame road image of the indicator light, and Based on the position of the indicator light in the image of the first frame and the movement speed and shooting frequency of the device for photographing the road image, each other angle other than the image of the first frame in the road image of the consecutive frames of the indicator light calculate a first position within the image of a frame, and also obtain a second position within the image of each other frame of the image of the successive frame of the indicator light, for the image of each frame in the image of the other frame, the If the difference between the second position and the first position is less than a predetermined value, it is determined that the indicator lights detected in the road images of the successive frames are the indicator lights of the same position.

또 하나의 실시예에 있어서, 상기 지시등의 전시 상태는 항상 켜짐 또는 깜박임을 포함하고, 확정 유닛(703)은 상기 복수의 도로 이미지 내의 동일한 위치의 지시등의 색상 분류 예측 결과가 동일할 경우, 상기 지시등의 전시 상태를 항상 켜짐인 것으로 판단하고, 또한 상기 복수의 이미지 내의 동일한 위치의 지시등의 색상 분류 예측 결과가 간격을 두고 변화하는 것일 경우, 상기 지시등의 전시 상태를 깜박임인 것으로 판단한다.In another embodiment, the display state of the indicator light includes always on or flashing, and the determining unit 703 is configured to: when the color classification prediction result of the indicator lamp at the same position in the plurality of road images is the same, the indicator lamp It is determined that the display state of the indicator is always on, and when the color classification prediction result of the indicator lamp at the same position in the plurality of images changes at intervals, it is determined that the display state of the indicator lamp is blinking.

도 8은 본 발명의 적어도 하나의 실시예에 의해 제공되는 지시등 검출 디바이스인바, 상기 디바이스는 메모리 및 프로세서를 구비하고, 상기 메모리는 프로세서 상에서 실행 가능한 컴퓨터 명령을 기억하며, 상기 프로세서는 상기 컴퓨터 명령이 실행될 때에 본 명세서의 임의의 실시예에 기재된 지시등 검출 방법을 실현한다.8 is an indicator light detection device provided by at least one embodiment of the present invention, wherein the device includes a memory and a processor, the memory storing computer instructions executable on the processor, the processor executing the computer instructions; When executed, it realizes the indicator light detection method described in any embodiment of the present specification.

본 명세서의 적어도 하나의 실시예는 컴퓨터 프로그램이 기억되어 있는 컴퓨터 판독 가능 기록 매체를 더욱 제공하는 바, 상기 프로그램이 프로세서에 의해 실행될 때에 본 명세서가 임의의 실시예에 기재된 지시등 검출 방법이 실현된다.At least one embodiment of the present specification further provides a computer readable recording medium having a computer program stored thereon, and when the program is executed by a processor, the indicator light detection method described in any embodiment of the present specification is realized.

본 발명의 실시예는 컴퓨터 판독 가능 코드를 포함하는 컴퓨터 프로그램을 제공하는 바, 상기 컴퓨터 판독 가능 코드가 컴퓨터에 의해 실행될 때에 본 발명의 임의의 실시예에 기재된 지시등 검출 방법이 실현된다.An embodiment of the present invention provides a computer program including computer readable code, and when the computer readable code is executed by a computer, the indicator light detection method described in any embodiment of the present invention is realized.

상기의 각 실시예의 설명은 각 실시예 사이의 차이 점을 강조하는 경향이 있으며, 그 동일 또는 유사한 부분은 서로 참고할 수 있는바, 간소화를 위하여 본 명세서에서는 반복적으로 설명하지 않는다.The description of each embodiment above tends to emphasize differences between the embodiments, and the same or similar parts may be referred to each other, and thus, for the sake of simplicity, the description is not repeated herein.

당업자는 구체적인 실시 형태의 상기 방법에 있어서, 각 단계의 기입 순서는 엄밀한 실행 순서를 의미하는 것이 아닌바, 실시 과정을 한정하지 않는다. 각 단계의 구체적인 실행 순서는 그 기능 및 가능한 내부 로직에 의해 결정된다.A person skilled in the art does not limit the implementation process in the above method of the specific embodiment, since the writing order of each step does not mean a strict execution order. The specific execution order of each step is determined by its function and possible internal logic.

몇몇의 실시예에 있어서, 본 발명의 실시예에 의해 제공되는 장치의 기능 또는 모듈은 상기의 방법의 실시예에 설명한 방법을 실행하며, 그 구체적인 실현은 상기의 방법의 실시예의 설명을 참조할 수 있는바, 간소화를 위하여 여기에서 반복적으로 설명하지 않는다.In some embodiments, a function or module of an apparatus provided by an embodiment of the present invention implements the method described in the embodiment of the method, the specific realization may refer to the description of the embodiment of the method above. Therefore, it is not repeatedly described here for the sake of simplicity.

본 발명의 실시예에 있어서, 컴퓨터 판독 가능 기록 매체는 복수의 형태를 포함하며, 예를 들면 다른 예에 있어서 상기 기계 판독 가능 기록 매체는 RAM(Radom Access Memory, 랜덤 액세스 메모리), 휘발성 메모리, 불휘발성 메모리, 플래시 메모리, 기억 드라이브(예를 들면 하드디스크 드라이브), 솔리드 스테이트 드라이브, 임의의 타입의 기억 디스크(예를 들면 CD, dvd 등), 유사한 기록 매체, 또는 이들의 조합일 수 있다. 특수한 경우, 전기의 컴퓨터 판독 가능 매체는 종이 또는 프로그램을 인쇄할 수 있는 적당한 매체일 수 있다. 당해 매체를 사용하여 당해 프로그램을 전기적 방식으로 취득할 수 있으며(예를 들면 광학적 주사), 적당한 방식에 따라 컴파일, 해석 및 처리될 수 있고, 컴퓨터 매체에 보존될 수 있다.In an embodiment of the present invention, the computer-readable recording medium includes a plurality of forms, for example, in another example, the machine-readable recording medium is a RAM (Radom Access Memory, Random Access Memory), a volatile memory, and a non-volatile memory. It may be a volatile memory, a flash memory, a storage drive (eg hard disk drive), a solid state drive, any type of storage disk (eg CD, dvd, etc.), a similar recording medium, or a combination thereof. In a special case, the electrical computer readable medium may be paper or any suitable medium capable of printing a program. The medium may be used to acquire the program in an electrical manner (eg, optical scanning), and may be compiled, interpreted and processed according to a suitable method, and may be stored in a computer medium.

상기는 본 발명의 일부 실시예에 불과할 뿐, 본 발명을 한정하지 않는다. 본 발명의 사상과 원리의 범위 내에서 행하여진 어떠한 수정, 동등의 치환, 개량 등은 모두 본 발명이 보호하는 범위에 포함되어야 한다.The above are only some embodiments of the present invention, and do not limit the present invention. Any modification, equivalent substitution, improvement, etc. made within the scope of the spirit and principle of the present invention should be included in the scope protected by the present invention.

Claims (17)

지시등 검출 방법으로서,
수집된 도로 이미지를 인식하여 상기 도로 이미지 내의 지시등의 후보 경계 박스를 얻는 것;
상기 도로 이미지 내의 상기 후보 경계 박스에 대응하는 이미지 영역에 기반하여, 지시등의 복수의 분류를 예측하여 상기 지시등의 복수의 분류 예측 결과를 얻는 것 - 상기 복수의 분류는 용도 분류, 형상 분류, 배열 분류, 기능 분류, 색상 분류 및 지향 분류 중의 적어도 두 개를 포함함 -; 및
상기 지시등의 복수의 분류 예측 결과에 기반하여 상기 지시등의 전시 상태를 확정하는 것을 포함하는
것을 특징으로 하는 지시등 검출 방법.
A method for detecting an indicator light, comprising:
recognizing the collected road images to obtain candidate bounding boxes of indicator lights in the road images;
predicting a plurality of classifications of indicator lights based on an image region corresponding to the candidate bounding box in the road image to obtain a plurality of classification prediction results of the indicator lights; , comprising at least two of a functional classification, a color classification, and an orientation classification; and
Comprising determining the display state of the indicator light based on a plurality of classification prediction results of the indicator light
Indicator light detection method, characterized in that.
제1항에 있어서,
상기 도로 이미지 내의 상기 후보 경계 박스에 대응하는 이미지 영역에 기반하여, 지시등의 복수의 분류를 예측하여 상기 지시등의 복수의 분류 예측 결과를 얻는 것은,
뉴럴 네트워크 모델을 이용하여 상기 후보 경계 박스에 대응하는 이미지 영역에 대해 특징 추출을 실행하여 상기 후보 경계 박스에 대응하는 이미지 특징을 얻는 것; 및
상기 후보 경계 박스에 대응하는 이미지 특징 및 상기 뉴럴 네트워크 모델에 포함되어 있는 복수의 서브 네트워크 브랜치를 이용하여 상기 지시등의 복수의 분류를 각각 예측하여 상기 지시등의 복수의 분류 예측 결과를 얻는 것을 포함하되,
상기 복수의 서브 네트워크 브랜치의 수량은 상기 복수의 분류의 수량과 동일하며, 각 서브 네트워크 브랜치는 상기 복수의 분류 중의 하나의 분류의 서브 유형을 인식하기 위하여 사용되는
것을 특징으로 하는 지시등 검출 방법.
According to claim 1,
Predicting a plurality of classifications of an indicator light based on an image region corresponding to the candidate bounding box in the road image to obtain a plurality of classification prediction results of the indicator light,
performing feature extraction on an image region corresponding to the candidate bounding box using a neural network model to obtain an image feature corresponding to the candidate bounding box; and
Predicting a plurality of classifications of the indicator light by using an image feature corresponding to the candidate bounding box and a plurality of subnetwork branches included in the neural network model to obtain a plurality of classification prediction results of the indicator light,
The quantity of the plurality of subnetwork branches is equal to the quantity of the plurality of classifications, and each subnetwork branch is used to recognize a subtype of one of the plurality of classifications.
Indicator light detection method, characterized in that.
제2항에 있어서,
상기 후보 경계 박스에 대응하는 이미지 특징 및 상기 뉴럴 네트워크 모델에 포함되어 있는 복수의 서브 네트워크 브랜치를 이용하여 상기 지시등의 복수의 분류를 각각 예측하여 상기 지시등의 복수의 분류 예측 결과를 얻는 것은,
상기 후보 경계 박스에 대응하는 이미지 특징 및 상기 복수의 서브 네트워크 브랜치 중의 제1 서브 네트워크 브랜치를 이용하여 상기 지시등의 복수의 분류 중의 제1 분류를 예측하여 제1 분류에 대응하는 적어도 두 개의 서브 유형의 예측 확률을 얻는 것; 및
상기 적어도 두 개의 서브 유형 중의 상기 예측 확률이 가장 높은 서브 유형을 상기 지시등의 상기 제1 분류의 서브 유형으로 마크하는 것을 포함하는
것을 특징으로 하는 지시등 검출 방법.
3. The method of claim 2,
Predicting a plurality of classifications of the indicator light using an image feature corresponding to the candidate bounding box and a plurality of subnetwork branches included in the neural network model to obtain a plurality of classification prediction results of the indicator light,
Predicting a first classification among a plurality of classifications of the indicator light using an image feature corresponding to the candidate bounding box and a first subnetwork branch among the plurality of subnetwork branches of at least two subtypes corresponding to the first classification to get predicted probabilities; and
and marking a subtype having the highest prediction probability among the at least two subtypes as a subtype of the first classification of the indicator light
Indicator light detection method, characterized in that.
제1항 내지 제3항 중 어느 한 항에 있어서,
상기 지시등의 복수의 분류 예측 결과에 기반하여 상기 지시등의 전시 상태를 확정하는 것은,
상기 복수의 분류가 상기 용도 분류 및 상기 형상 분류를 포함하는 동시에, 상기 용도 분류의 예측 결과가 상기 지시등이 차량을 지시하는 것이고, 상기 형상 분류의 예측 결과가 상기 지시등이 원형 등인 것일 경우, 상기 배열 분류, 상기 기능 분류 및 상기 색상 분류에 각각 대응하는 예측 결과를 결합시켜 상기 지시등의 제1 전시 상태를 얻는 것; 또는,
상기 복수의 분류가 상기 용도 분류 및 상기 형상 분류를 포함하는 동시에, 상기 용도 분류의 예측 결과가 상기 지시등이 차량을 지시하는 것이고, 상기 형상 분류의 예측 결과가 상기 지시등이 화살표 등인 것일 경우, 상기 색상 분류 및 상기 지향 분류에 각각 대응하는 예측 결과를 결합시켜 상기 지시등의 제2 전시 상태를 얻는 것; 또는,
상기 복수의 분류가 상기 용도 분류를 포함하는 동시에, 상기 용도 분류의 예측 결과가 상기 지시등이 보행자를 지시하는 것일 경우, 상기 지시등의 제3전시 상태를 얻는 것을 포함하는
것을 특징으로 하는 지시등 검출 방법.
4. The method according to any one of claims 1 to 3,
Determining the display state of the indicator light based on a plurality of classification prediction results of the indicator light,
When the plurality of classifications include the use classification and the shape classification, and the prediction result of the use classification is that the indicator light indicates a vehicle, and the prediction result of the shape classification is that the indicator light is a circular light, the arrangement combining the prediction results respectively corresponding to the classification, the function classification, and the color classification to obtain a first display state of the indicator light; or,
When the plurality of classifications include the use classification and the shape classification, and the predictive result of the use classification is that the indicator indicates a vehicle, and the predictive result of the shape classification is that the indicator light is an arrow, the color combining a classification and a prediction result respectively corresponding to the directed classification to obtain a second display state of the indicator light; or,
When the plurality of classifications include the use classification and the prediction result of the use classification is that the indicator light indicates a pedestrian, comprising obtaining a third display state of the indicator light
Indicator light detection method, characterized in that.
제1항 내지 제4항 중 어느 한 항에 있어서,
상기 지시등의 복수의 분류 예측 결과에 기반하여 상기 지시등의 전시 상태를 확정하는 것은,
소정의 시간 내에 수집한 복수의 도로 이미지 내의 동일한 위치의 상기 지시등 및 상기 지시등의 복수의 분류 예측 결과를 얻는 것; 및
상기 복수의 도로 이미지 내의 동일한 위치의 상기 지시등의 복수의 분류 예측 결과에 기반하여 상기 지시등의 전시 상태를 판단하는 것을 포함하는
것을 특징으로 하는 지시등 검출 방법.
5. The method according to any one of claims 1 to 4,
Determining the display state of the indicator light based on a plurality of classification prediction results of the indicator light,
obtaining the indicator lights and a plurality of classification prediction results of the indicator lights at the same position in a plurality of road images collected within a predetermined time; and
determining the display state of the indicator light based on prediction results of a plurality of classifications of the indicator lights at the same position in the plurality of road images
Indicator light detection method, characterized in that.
제5항에 있어서,
상기 복수의 도로 이미지는 연속된 프레임의 도로 이미지이며,
소정의 시간 내에 수집한 복수의 도로 이미지 내의 동일한 위치의 상기 지시등을 얻는 것은,
상기 지시등의 상기 연속된 프레임의 도로 이미지의 제1 프레임의 이미지 내의 위치를 얻는 것;
상기 지시등의 상기 제1 프레임의 이미지 내의 위치 및 상기 도로 이미지를 촬영하는 디바이스의 운동 속도와 촬영 빈도에 기반하여, 상기 지시등의 상기 연속된 프레임의 도로 이미지 중의 상기 제1 프레임의 이미지 이외의 기타 각 프레임의 이미지 내의 제1 위치를 계산하는 것;
상기 지시등의 상기 연속된 프레임의 이미지 중의 기타 각 프레임의 이미지 내의 제2 위치를 얻는 것; 및
기타 프레임의 이미지 중의 각 프레임의 이미지에 대해, 상기 제2 위치와 제1 위치 사이의 차이가 소정의 값 미만이면, 상기 연속된 프레임의 도로 이미지 내에서 검출된 지시등이 동일한 위치의 지시등인 것으로 확정하는 것을 포함하는
것을 특징으로 하는 지시등 검출 방법.
6. The method of claim 5,
The plurality of road images are road images of consecutive frames,
Obtaining the indicator light at the same location in a plurality of road images collected within a predetermined time comprises:
obtaining the position of the indicator light within an image of a first frame of the road image of the successive frame;
Based on the position of the indicator light in the image of the first frame and the movement speed and shooting frequency of the device for photographing the road image, each other angle other than the image of the first frame in the road image of the consecutive frames of the indicator light calculating a first position within the image of the frame;
obtaining a second position within the image of each other frame of the image of the successive frame of the indicator light; and
With respect to the image of each frame among the images of other frames, if the difference between the second position and the first position is less than a predetermined value, it is determined that the indicator lights detected in the road images of the successive frames are the indicator lights of the same position including doing
Indicator light detection method, characterized in that.
제5항 또는 제6항에 있어서,
상기 지시등의 전시 상태는 항상 켜짐 또는 깜박임을 포함하고,
상기 복수의 도로 이미지 내의 동일한 위치의 상기 지시등의 복수의 분류 예측 결과에 기반하여 상기 지시등의 전시 상태를 판단하는 것은,
상기 복수의 도로 이미지 내의 동일한 위치의 지시등의 색상 분류 예측 결과가 동일할 경우, 상기 지시등의 전시 상태를 항상 켜짐인 것으로 판단하는 것; 및
상기 복수의 이미지 내의 동일한 위치의 지시등의 색상 분류 예측 결과가 간격을 두고 변화하는 것일 경우, 상기 지시등의 전시 상태를 깜박임인 것으로 판단하는 것을 포함하는
것을 특징으로 하는 지시등 검출 방법.
7. The method of claim 5 or 6,
The display state of the indicator light includes always on or flashing,
Determining the display state of the indicator light based on a plurality of classification prediction results of the indicator lamp at the same position in the plurality of road images includes:
determining that the display state of the indicator lamp is always on when the color classification prediction results of the indicator lights at the same location in the plurality of road images are the same; and
Comprising determining that the display state of the indicator is blinking when the color classification prediction result of the indicator at the same position in the plurality of images changes at intervals
Indicator light detection method, characterized in that.
지시등 검출 장치로서,
수집된 도로 이미지를 인식하여 상기 도로 이미지 내의 지시등의 후보 경계 박스를 얻기 위한 인식 유닛;
상기 도로 이미지 내의 상기 후보 경계 박스에 대응하는 이미지 영역에 기반하여, 지시등의 복수의 분류를 예측하여 상기 지시등의 복수의 분류 예측 결과를 얻기 위한 예측 유닛; 및
상기 지시등의 복수의 분류 예측 결과에 기반하여 상기 지시등의 전시 상태를 확정하기 위한 확정 유닛을 포함하되,
상기 복수의 분류는 용도 분류, 형상 분류, 배열 분류, 기능 분류, 색상 분류 및 지향 분류 중의 적어도 두 개를 포함하는
것을 특징으로 하는 지시등 검출 장치.
An indicator light detection device comprising:
a recognition unit for recognizing the collected road image to obtain a candidate bounding box of an indicator light in the road image;
a prediction unit for predicting a plurality of classifications of indicator lights based on an image region corresponding to the candidate bounding box in the road image to obtain a plurality of classification prediction results of the indicator lights; and
a determining unit configured to determine a display state of the indicator light based on a plurality of classification prediction results of the indicator lamp;
The plurality of classifications include at least two of a use classification, a shape classification, an arrangement classification, a function classification, a color classification, and an orientation classification.
Indicator light detection device, characterized in that.
제8항에 있어서,
상기 예측 유닛은,
뉴럴 네트워크 모델을 이용하여 상기 후보 경계 박스에 대응하는 이미지 영역에 대해 특징 추출을 실행하여 상기 후보 경계 박스에 대응하는 이미지 특징을 얻고,
상기 후보 경계 박스에 대응하는 이미지 특징 및 상기 뉴럴 네트워크 모델에 포함되어 있는 복수의 서브 네트워크 브랜치를 이용하여 상기 지시등의 복수의 분류를 각각 예측하여 상기 지시등의 복수의 분류 예측 결과를 얻되,
상기 복수의 서브 네트워크 브랜치의 수량은 상기 복수의 분류 수량과 동일하며, 각 서브 네트워크 브랜치는 상기 복수의 분류 중의 하나의 분류의 서브 유형을 인식하기 위하여 사용되는
것을 특징으로 하는 지시등 검출 장치.
9. The method of claim 8,
The prediction unit is
performing feature extraction on the image region corresponding to the candidate bounding box using a neural network model to obtain image features corresponding to the candidate bounding box;
A plurality of classification prediction results of the indicator are obtained by predicting each of the plurality of classifications of the indicator using image features corresponding to the candidate bounding box and a plurality of subnetwork branches included in the neural network model,
The quantity of the plurality of subnetwork branches is equal to the quantity of the plurality of classifications, and each subnetwork branch is used to recognize a subtype of one of the plurality of classifications.
Indicator light detection device, characterized in that.
제9항에 있어서,
상기 예측 유닛은,
상기 후보 경계 박스에 대응하는 이미지 특징 및 상기 복수의 서브 네트워크 브랜치 중의 제1 서브 네트워크 브랜치를 이용하여 상기 지시등의 복수의 분류 중의 제1 분류를 예측하여 제1 분류에 대응하는 적어도 두 개의 서브 유형의 예측 확률을 얻고,
상기 적어도 두 개의 서브 유형 중의 상기 예측 확률이 가장 높은 서브 유형을 상기 지시등의 상기 제1 분류의 서브 유형으로 마크하는
것을 특징으로 하는 지시등 검출 장치.
10. The method of claim 9,
The prediction unit is
Predicting a first classification among a plurality of classifications of the indicator light using an image feature corresponding to the candidate bounding box and a first subnetwork branch among the plurality of subnetwork branches of at least two subtypes corresponding to the first classification get the predicted probability,
Marking a subtype having the highest prediction probability among the at least two subtypes as a subtype of the first classification of the indicator light
Indicator light detection device, characterized in that.
제8항 내지 제10항 중 어느 한 항에 있어서,
상기 확정 유닛은,
상기 복수의 분류가 상기 용도 분류 및 상기 형상 분류를 포함하는 동시에, 상기 용도 분류의 예측 결과가 상기 지시등이 차량을 지시하는 것이고, 상기 형상 분류의 예측 결과가 상기 지시등이 원형 등인 것일 경우, 상기 배열 분류, 상기 기능 분류 및 상기 색상 분류에 각각 대응하는 예측 결과를 결합시켜 상기 지시등의 제1 전시 상태를 얻거나, 또는,
상기 복수의 분류가 상기 용도 분류 및 상기 형상 분류를 포함하는 동시에, 상기 용도 분류의 예측 결과가 상기 지시등이 차량을 지시하는 것이고, 상기 형상 분류의 예측 결과가 상기 지시등이 화살표 등인 것일 경우, 상기 색상 분류 및 상기 지향 분류에 각각 대응하는 예측 결과를 결합시켜 상기 지시등의 제2 전시 상태를 얻거나, 또는,
상기 복수의 분류가 상기 용도 분류를 포함하는 동시에, 상기 용도 분류의 예측 결과가 상기 지시등이 보행자를 지시하는 것일 경우, 상기 지시등의 제3전시 상태를 얻는
것을 특징으로 하는 지시등 검출 장치.
11. The method according to any one of claims 8 to 10,
The confirmation unit is
When the plurality of classifications include the use classification and the shape classification, and the prediction result of the use classification is that the indicator light indicates a vehicle, and the prediction result of the shape classification is that the indicator light is a circular light, the arrangement a first display state of the indicator light is obtained by combining the prediction results respectively corresponding to the classification, the function classification and the color classification;
When the plurality of classifications include the use classification and the shape classification, and the prediction result of the use classification is that the indicator indicates a vehicle, and the predictive result of the shape classification is that the indicator light is an arrow, the color combining a classification and a prediction result respectively corresponding to the directed classification to obtain a second display state of the indicator light; or
When the plurality of classifications include the use classification and the prediction result of the use classification is that the indicator light indicates a pedestrian, obtaining a third display state of the indicator light
Indicator light detection device, characterized in that.
제8항 내지 제11항 중 어느 한 항에 있어서,
상기 확정 유닛은,
소정의 시간 내에 수집한 복수의 도로 이미지 내의 동일한 위치의 상기 지시등 및 상기 지시등의 복수의 분류 예측 결과를 얻고,
상기 복수의 도로 이미지 내의 동일한 위치의 상기 지시등의 복수의 분류 예측 결과에 기반하여 상기 지시등의 전시 상태를 판단하는
것을 특징으로 하는 지시등 검출 장치.
12. The method according to any one of claims 8 to 11,
The confirmation unit is
obtaining the indicator lights and a plurality of classification prediction results of the indicator lights at the same position in a plurality of road images collected within a predetermined time;
determining the display state of the indicator light based on prediction results of a plurality of classifications of the indicator lights at the same location in the plurality of road images
Indicator light detection device, characterized in that.
제12항에 있어서,
상기 복수의 도로 이미지는 연속된 프레임의 도로 이미지이며,
상기 확정 유닛은,
상기 지시등의 상기 연속된 프레임의 도로 이미지 중의 제1 프레임의 이미지 내의 위치를 얻고,
상기 지시등의 상기 제1 프레임의 이미지 내의 위치 및 상기 도로 이미지를 촬영하는 디바이스의 운동 속도와 촬영 빈도에 기반하여, 상기 지시등의 상기 연속된 프레임의 도로 이미지 중의 상기 제1 프레임의 이미지 이외의 기타 각 프레임의 이미지 내의 제1 위치를 계산하며,
상기 지시등의 상기 연속된 프레임의 이미지 중의 기타 각 프레임의 이미지 내의 제2 위치를 얻고,
상기 기타 프레임의 이미지 중의 각 프레임의 이미지에 대해, 상기 제2 위치와 제1 위치 사이의 차이가 소정의 값 미만이면, 상기 연속된 프레임의 도로 이미지 내에서 검출된 지시등이 동일한 위치의 지시등인 것으로 확정하는
것을 특징으로 하는 지시등 검출 장치.
13. The method of claim 12,
The plurality of road images are road images of consecutive frames,
The confirmation unit is
obtain the position in the image of a first frame of the road image of the successive frame of the indicator light;
Based on the position of the indicator light in the image of the first frame and the movement speed and shooting frequency of the device for photographing the road image, each other angle other than the image of the first frame in the road image of the consecutive frames of the indicator light compute a first position within the image of the frame;
obtain a second position in the image of each other frame of the image of the successive frame of the indicator light;
With respect to the image of each frame among the images of the other frames, if the difference between the second position and the first position is less than a predetermined value, it is determined that the indicator lights detected in the road images of the successive frames are the indicator lights of the same position. to confirm
Indicator light detection device, characterized in that.
제12항 또는 제13항에 있어서,
상기 지시등의 전시 상태는 항상 켜짐 또는 깜박임을 포함하고,
상기 확정 유닛은,
상기 복수의 도로 이미지 내의 동일한 위치의 지시등의 색상 분류 예측 결과가 동일할 경우, 상기 지시등의 전시 상태를 항상 켜짐인 것으로 판단하고,
상기 복수의 이미지 내의 동일한 위치의 지시등의 색상 분류 예측 결과가 간격을 두고 변화하는 것일 경우, 상기 지시등의 전시 상태를 깜박임인 것으로 판단하는
것을 특징으로 하는 지시등 검출 장치.
14. The method of claim 12 or 13,
The display state of the indicator light includes always on or flashing,
The confirmation unit is
If the color classification prediction results of the indicator lights at the same location in the plurality of road images are the same, it is determined that the display state of the indicator lights is always on,
When the color classification prediction result of the indicator lamp at the same position in the plurality of images changes at intervals, determining the display state of the indicator lamp as blinking
Indicator light detection device, characterized in that.
지시등 검출 디바이스로서,
메모리 및 프로세서를 구비하고,
상기 메모리는 프로세서 상에서 실행 가능한 컴퓨터 명령을 기억하며,
상기 프로세서는 상기 컴퓨터 명령이 실행될 때에 제1항 내지 제7항 중 어느 한 항에 기재된 방법을 실현하는
것을 특징으로 하는 지시등 검출 디바이스.
An indicator light detection device comprising:
a memory and a processor;
the memory stores computer instructions executable on the processor;
The processor realizes the method according to any one of claims 1 to 7 when the computer instructions are executed.
Indicator light detection device, characterized in that.
컴퓨터 프로그램이 기억되어 있는 컴퓨터 판독 가능 기록 매체로서,
상기 컴퓨터 프로그램이 프로세서에 의해 실행될 때에 제1항 내지 제7항 중 어느 한 항에 기재된 방법이 실현되는
것을 특징으로 하는 컴퓨터 판독 가능 기록 매체.
A computer-readable recording medium having a computer program stored therein, comprising:
The method according to any one of claims 1 to 7 is realized when the computer program is executed by a processor.
A computer-readable recording medium, characterized in that.
컴퓨터 판독 가능 코드를 포함하고 기록 매체에 저장된 컴퓨터 프로그램으로서,
상기 컴퓨터 판독 가능 코드가 컴퓨터에 의해 실행될 때에 제1항 내지 제7항 중 어느 한 항에 기재된 방법이 실현되는
것을 특징으로 하는 기록 매체에 저장된 컴퓨터 프로그램.
A computer program comprising computer readable code and stored in a recording medium,
The method according to any one of claims 1 to 7 is realized when the computer readable code is executed by a computer.
A computer program stored in a recording medium, characterized in that.
KR1020217020933A 2019-07-31 2020-07-28 Indicator light detection method, apparatus, device and computer-readable recording medium KR20210097782A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910703763.5 2019-07-31
CN201910703763.5A CN112307840A (en) 2019-07-31 2019-07-31 Indicator light detection method, device, equipment and computer readable storage medium
PCT/CN2020/105223 WO2021018144A1 (en) 2019-07-31 2020-07-28 Indication lamp detection method, apparatus and device, and computer-readable storage medium

Publications (1)

Publication Number Publication Date
KR20210097782A true KR20210097782A (en) 2021-08-09

Family

ID=74229503

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217020933A KR20210097782A (en) 2019-07-31 2020-07-28 Indicator light detection method, apparatus, device and computer-readable recording medium

Country Status (4)

Country Link
JP (1) JP2022516183A (en)
KR (1) KR20210097782A (en)
CN (1) CN112307840A (en)
WO (1) WO2021018144A1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113506244A (en) * 2021-06-05 2021-10-15 北京超维世纪科技有限公司 Indicator light detection and color identification generalization capability improvement algorithm based on deep learning
CN114359844B (en) * 2022-03-21 2022-06-21 广州银狐科技股份有限公司 AED equipment state monitoring method and system based on color recognition
CN114820676A (en) * 2022-05-30 2022-07-29 深圳市科荣软件股份有限公司 Equipment running state identification method and device
CN114820616B (en) * 2022-06-29 2023-01-10 北京蒙帕信创科技有限公司 Equipment state detection method and device for flashing mode indicator light
CN116468868A (en) * 2023-04-27 2023-07-21 广州小鹏自动驾驶科技有限公司 Traffic signal lamp graph building method, device, equipment and storage medium

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9070305B1 (en) * 2010-01-22 2015-06-30 Google Inc. Traffic light detecting system and method
CN102176287B (en) * 2011-02-28 2013-11-20 无锡中星微电子有限公司 Traffic signal lamp identifying system and method
SG10201912533UA (en) * 2016-03-31 2020-02-27 Agency Science Tech & Res Signal light detection
CN108804983B (en) * 2017-05-03 2022-03-18 腾讯科技(深圳)有限公司 Traffic signal lamp state identification method and device, vehicle-mounted control terminal and motor vehicle
JP2019053619A (en) * 2017-09-15 2019-04-04 株式会社東芝 Signal identification device, signal identification method, and driving support system
CN108875608B (en) * 2018-06-05 2021-12-17 合肥湛达智能科技有限公司 Motor vehicle traffic signal identification method based on deep learning
CN110069986B (en) * 2019-03-13 2021-11-02 北京联合大学 Traffic signal lamp identification method and system based on hybrid model

Also Published As

Publication number Publication date
CN112307840A (en) 2021-02-02
JP2022516183A (en) 2022-02-24
WO2021018144A1 (en) 2021-02-04

Similar Documents

Publication Publication Date Title
KR20210097782A (en) Indicator light detection method, apparatus, device and computer-readable recording medium
US10081308B2 (en) Image-based vehicle detection and distance measuring method and apparatus
JP5815910B2 (en) Methods, systems, products, and computer programs for multi-queue object detection and analysis (multi-queue object detection and analysis)
KR100912746B1 (en) Method for traffic sign detection
KR101848019B1 (en) Method and Apparatus for Detecting Vehicle License Plate by Detecting Vehicle Area
US9626599B2 (en) Reconfigurable clear path detection system
US20130208945A1 (en) Method for the detection and tracking of lane markings
JP5019375B2 (en) Object detection apparatus and object detection method
US11371851B2 (en) Method and system for determining landmarks in an environment of a vehicle
US20090174773A1 (en) Camera diagnostics
CN107665327B (en) Lane line detection method and device
JP2019220129A (en) System and method for recognizing traffic sign
JP2018055597A (en) Vehicle type discrimination device and vehicle type discrimination method
CN111881984A (en) Target detection method and device based on deep learning
US20200371527A1 (en) Artificial neural network-based projection information recognition apparatus and method thereof
KR20160081190A (en) Method and recording medium for pedestrian recognition using camera
JP4936045B2 (en) Vehicle color discrimination device, method and program
Álvarez et al. Perception advances in outdoor vehicle detection for automatic cruise control
WO2017077261A1 (en) A monocular camera cognitive imaging system for a vehicle
CN111402185A (en) Image detection method and device
KR102178202B1 (en) Method and apparatus for detecting traffic light
Shalu et al. An intelligent lane and obstacle detection using YOLO algorithm
CN113128264A (en) Vehicle area determination method and device and electronic equipment
JP2021152826A (en) Information processing device, subject classification method, and subject classification program
CN111898491B (en) Identification method and device for reverse driving of vehicle and electronic equipment

Legal Events

Date Code Title Description
A201 Request for examination
WITB Written withdrawal of application