KR102223324B1 - Apparatus and method for determining status of vehicle LED lighting based on average grayscale ratio - Google Patents

Apparatus and method for determining status of vehicle LED lighting based on average grayscale ratio Download PDF

Info

Publication number
KR102223324B1
KR102223324B1 KR1020190099048A KR20190099048A KR102223324B1 KR 102223324 B1 KR102223324 B1 KR 102223324B1 KR 1020190099048 A KR1020190099048 A KR 1020190099048A KR 20190099048 A KR20190099048 A KR 20190099048A KR 102223324 B1 KR102223324 B1 KR 102223324B1
Authority
KR
South Korea
Prior art keywords
led
grayscale
target
target area
grayscale level
Prior art date
Application number
KR1020190099048A
Other languages
Korean (ko)
Other versions
KR20210019879A (en
Inventor
유명식
두트렁홉
Original Assignee
숭실대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 숭실대학교산학협력단 filed Critical 숭실대학교산학협력단
Priority to KR1020190099048A priority Critical patent/KR102223324B1/en
Publication of KR20210019879A publication Critical patent/KR20210019879A/en
Application granted granted Critical
Publication of KR102223324B1 publication Critical patent/KR102223324B1/en

Links

Images

Classifications

    • G06K9/6201
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • G06K9/4652
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour

Abstract

이하, 대상 LED 영역의 조명에 기초하여 차량간 LED 조명 상태를 판단하는 방법 및 장치에 관한 기술이 제공된다.Hereinafter, a method and an apparatus for determining an LED lighting state between vehicles based on the lighting of the target LED region are provided.

Description

평균 그레이스케일 비율에 기초한 차량 LED 조명 상태 판단 방법 및 장치{Apparatus and method for determining status of vehicle LED lighting based on average grayscale ratio}{Apparatus and method for determining status of vehicle LED lighting based on average grayscale ratio}

이하, 차량간 LED 조명 상태를 판단하는 방법 및 장치에 관한 기술이 제공된다.Hereinafter, a technology regarding a method and an apparatus for determining a state of LED lighting between vehicles is provided.

차량 통신(Vehicle communication)은 차량 간의 안전 경고 및 교통 정보를 교환할 수 있는 단거리 내지 중거리 통신 시스템에 관련될 수 있다. 예를 들어, 차량은 차선 변경을 요구하는 신호를 보내고 다른 차량에서 확인 신호를 기다릴 수 있다. 비상 제동의 경우 비상 제동 신호가 다른 차량으로 보내질 수 있다. 차량이 속도를 높이거나 낮추면 차량 통신을 통해 다른 차량에도 경고 신호가 전송된다. 또한, 차량 추적 기능을 사용하면 차량의 ID를 다른 차량으로 보내, 차도에 주행중인 차량의 지도를 만들 수 있다. 차량 추적, 차선 탐지, 보행자 감지 등과 같은 차량 추적 및 기타 감지 기술과 함께 차량 통신은 보다 안전하고 조정된 운송 네트워크를 가져오고 궁극적으로 지능형 교통 시스템 및 자율 차량 네트워크를 가능하게 한다. 이 때문에, 차량 통신은 집중적으로 연구되어 왔으며, 최근에는 광학 카메라 통신(OCC)이라는 새로운 기술은 많은 이점 때문에 차량 통신을 위한 유망한 후보 기술로 부상했다.Vehicle communication may relate to a short- to medium-range communication system capable of exchanging safety warnings and traffic information between vehicles. For example, a vehicle may signal to change lanes and wait for a confirmation signal from another vehicle. In case of emergency braking, an emergency braking signal can be sent to another vehicle. When a vehicle speeds up or slows down, a warning signal is also sent to other vehicles through vehicle communication. In addition, if the vehicle tracking function is used, the ID of the vehicle can be sent to another vehicle to create a map of the vehicle driving on the roadway. Vehicle communication, along with vehicle tracking and other detection technologies such as vehicle tracking, lane detection, pedestrian detection, etc., will lead to a safer and more coordinated transportation network and ultimately enable intelligent transportation systems and autonomous vehicle networks. For this reason, vehicle communication has been intensively studied, and recently, a new technology called optical camera communication (OCC) has emerged as a promising candidate technology for vehicle communication because of its many advantages.

대한민국 특허등록공보 제10-0736356호(등록일: 2007년 06월 29일)Korean Patent Registration Publication No. 10-0736356 (Registration date: June 29, 2007) 대한민국 특허공개공보 제 10-2014-0096880호(공개일: 2014년 08월 06일)Korean Patent Publication No. 10-2014-0096880 (Publication date: August 06, 2014)

일실시예에 따른 LED 조명 상태 판단 방법은 외부 LED 가시광 신호의 수신에 기초하여, LED 이미지 프레임을 생성하는 단계, 상기 LED 이미지 프레임을 복수 개의 LED 단위 영역들로 분할하는 단계, 상기 LED 이미지 프레임의 전체를 대표하는 전체 그레이스케일 레벨을 산출하는 단계, LED 단위 영역들 중 대상 영역을 대표하는 대상 그레이스케일 레벨을 산출하는 단계, 상기 전체 그레이스케일 레벨 및 상기 대상 그레이스케일 레벨에 기초하여 상기 대상 영역에 관련된 대상 그레이스케일 비율을 결정하는 단계, 상기 대상 그레이스케일 비율에 기초하여, 상기 대상 영역의 조명 상태를 판단하는 단계를 포함할 수 있다.The LED lighting state determination method according to an embodiment includes the steps of generating an LED image frame based on reception of an external LED visible light signal, dividing the LED image frame into a plurality of LED unit regions, and Calculating an overall grayscale level representing the whole, calculating a target grayscale level representing a target area among LED unit areas, the target area based on the total grayscale level and the target grayscale level It may include determining a related target grayscale ratio, and determining an illumination state of the target area based on the target grayscale ratio.

다른 일실시예에 따른 상기 전체 그레이스케일 레벨을 산출하는 단계는 상기 단위 영역들의 그레이스케일 레벨을 추출하는 단계, 상기 추출한 그레이스케일 레벨의 평균값을 계산하고, 상기 평균값을 상기 전체 그레이스케일 레벨로 설정하는 단계를 포함할 수 있다.The calculating of the total grayscale level according to another embodiment includes extracting the grayscale levels of the unit regions, calculating an average value of the extracted grayscale levels, and setting the average value as the total grayscale level. It may include steps.

또한, 상기 대상 영역의 조명 상태를 판단하는 단계는 상기 비율이 미리 설정된 임계 비율보다 큰 경우에 응답하여, 상기 대상 영역의 조명이 켜진 상태라고 판단하는 단계를 포함할 수 있다.In addition, determining the lighting state of the target region may include determining that the lighting of the target region is turned on in response to a case where the ratio is greater than a preset threshold ratio.

일측에 따른 상기 대상 영역의 그레이스케일 레벨을 산출하는 단계는 상기 대상 영역에 존재하는 픽셀들의 그레이스케일 레벨들을 추출하는 단계, 상기 추출된 그레이스케일 레벨의 평균값을 계산하고, 상기 평균값을 상기 대상 영역의 그레이스케일 레벨로 설정하는 단계를 포함할 수 있다.The calculating of the grayscale level of the target area according to one side includes extracting grayscale levels of pixels existing in the target area, calculating an average value of the extracted grayscale levels, and calculating the average value of the target area. It may include the step of setting the grayscale level.

도 1은 일실시예에 따른 차량 간 LED 통신의 방법을 도시한 흐름도이다.
도 2는 일실시예에 따른 LED 패널과 LED 비트를 감지하는 것에 관한 도면이다.
도 3은 일실시예에 따른 그레이스케일 레벨에 기초하여 LED 비트를 감지하는 것을 도시한 도면이다.
도 4는 일실시예에 따라 LED 패널의 그레이스케일 레벨이 차이를 보이는 것을 나타낸 도면이다.
도 5는 일실시예에 따라 LED 패널에서 빛 번짐 효과(Blooming effect)가 나타나는 것을 도시한 도면이다.
도 6은 일실시예에 따라 LED의 조명 상태를 판단하기 위한 방법을 나타낸 도면이다.
도 7은 일실시예에 따라 LED의 조명 상태를 판단하기 위한 방법의 흐름도를 도시한 도면이다.
도 8은 일실시예에 따라 대상 영역을 대표하는 대상 그레이스케일 레벨을 산출하는 것을 도시한 도면이다.
도 9는 일실시예에 따라 LED 조명 상태를 판단한 결과값을 나타낸 도면이다.
도 10은 일실시예에 따라 결과값들을 분류하는 방법을 도시한 도면이다.
도 11은 일실시예에 따라 복수 개의 LED 조명 상태 판단 결과값을 도시한 그래프이다.
도 12는 일실시예에 따라 LED 조명 상태를 판단하는 장치의 구성을 나타낸 블록도이다.
1 is a flowchart illustrating a method of LED communication between vehicles according to an embodiment.
2 is a diagram illustrating an LED panel and detecting an LED bit according to an embodiment.
3 is a diagram illustrating detecting an LED bit based on a grayscale level according to an embodiment.
4 is a diagram illustrating a difference in grayscale levels of an LED panel according to an exemplary embodiment.
5 is a diagram illustrating that a blooming effect appears in an LED panel according to an exemplary embodiment.
6 is a diagram illustrating a method for determining an illumination state of an LED according to an exemplary embodiment.
7 is a diagram illustrating a flow chart of a method for determining an illumination state of an LED according to an exemplary embodiment.
8 is a diagram illustrating calculating a target grayscale level representing a target area according to an exemplary embodiment.
9 is a view showing a result of determining the LED lighting state according to an embodiment.
10 is a diagram illustrating a method of classifying result values according to an embodiment.
11 is a graph showing a plurality of LED lighting state determination result values according to an embodiment.
12 is a block diagram showing the configuration of an apparatus for determining an LED lighting state according to an embodiment.

실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for the purpose of illustration only, and may be changed and implemented in various forms. Accordingly, the embodiments are not limited to a specific disclosure form, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical idea.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Although terms such as first or second may be used to describe various components, these terms should be interpreted only for the purpose of distinguishing one component from other components. For example, a first component may be referred to as a second component, and similarly, a second component may be referred to as a first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.When a component is referred to as being "connected" to another component, it is to be understood that it may be directly connected or connected to the other component, but other components may exist in the middle.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present specification, terms such as "comprise" or "have" are intended to designate that the described feature, number, step, action, component, part, or combination thereof is present, but one or more other features or numbers, It is to be understood that the presence or addition of steps, actions, components, parts, or combinations thereof, does not preclude the possibility of preliminary exclusion.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the relevant technical field. Terms as defined in a commonly used dictionary should be construed as having a meaning consistent with the meaning of the related technology, and should not be interpreted as an ideal or excessively formal meaning unless explicitly defined in the present specification. Does not. Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. The same reference numerals shown in each drawing indicate the same members.

도 1은 일실시예에 따른 차량 간 LED 통신의 방법을 도시한 흐름도이다.1 is a flowchart illustrating a method of LED communication between vehicles according to an embodiment.

일실시예에 따른 VOCC(Vehicle optical camera communication) 시스템의 시스템 구조가 도 1에 제시 되어있다. 송신 측에서는 오류 정정 부호화 및 변조 후에 LED 패널 내 LED 칩의 On 및 Off 상태에 따라 디지털 비트 1과 0이 전달될 수 있다. 수신 측에서는 LED 패널의 이미지를 처리하여 내장된 데이터를 추출한 다음, 이를 디코딩하여 원본 데이터를 얻을 수 있다. 도 1에 도시된 바와 같이, 이미지 처리 컴포넌트는 LED 패널 검출 및 LED 비트 검출의 두 개의 컴포넌트를 포함한다. 상기 LED 패널 검출 및 LED 비트 검출은 서로 다른 목적을 가지고 있으며, 알고리즘은 다른 클래스를 사용할 수 있다. LED 패널 검출은 LED 비트 검출과 별도로 처리해야할 수 있다. LED 패널 검출과 LED 비트 검출은 도 2를 통해 설명하도록 한다.A system structure of a vehicle optical camera communication (VOCC) system according to an embodiment is shown in FIG. 1. At the transmitting side, digital bits 1 and 0 may be transmitted according to the On and Off status of the LED chip in the LED panel after error correction coding and modulation. The receiving side can process the image of the LED panel to extract the embedded data, and then decode it to obtain the original data. As shown in Fig. 1, the image processing component includes two components: LED panel detection and LED bit detection. The LED panel detection and LED bit detection have different purposes, and different classes of algorithms can be used. LED panel detection may have to be handled separately from LED bit detection. LED panel detection and LED bit detection will be described with reference to FIG. 2.

도 2는 일실시예에 따른 LED 패널과 LED 비트를 감지하는 것에 관한 도면이다.2 is a diagram illustrating an LED panel and detecting an LED bit according to an embodiment.

도 2는 LED 패널과 LED 비트 검출 간의 차이점을 보여준다. 도 2의 왼쪽 도면은 LED 패널 검출에서 전체 이미지가 처리되어 이미지의 LED 패널 좌표를 감지하는 것을 도시한 것이다. 도 2의 오른쪽 도면은 LED 비트 검출에서 감지 된 LED 패널을 면밀히 검사하여 패널의 각 LED 칩의 켜짐 또는 꺼짐 상태를 찾는 것을 도시한 도면이다. LED 칩의 켜짐 또는 꺼짐 상태는 논리 비트 1 및 0으로 변환될 수 있다. 그 후, 오류를 수정하는 디코딩을 할 수 있고, 원본 전송 데이터가 획득될 수 있다. 후술하는 실시예들은 VOCC에서 높은 BER(Bit error rate)을 달성하는데 필요한 LED 비트 검출 알고리즘에 관한 실시예들이다. 후술하는 실시예들에서는 LED 패널의 좌표는 미리 얻어 졌다고 가정한다. 시뮬레이션에서 LED 패널의 좌표는 간단한 LED 패널 감지 알고리즘을 사용하여 얻을 수 있다.2 shows the difference between LED panel and LED bit detection. The left drawing of FIG. 2 shows that the entire image is processed in LED panel detection to detect the LED panel coordinates of the image. The right diagram of FIG. 2 is a diagram illustrating finding the on or off state of each LED chip of the panel by closely inspecting the LED panel detected in the LED bit detection. The on or off state of the LED chip can be converted to logic bits 1 and 0. Thereafter, decoding to correct errors can be performed, and original transmission data can be obtained. The embodiments to be described later are embodiments related to an LED bit detection algorithm required to achieve a high bit error rate (BER) in VOCC. In the embodiments described later, it is assumed that the coordinates of the LED panel are obtained in advance. In the simulation, the coordinates of the LED panel can be obtained using a simple LED panel detection algorithm.

도 3은 일실시예에 따른 그레이스케일 레벨에 기초하여 LED 비트를 감지하는 것을 도시한 도면이다.3 is a diagram illustrating detecting an LED bit based on a grayscale level according to an embodiment.

원칙적으로, LED 패널이 위치한 후에는 선명한 이미지에서 LED의 켜짐 및 꺼짐 상태를 쉽게 감지할 수 있다. 도 3에서 설명한 바와 같이, 각 LED 칩의 상태는 각 LED 칩의 그레이스케일 레벨을 임계 값과 비교함으로써 간단히 결정될 수 있다. 이미지 센서 및 비교기 회로에 의해, LED 패널 이미지는 2진화될 수 있다. 이미지는 LED가 켜진 상태가 흰색이고, LED가 꺼진 상태는 검은색인 흑백 이미지로 구성될 수 있다. LED의 휘도는 배경에서 다른 물체의 휘도보다 훨씬 높아야, 이미지가 흑과 백으로 2진화될 수 있다.In principle, after the LED panel is positioned, it is easy to detect the on and off status of the LED in a clear image. As described in FIG. 3, the state of each LED chip can be determined simply by comparing the grayscale level of each LED chip with a threshold value. With the image sensor and comparator circuit, the LED panel image can be binarized. The image may consist of a black and white image in which the LED is turned on in white and the LED is turned off in black. The brightness of the LED must be much higher than that of other objects in the background, so the image can be binarized into black and white.

출력된 그레이스케일 이미지는 미리 결정된 임계 값을 사용하여 2 진화될 수 있다. 임계 값은 테스트 이미지에서 LED가 켜졌다고 판단되는 가장 낮은 그레이스케일 값일 수 있다. 프레임 간의 그레이스케일 레벨 변화의 영향을 줄이기 위해 0부터 255까지의 범위에 있는 LED의 그레이스케일 레벨은 고정된 표준값을 사용하여 -1에서 1까지의 범위로 정규화될 수 있다. 이 표준값은 모든 LED가 켜져있는 테스트 백색 LED 패널의 최대 그레이스케일 레벨로 결정될 수 있다. 그레이 스케일은 -1에서 1까지의 범위로 조정되므로 켜기 및 끄기 LED를 구분하기위한 임계값은 0이 될 수 있다. 프레임 사이 그레이스케일 변화의 영향은 프리앰블 프레임을 통해 온 및 오프 LED의 그레이 스케일을 반복적으로 측정함으로써 효과적으로 제거될 수 있다. 따라서 임계 값은 1000 프레임마다 업데이트 될 수 있다.The output grayscale image can be binarized using a predetermined threshold. The threshold value may be the lowest grayscale value at which the LED is determined to be turned on in the test image. To reduce the effect of grayscale level changes between frames, the grayscale level of an LED in the range 0 to 255 can be normalized to a range of -1 to 1 using a fixed standard value. This standard value can be determined by the maximum grayscale level of the test white LED panel with all LEDs on. The gray scale is scaled from -1 to 1, so the threshold to differentiate between on and off LEDs can be zero. The effect of the grayscale change between frames can be effectively eliminated by repeatedly measuring the grayscale of the on and off LEDs through the preamble frame. Therefore, the threshold value can be updated every 1000 frames.

도 4는 일실시예에 따라 LED 패널의 그레이스케일 레벨이 차이를 보이는 것을 나타낸 도면이다.4 is a diagram illustrating a difference in grayscale levels of an LED panel according to an exemplary embodiment.

카메라에 의해 설정된 주어진 ISO 속도 S에서 이미지 센서 내의 픽셀에서 그레이 스케일 값 G가 수학식 1에 따라 결정될 수 있다.The gray scale value G in the pixel in the image sensor at a given ISO speed S set by the camera may be determined according to Equation 1.

Figure 112019083130920-pat00001
Figure 112019083130920-pat00001

여기서, H는 화소에 도달하는 빛의 양에 대응하는 발광 노광량이고,Here, H is the amount of light emission corresponding to the amount of light reaching the pixel,

Figure 112019083130920-pat00002
는 그레이스케일 레벨을 얻기 위해 ISO 속도 S에서 요구되는 표시된 노광량일 수 있다.
Figure 112019083130920-pat00002
May be the indicated exposure amount required at ISO speed S to obtain the grayscale level.

Off LED에서 이미지 센서로 들어오는 빛은 LED 표면에서 반사되는 주변 광일 수 있다. 따라서, Off LED 픽셀의 발광 노광은 수학식 2를 통해 계산될 수 있다.The light entering the image sensor from the Off LED may be ambient light reflected off the surface of the LED. Accordingly, the light emission exposure of the Off LED pixel can be calculated through Equation 2.

Figure 112019083130920-pat00003
Figure 112019083130920-pat00003

여기서, Ev는 주변 광의 조도, R은 LED 표면의 반사율, t는 카메라의 노광 시간, N은 렌즈의 F- 넘버, K는에 의해 결정되는 반사광 측정기 보정 상수이다.Here, Ev is the illuminance of the ambient light, R is the reflectance of the LED surface, t is the exposure time of the camera, N is the F-number of the lens, and K is a reflection light meter correction constant determined by.

On LED에서 이미지 센서로 들어오는 빛은 LED에 의해 방출 된 빛과 LED 표면에서 반사 된 주변 광선의 조합일 수 있다. 따라서, On LED 픽셀의 발광 노광은 수학식 3을 통해 계산될 수 있다.The light coming from the On LED to the image sensor may be a combination of the light emitted by the LED and the ambient light reflected off the LED surface. Accordingly, the light emission exposure of the On LED pixel can be calculated through Equation 3.

Figure 112019083130920-pat00004
Figure 112019083130920-pat00004

Lv는 LED의 조도일 수 있다.Lv may be the illuminance of the LED.

수학식 1, 2, 3로부터 계산되는 On 및 Off LED의 그레이스케일 레벨은 차량 및 상황 등의 다양한 요인에 의해 결정될 수 있다. 도 4에 도시 된 바와 같이, 도 4a의 온 LED의 그레이 스케일은 도 4b의 오프 LED의 그레이 스케일보다 훨씬 낮다. 따라서 모든 상황에서 모든 차량의 LED 상태를 정확하게 구별하는 데 사용할 수 있는 고정 임계 값은 없고, 상황에 따라 적응적으로(adaptably) 사용할 수 있는 변동 임계 값을 설정해야 한다.Grayscale levels of the On and Off LEDs calculated from Equations 1, 2, and 3 may be determined by various factors such as a vehicle and a situation. As shown in Fig. 4, the gray scale of the on LED of Fig. 4a is much lower than the gray scale of the off LED of Fig. 4b. Therefore, there is no fixed threshold that can be used to accurately distinguish the LED states of all vehicles in all situations, and a fluctuation threshold that can be used adaptively depending on the situation must be set.

도 5는 일실시예에 따라 LED 패널에서 빛 번짐 효과(Blooming effect)가 나타나는 것을 도시한 도면이다.5 is a diagram illustrating that a blooming effect appears in an LED panel according to an exemplary embodiment.

이미지 획득시 많은 결함으로 인해 캡처 된 LED 이미지에 흐려짐이 생겨 그레이 스케일이 무효화 될 수 있다. 두 가지 주요 결점은 Airy 회절(Airy diffraction pattern)과 광학 수차(Optical aberrations)이다. Airy 회절은 빛의 휘몰아치는 본질에 의해 야기되는 피할 수 없는 현상이다. Airy 회절은 캡쳐된 이미지에서 물체의 경계로부터 연장되는 빛의 스트라이프 패턴을 생성한다. 그 효과는 도 5에서 볼 수 있듯이 들어오는 이미지를 Airy 디스크 회절 패턴으로 컨볼빙(convolving)하는 것으로 수학적으로 설명 될 수 있다. 광학 수차는 렌즈 생산에서 결함으로 형성된 이미지의 왜곡이다. Airy 회절과 마찬가지로 광학 수차는 점으로 초점을 맞추기보다는 영역 위로 빛을 분산시켜 이미지 흐리게 만든다.During image acquisition, a number of defects can cause blur in the captured LED image to invalidate the gray scale. The two main drawbacks are Airy diffraction pattern and optical aberrations. Airy diffraction is an inevitable phenomenon caused by the swirling nature of light. Airy diffraction creates a striped pattern of light that extends from the boundary of the object in the captured image. The effect can be mathematically explained by convolving the incoming image into an Airy disk diffraction pattern as shown in FIG. 5. Optical aberration is the distortion of an image formed by defects in lens production. Like Airy diffraction, optical aberrations blur the image by scattering light over an area rather than focusing it as a point.

이미지가 흐려져 것에 따라 도래되는 결과는 도 6에서 도시된 LED 블루밍 간섭(Blooming interference)이다. 간섭 때문에 LED의 그레이 스케일 레벨은 주변 LED에 의해 심각하게 변경될 수 있다. 예를 들어, 선술한 도 4b는 이웃 LED로부터의 간섭에 의해 심각한 영향을 받으므로, 정확한 LED 조명 상태 판단이 어려울 수 있다.The result that comes as the image becomes blurred is the LED Blooming interference shown in FIG. 6. Due to interference, the gray scale level of the LEDs can be severely changed by the surrounding LEDs. For example, since FIG. 4B described above is severely affected by interference from neighboring LEDs, it may be difficult to accurately determine the LED lighting state.

도 6은 일실시예에 따라 LED의 조명 상태를 판단하기 위한 방법을 나타낸 도면이다.6 is a diagram illustrating a method for determining an illumination state of an LED according to an exemplary embodiment.

먼저 LED 패널 감지 알고리즘을 사용하여 이미지의 전체 LED 패널 위치를 결정할 수 있다. 이 알고리즘에 따른 출력은 볼록 선체(Convex hull)이며, 전체 LED 패널 영역을 포함하는 최소 볼록 다각형(Convex polygon)으로 구성될 수 있다. 일실시예에 따르면, LED 패널은 직사각형 형태일 수 있다. 따라서 얻어진 볼록 선체는 사각형이거나 대부분의 경우 직사각형일 수 있다.First, the LED panel detection algorithm can be used to determine the position of the entire LED panel in the image. The output according to this algorithm is a convex hull, which can consist of a smallest convex polygon covering the entire LED panel area. According to an embodiment, the LED panel may have a rectangular shape. The resulting convex hull can thus be square or, in most cases, rectangular.

어레이의 LED 수가 제공되면, LED 패널의 전체 영역은 같은 수의 동등한 하위 영역으로 나뉠 수 있다. 도 6에 도시된 실시예에 따르면, LED 패널은 8 x 8 개의 LED를 포함하고, LED 패널은 64개의 동일한 부분 영역으로 분할된다.Given the number of LEDs in the array, the entire area of the LED panel can be divided into an equal number of equal sub-areas. According to the embodiment shown in Fig. 6, the LED panel includes 8 x 8 LEDs, and the LED panel is divided into 64 equal partial areas.

이러한 각 하위 영역은 어레이의 LED 영역으로 간주된다. 일단 LED의 영역이 결정되면, LED 영역 및 이웃하는 LED 영역 내부의 픽셀로부터 그 LED의 특징을 얻을 수 있다. 위에 설명된 절차에 관해 두 가지 측면에서 설명이 필요할 수 있다.Each of these sub-areas is considered an LED area of the array. Once the area of the LED is determined, the characteristics of the LED can be obtained from the pixels inside the LED area and the neighboring LED area. The procedure described above may require explanation in two respects.

첫째, LED 영역은 크기가 작기 때문에 이미지의 단일 LED를 직접 감지하기가 어려울 수 있다. 또한 LED가 꺼지면 LED를 직접 감지하는 것이 거의 불가능할 수 있다. 그러나, 더 크고 높은 휘도를 가진 패널 내부의 On LED의 존재로 인해, 패널은 이미지의 배경에 비해 더 쉽게 감지될 수 있다. 따라서, LED 영역을 직접 감지하는 것 보다 전체 LED 패널을 감지하는 것이 더 쉬울 수 있다. 이에 따라, 각 LED의 영역은 도 6과 같이 감지된 LED 패널을 나누어 간접적으로 얻을 수 있습니다. 또한, 각 LED 영역의 면적은 LED 패널의 크기에 비례할 수 있다. 결과적으로 LED 패널이 감지되면, 하나의 패널의 LED 영역은 LED의 크기에 관계없이 결정될 수 있다.First, because the LED area is small, it can be difficult to directly detect a single LED in the image. Also, it can be nearly impossible to detect the LED directly when the LED is off. However, due to the presence of the On LED inside the panel with a larger and higher luminance, the panel can be detected more easily compared to the background of the image. Therefore, it may be easier to detect the entire LED panel than to directly detect the LED area. Accordingly, each LED area can be obtained indirectly by dividing the detected LED panel as shown in FIG. 6. In addition, the area of each LED area may be proportional to the size of the LED panel. As a result, when the LED panel is detected, the LED area of one panel can be determined regardless of the size of the LED.

둘째, 영역 분할을 위한 어레이의 LED 수를 알아야 한다. 일실시예에 따르면, LED 수는 VOCC 표준에 지정된 고정 번호이어야 한다. 또한,LED 수는 두 차량 간의 통신 채널 설정에 필요한 프리앰블 프레임을 통해 쉽게 얻을 수 있다.Second, it is necessary to know the number of LEDs in the array for segmentation. According to one embodiment, the number of LEDs must be a fixed number specified in the VOCC standard. In addition, the number of LEDs can be easily obtained through the preamble frame required to establish a communication channel between two vehicles.

LED의 조명 상태를 정확하게 검출하기 위해, LED on과 off 상태의 차이점을 구분할 수 있는 특징을 결정 해야한다. 선택된 특징은 또한 LED 그레이 스케일 변화 및 LED 블루밍 간섭과 같은 문제를 극복 해야한다. 이러한 기준에 기초하여, 평균 그레이스케일 비 (AGR), 그라디언트 내측 경도 (GRI) 및 인접 그레이스케일 비 (NGR)의 3 가지 특징이 제안된다.In order to accurately detect the lighting status of the LED, it is necessary to determine the characteristics that can distinguish the difference between the LED on and off status. The selected feature should also overcome problems such as LED gray scale change and LED blooming interference. Based on this criterion, three features are proposed: average grayscale ratio (AGR), gradient inner hardness (GRI) and adjacent grayscale ratio (NGR).

평균 그레이스케일 비(AGR) 특징을 이용하여 조명 상태를 검출하는 것은 전체 LED 패널에 대한 LED 영역의 비율을 이용하여 LED 조명 상태를 검출하는 것이다. 그라디언트 내측 경도(GRI) 특징을 이용하여 조명 상태를 검출하는 것은 LED 영역 내의 복수개의 그라디언트의 방향성을 이용하여 LED 조명 상태를 검출하는 것이다. 인접 그레이스케일 비(NGR) 특징을 이용하여 조명 상태를 검출하는 것은 대상 LED 영역 주변의 이웃 영역들의 그레이스케일 레벨을 이용하여 LED 조명 상태를 검출하는 것이다. 일실시예에 따르면, 3가지 중 적어도 하나의 특징을 이용하여 LED 조명 상태를 검출할 수 있는데, 복수개의 특징을 이용하는 경우, 후술하는 도 10 및 도 11에 기초하여 결과값들이 분류될 수 있다.Detecting the lighting condition using the average grayscale ratio (AGR) feature is to detect the LED lighting condition using the ratio of the LED area to the total LED panel. Detecting the lighting state using the gradient inner hardness (GRI) feature is to detect the LED lighting state using the directions of a plurality of gradients in the LED area. Detecting the lighting state using the neighboring grayscale ratio (NGR) feature is to detect the LED lighting state using the grayscale levels of neighboring regions around the target LED region. According to an embodiment, the LED lighting state may be detected using at least one of the three features. In the case of using a plurality of features, result values may be classified based on FIGS. 10 and 11 to be described later.

도 7은 일실시예에 따라 LED의 조명 상태를 판단하기 위한 방법의 흐름도를 도시한 도면이다.7 is a diagram illustrating a flow chart of a method for determining an illumination state of an LED according to an exemplary embodiment.

단계(710)에서, 프로세서는 외부 LED 가시광 신호의 수신에 기초하여, LED 이미지 프레임을 생성할 수 있다. 외부 LED 가시광 신호는 LED 가시광이 매질을 통해 전파되어 입력 장치에 수신되는 신호일 수 있다. 예시적으로, 외부 LED 가시광 신호는 외부 LED의 가시광이 전파되어 광학 센서 또는 카메라에 의해 검출되는 신호일 수 있다. 프로세서는 수신된 가시광 신호를 LED 이미지 프레임으로 변환시켜 생성할 수 있다.In step 710, the processor may generate an LED image frame based on reception of an external LED visible light signal. The external LED visible light signal may be a signal received by the input device by propagating the visible LED light through a medium. For example, the external LED visible light signal may be a signal detected by an optical sensor or a camera by propagating visible light of an external LED. The processor may generate the received visible light signal by converting it into an LED image frame.

단계(720)에서, 프로세서는 LED 이미지 프레임을 복수개의 LED 단위 영역들로 분할할 수 있다. 프로세서는 LED 단위 영역을 사용자가 미리 지정하거나 표준에 의해 정해진 개수에 따라 분할할 수 있다. 예시적으로, 프로세서는 이미지 프레임을 8 x 8의 LED 단위 영역으로 분할할 수 있다.In step 720, the processor may divide the LED image frame into a plurality of LED unit regions. The processor may pre-designate the LED unit area or divide it according to the number determined by the standard. For example, the processor may divide the image frame into 8 x 8 LED unit areas.

단계(730)에서, 프로세서는 LED 전체 영역을 대표하는 전체 그레이스케일 레벨을 산출할 수 있다. LED 전체 영역은 LED 패널 영역을 의미할 수 있다. 일실시예에 따르면, 전체 그레이스케일 레벨은 LED 단위 영역들의 그레이스케일 레벨의 평균값을 계산하고, 평균값을 전체 그레이스케일 레벨로 설정할 수 있다. 예시적으로, 이미지 프레임이 64개의 단위 영역으로 구성된 경우, 프로세서는 64개의 단위 영역들의 그레이스케일 레벨을 산출하여 평균값을 계산할 수 있다. 계산된 평균값은 LED 전체 영역을 대표하는 전체 그레이스케일 레벨일 수 있다.In step 730, the processor may calculate an overall grayscale level representing the entire area of the LED. The entire LED area may mean the LED panel area. According to an embodiment, the total grayscale level may be calculated by calculating an average value of the grayscale levels of the LED unit regions, and the average value may be set as the total grayscale level. For example, when an image frame is composed of 64 unit areas, the processor may calculate an average value by calculating grayscale levels of 64 unit areas. The calculated average value may be an overall grayscale level representing the entire area of the LED.

단계(740)에서, 프로세서는 단위 영역들 중 대상 영역을 대표하는 대상 그레이스케일 레벨을 산출할 수 있다. 일실시예에 따르면, 프로세서는 분할된 단위 영역들의 각각을 순차적으로 대상 영역으로 선택할 수 있다. 프로세서가 순차적으로 대상 영역을 선택하고, 각각의 대상 영역에 대해 후술하는 단계들을 수행하므로, 분할된 단위 영역들 모두에 대해 LED 조명 상태를 판단할 수 있다.In step 740, the processor may calculate a target grayscale level representing the target area among the unit areas. According to an embodiment, the processor may sequentially select each of the divided unit areas as a target area. Since the processor sequentially selects a target area and performs steps described below for each target area, it is possible to determine the LED lighting state for all of the divided unit areas.

프로세서는 대상 영역에 존재하는 픽셀들의 그레이스케일 레벨들을 추출하고, 추출된 그레이스케일 레벨의 평균값을 계산하여, 계산된 평균값을 대상 영역의 그레이스케일 레벨로 설정할 수 있다. 프로세서는 대상 영역을 복수 개의 픽셀 단위로 검출할 수 있고, 복수 개의 픽셀들의 그레이스케일 레벨을 추출할 수 있다.The processor may extract grayscale levels of pixels existing in the target area, calculate an average value of the extracted grayscale levels, and set the calculated average value as the grayscale level of the target area. The processor may detect the target area in units of a plurality of pixels, and may extract grayscale levels of the plurality of pixels.

단계(750)에서, 프로세서는 전체 그레이스케일 레벨 및 대상 그레이스케일 레벨에 기초하여 대상 영역에 관련된 대상 그레이스케일 비율을 결정할 수 있다. 대상 그레이스케일 비율은 수학식 4를 통해 계산할 수 있다.In step 750, the processor may determine a target grayscale ratio related to the target area based on the total grayscale level and the target grayscale level. The target grayscale ratio can be calculated through Equation 4.

Figure 112019083130920-pat00005
Figure 112019083130920-pat00005

수학식 4에서,

Figure 112019083130920-pat00006
는 대상 그레이스케일 레벨이고,
Figure 112019083130920-pat00007
는 전체 그레이스케일 레벨이다.In Equation 4,
Figure 112019083130920-pat00006
Is the target grayscale level,
Figure 112019083130920-pat00007
Is the overall grayscale level.

단계(760)에서, 프로세서는 대상 그레이스케일 비율에 기초하여, 대상 영역의 조명 상태를 판단할 수 있다. 프로세서는 대상 그레이스케일 비율이 미리 설정된 임계 비율보다 큰 경우에 응답하여, 대상 영역의 조명이 켜진 상태라고 판단할 수 있다.In step 760, the processor may determine the lighting state of the target area based on the target grayscale ratio. In response to a case where the target grayscale ratio is greater than a preset threshold ratio, the processor may determine that the illumination of the target area is turned on.

도 8은 일실시예에 따라 복수 개의 그라디언트 벡터들과 비교 벡터들을 비교하는 것을 도시한 도면이다.8 is a diagram illustrating comparison of a plurality of gradient vectors and comparison vectors according to an exemplary embodiment.

도 8에 의하면, 예시적으로 LED 이미지 프레임은 2 x 2의 단위 영역들(610 내지 613)을 포함할 수 있다. 도 7에서 선술한 실시예에 따라, 프로세서는 전체 그레이스케일 레벨 및 대상 그레이스케일 레벨을 계산할 수 있다.Referring to FIG. 8, as an example, the LED image frame may include 2×2 unit areas 610 to 613. According to the embodiment described above with reference to FIG. 7, the processor may calculate the total grayscale level and the target grayscale level.

예를 들어, 그레이스케일 레벨은 레벨이 높을수록 밝은 조도를 갖는 것을 의미할 수 있고, 대상 영역(610, 613)은 3 레벨의 그레이스케일 레벨을 가질 수 있다. 대상 영역(611, 612)은 7레벨의 그레이스케일 레벨을 가질 수 있다. 전체 그레이스케일 레벨은 대상 영역들(610 내지 613)의 그레이스케일 레벨 평균값일 수 있으므로, 전체 그레이스케일 레벨은 5레벨일 수 있다.For example, the grayscale level may mean that the higher the level, the brighter illuminance, and the target regions 610 and 613 may have a grayscale level of 3 levels. The target regions 611 and 612 may have a grayscale level of 7 levels. Since the total grayscale level may be an average value of the grayscale levels of the target regions 610 to 613, the total grayscale level may be 5 levels.

프로세서는 계산된 전체 그레이스케일 레벨 및 대상 그레이스케일 레벨에 기초하여, 대상 그레이스케일 비율을 결정할 수 있다. 전체 그레이스케일 레벨은 5레벨이므로, 대상 영역(610, 613)의 대상 그레이스케일 비율은 0.6(=3/5)이고, 대상 영역(611, 612)의 대상 그레이스케일 비율은 1.4(=7/5)일 수 있다.The processor may determine the target grayscale ratio based on the calculated total grayscale level and the target grayscale level. Since the total grayscale level is 5 levels, the target grayscale ratio of the target areas 610 and 613 is 0.6 (=3/5), and the target grayscale ratio of the target areas 611 and 612 is 1.4 (=7/5). ) Can be.

프로세서는 미리 설정된 임계 비율에 기초하여, 대상 영역의 조명 상태를 판단할 수 있다. 프로세서는 대상 그레이스케일 비율이 임계 비율보다 큰 경우, 대상 영역의 조명은 켜진 상태이고, 반면에, 대상 그레이스케일 비율이 임계 비율보다 작은 경우, 대상 영역의 조명은 꺼진 상태라고 판단할 수 있다. 예시적으로, 미리 설정된 임계 비율이 1이인 경우, 대상 영역(610, 613)의 대상 그레이스케일 비율은 0.6이므로, 프로세서는 대상 영역(610, 613)의 조명은 꺼진 상태라고 판단할 수 있다. 반면, 대상 영역(611, 612)의 대상 그레이스케일 비율은 1.4이므로, 프로세서는 대상 영역(611, 612)의 조명은 켜진 상태라고 판단할 수 있다.The processor may determine the lighting state of the target area based on a preset threshold ratio. When the target grayscale ratio is greater than the threshold ratio, the processor may determine that the illumination of the target area is turned on, whereas when the target grayscale ratio is less than the threshold ratio, the illumination of the target area is turned off. For example, when the preset threshold ratio is 1, since the target grayscale ratio of the target regions 610 and 613 is 0.6, the processor may determine that the illumination of the target regions 610 and 613 is turned off. On the other hand, since the target grayscale ratio of the target areas 611 and 612 is 1.4, the processor may determine that the illumination of the target areas 611 and 612 is turned on.

도 4에 도시된 것 처럼 이미지 프레임 전체의 밝기는 주변 환경에 따라 서로 다를 수 있다. 이 경우, 고정된 임계 문턱값(threshold value)으로 조명 상태를 판단하게 되면, 프로세서가 조명 상태를 잘못 판단할 확률이 커지게 된다. 따라서, 전체 그레이스케일 레벨에 대한 대상 그레이스케일 레벨을 계산하여 대상 영역의 조명 상태를 판단하게 되면, 주변 환경에 따른 이미지 프레임 자체의 밝기 영향을 반영하여 조명 상태를 판단할 수 있다.As shown in FIG. 4, the brightness of the entire image frame may be different depending on the surrounding environment. In this case, if the lighting state is determined by a fixed threshold value, the probability that the processor incorrectly determines the lighting state increases. Accordingly, when a target grayscale level with respect to the entire grayscale level is calculated to determine the lighting state of the target area, the lighting state may be determined by reflecting the effect of the brightness of the image frame itself according to the surrounding environment.

도 9는 일실시예에 따라 LED 조명 상태를 판단한 결과값을 나타낸 도면이다.9 is a view showing a result of determining the LED lighting state according to an embodiment.

결과 그래프들(9b, 9c)은 복수개의 테스트 LED 샘플들(9a)을 통해 LED 조명 상태를 판단한 결과 그래프들이다. 복수개의 테스트 LED 샘플들(9a)은 전체 밝기가 서로 다른 LED 샘플들이다.The result graphs 9b and 9c are graphs of the results of determining the LED lighting state through the plurality of test LED samples 9a. The plurality of test LED samples 9a are LED samples having different overall brightness.

결과 그래프(9b)는 LED 단위 영역들의 평균 그레이스케일 레벨에 따라 LED 조명 상태를 판단한 결과 그래프이다. LED status가 on인 상태와 off인 상태의 평균 그레이스케일 레벨이 오버랩된 부분이 많아, LED 평균 그레이스케일 레벨 만으로는 LED 조명 상태를 쉽게 판단할 수 없다.The result graph 9b is a result graph of determining the LED lighting state according to the average grayscale level of the LED unit areas. There are many areas where the average grayscale level of the LED status is on and off, and the average grayscale level of the LED is not easily judged by only the average grayscale level of the LED.

반면, 일실시예에 따른 결과 그래프(9c)는 도 7 내지 도 8을 통해 선술하였던 방법으로 LED 조명 상태를 판단한 결과 그래프이다. LED status가 on인 상태와 off인 상태의 LED AGR(Average greyscale ratio) 값은 미리 설정된 임계 비율을 기준으로 구별되고, 오버랩된 부분은 결과 그래프(9b)보다 적은 것을 알 수 있다. 따라서, LED 평균 그레이스케일 값으로 조명 상태를 판단하는 것 보다 전체 그레이스케일 레벨에 대한 대상 그레이스케일 레벨의 비율을 이용하여 조명 상태를 판단하는 것이 더 정확하게 조명 상태를 판단할 수 있다.On the other hand, the result graph 9c according to an exemplary embodiment is a graph of the results of determining the LED lighting state by the method previously described with reference to FIGS. 7 to 8. It can be seen that the LED status of the LED status is on and the LED average greyscale ratio (AGR) values of the off status are distinguished based on a preset threshold ratio, and the overlapped portion is less than the result graph 9b. Therefore, rather than determining the lighting state based on the LED average grayscale value, determining the lighting state using the ratio of the target grayscale level to the total grayscale level may more accurately determine the lighting state.

도 10은 일실시예에 따라 결과값들을 분류하는 방법을 도시한 도면이다.10 is a diagram illustrating a method of classifying result values according to an embodiment.

도 10에 따라 결과값들을 분류하는 방법은 모든 오브젝트가 도 10a에 표시된 것 처럼 두개 이상의 클래스로 분류되는 training data set을 필요로 한다. 임의의 n차원 벡터 w가 주어지면, n은 각 객체의 특징(feature)의 수이고, w로 설정된 트레이닝 내의 모든 객체 x의 투영은 수학식5로 주어질 수 있다.The method of classifying result values according to FIG. 10 requires a training data set in which all objects are classified into two or more classes as shown in FIG. 10A. Given an arbitrary n-dimensional vector w, n is the number of features of each object, and projections of all objects x in training set to w can be given by Equation (5).

Figure 112019083130920-pat00008
Figure 112019083130920-pat00008

여기서, 수학식 5를 통해 w와 x를 내적한 결과값을 추출할 수 있다.Here, the result of the dot product of w and x may be extracted through Equation 5.

과 은 각각 w벡터에 투영되는 클래스 0과 1의 평균값일 수 있고, And can be the average values of classes 0 and 1 projected onto the w vector, respectively,

과 은 각각 w벡터에 투영되는 클래스 0과 1의 표준편차값일 수 있다. And may be standard deviation values of classes 0 and 1 projected onto the w vector, respectively.

Figure 112019083130920-pat00009
Figure 112019083130920-pat00009

Figure 112019083130920-pat00010
Figure 112019083130920-pat00010

일실시예에 따라 결과값들을 분류하는 방법은 도 10b에 설명된 것처럼 클래스 간의 투영된 결과값들의 분산이 최대이고 클래스 내의 투영된 결과값들의 분산이 최소가 되도록 하는 판별 벡터w를 찾을 수 있다. 즉, 결과값들을 분류하는 방법은 수학식 7의 비율을 최대화하는 판별 벡터 w를 찾을 수 있다.In a method of classifying result values according to an embodiment, as illustrated in FIG. 10B, a discrimination vector w such that a variance of projected result values between classes is a maximum and a variance of projected result values within a class is a minimum may be found. That is, as a method of classifying the result values, a discriminant vector w that maximizes the ratio of Equation 7 can be found.

Figure 112019083130920-pat00011
Figure 112019083130920-pat00011

여기서,

Figure 112019083130920-pat00012
는 클래스들 간의 분산이고,
Figure 112019083130920-pat00013
는 클래스 내 분산이다.here,
Figure 112019083130920-pat00012
Is the variance between classes,
Figure 112019083130920-pat00013
Is the intraclass variance.

수학식 8에 기초하여,

Figure 112019083130920-pat00014
가 최대가 되는 판별 벡터 w를 계산할 수 있다.Based on Equation 8,
Figure 112019083130920-pat00014
The discriminant vector w at which is the maximum can be calculated.

Figure 112019083130920-pat00015
Figure 112019083130920-pat00015

여기서, 수학식 9를 이용하여 클래스 내 공분산 행렬

Figure 112019083130920-pat00016
을 구할 수 있다.Here, the intra-class covariance matrix using Equation 9
Figure 112019083130920-pat00016
Can be saved.

Figure 112019083130920-pat00017
Figure 112019083130920-pat00017

도 11은 일실시예에 따라 복수 개의 LED 조명 상태 판단 결과값을 도시한 그래프이다.11 is a graph showing a plurality of LED lighting state determination result values according to an embodiment.

LED 비트 검출에 도 10에 선술한 방법을 적용하기 위해 복수개의 LED 패널 프레임 집합을 이용할 수 있다. 각 프레임의 전송된 비트는 알려져 있고, 각 프레임의 LED의 실제 상태도 알려져 있다. LED 패널 검출 및 LED 특징 추출을 수행 한 후, 모든 프레임에서 3 차원 LED 특징 벡터의 훈련 세트

Figure 112019083130920-pat00018
를 얻을 수 있다.A plurality of LED panel frame sets may be used to apply the method described in FIG. 10 to the LED bit detection. The transmitted bits of each frame are known, and the actual state of each frame's LED is also known. After performing LED panel detection and LED feature extraction, a training set of 3D LED feature vectors in every frame
Figure 112019083130920-pat00018
Can be obtained.

각 LED의 알려진 상태에 따라 두 세트의 LED 특성 벡터

Figure 112019083130920-pat00019
,
Figure 112019083130920-pat00020
가 얻어질 수 있다. 그 후, 두 집합 S0 및 S1의 평균 벡터 m0 및 m1이 각각 계산된다.Two sets of LED characteristic vectors depending on the known state of each LED
Figure 112019083130920-pat00019
,
Figure 112019083130920-pat00020
Can be obtained. Then, the average vectors m0 and m1 of the two sets S0 and S1 are calculated, respectively.

공분산 행렬

Figure 112019083130920-pat00021
은 수학식 10에 기초하여 계산될 수 있다.Covariance matrix
Figure 112019083130920-pat00021
May be calculated based on Equation 10.

Figure 112019083130920-pat00022
Figure 112019083130920-pat00022

여기서,

Figure 112019083130920-pat00023
는 모든 LED 특징 벡터들로부터 계산된 3 x 3 공분산 행렬이다.here,
Figure 112019083130920-pat00023
Is the 3 x 3 covariance matrix calculated from all LED feature vectors.

Figure 112019083130920-pat00024
Figure 112019083130920-pat00024

여기서,

Figure 112019083130920-pat00025
는 특징
Figure 112019083130920-pat00026
Figure 112019083130920-pat00027
사이의 분산이다.here,
Figure 112019083130920-pat00025
Features
Figure 112019083130920-pat00026
Wow
Figure 112019083130920-pat00027
Is the variance between.

도 10에서 선술한 방법으로, 판별 벡터 w를 구하고, 입력 프레임에서 추출한 특징 벡터 u에 기초하여 LED 조명 상태 판단할 수 있다.In the method described in FIG. 10, the discrimination vector w is obtained, and the LED lighting state may be determined based on the feature vector u extracted from the input frame.

Figure 112019083130920-pat00028
Figure 112019083130920-pat00028

여기서, thres는 세트S의 모든 특징 벡터가 투영된 값의 평균이다.Here, thres is the average of the projected values of all feature vectors of set S.

Figure 112019083130920-pat00029
Figure 112019083130920-pat00029

예시적으로, 도 11에 도시된 바와 같이 100개의 샘플 프레임을 이용하여, LED의 on과 off 상태를 구별할 수 있는 판별 벡터 w를 찾을 수 있다.For example, as illustrated in FIG. 11, using 100 sample frames, a discrimination vector w capable of distinguishing the on and off states of the LED can be found.

도 12는 일실시예에 따라 LED 조명 상태를 판단하는 장치의 구성을 나타낸 블록도이다.12 is a block diagram showing the configuration of an apparatus for determining an LED lighting state according to an embodiment.

장치(1200)는 이미지 생성부(1210), 메모리(1220), 프로세서(1230)를 포함할 수 있다. 이미지 생성부(1210)는 외부 LED 가시광 신호의 수신에 기초하여, LED 이미지 프레임을 생성할 수 있다. 이미지 생성부(1210)는 프로세서(1230)와 별개의 물리적 모듈로서, 이미지 프레임을 생성할 수 도 있으나, 프로세서(1230)의 물리적 모듈에 포함되고 프로세서(1230)의 연산을 처리하는 알고리즘과 구별되는 알고리즘으로 이미지 프레임을 생성할 수 도 있다.The device 1200 may include an image generator 1210, a memory 1220, and a processor 1230. The image generator 1210 may generate an LED image frame based on reception of an external LED visible light signal. The image generator 1210 is a physical module separate from the processor 1230, and may generate an image frame, but is included in the physical module of the processor 1230 and is distinguished from an algorithm that processes an operation of the processor 1230. It is also possible to generate an image frame with an algorithm.

프로세서(1230)는 LED 이미지 프레임을 복수 개의 LED 단위 영역들로 분할하고, LED 이미지 프레임의 전체를 대표하는 전체 그레이스케일 레벨을 산출할 수 있다. 프로세서(1230)는 LED 단위 영역들 중 대상 영역을 대표하는 대상 그레이스케일 레벨을 산출하고, 전체 그레이스케일 레벨 및 대상 그레이스케일 레벨에 기초하여 대상 영역에 관련된 대상 그레이스케일 비율을 결정할 수 있다. 또한, 프로세서(1230)는 대상 그레이스케일 비율에 기초하여, 대상 영역의 조명 상태를 판단할 수 있다.The processor 1230 may divide the LED image frame into a plurality of LED unit regions, and calculate an overall grayscale level representing the entire LED image frame. The processor 1230 may calculate a target grayscale level representing the target area among the LED unit areas, and determine a target grayscale ratio related to the target area based on the total grayscale level and the target grayscale level. Also, the processor 1230 may determine the lighting state of the target area based on the target grayscale ratio.

메모리(1220)는 LED 이미지 프레임, 전체 스케일 레벨, 대상 스케일 레벨, 및 대상 그레이스케일 비율 중 적어도 하나를 적어도 일시적으로 저장할 수 있다.The memory 1220 may temporarily store at least one of an LED image frame, a full scale level, a target scale level, and a target grayscale ratio.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented as a hardware component, a software component, and/or a combination of a hardware component and a software component. For example, the devices, methods, and components described in the embodiments are, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA). array), programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications executed on the operating system. Further, the processing device may access, store, manipulate, process, and generate data in response to the execution of software. For the convenience of understanding, although it is sometimes described that one processing device is used, one of ordinary skill in the art, the processing device is a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of these, configuring the processing unit to operate as desired or processed independently or collectively. You can command the device. Software and/or data may be interpreted by a processing device or, to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. , Or may be permanently or temporarily embodyed in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operation of the embodiment, and vice versa.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described by the limited drawings, a person of ordinary skill in the art can apply various technical modifications and variations based on the above. For example, the described techniques are performed in a different order from the described method, and/or components such as systems, structures, devices, circuits, etc. described are combined or combined in a form different from the described method, or other components Alternatively, even if substituted or substituted by an equivalent, an appropriate result can be achieved.

Claims (9)

외부 LED 가시광 신호의 수신에 기초하여, LED 이미지 프레임을 생성하는 단계;
상기 LED 이미지 프레임을 복수 개의 LED 단위 영역들로 분할하는 단계;
상기 LED 이미지 프레임의 전체를 대표하는 전체 그레이스케일 레벨을 산출하는 단계;
LED 단위 영역들 중 차량의 LED 조명이 배치된 대상 영역을 대표하는 대상 그레이스케일 레벨을 산출하는 단계;
상기 전체 그레이스케일 레벨에 대한 상기 대상 그레이스케일 레벨의 비율로 상기 대상 영역에 관련된 대상 그레이스케일 비율을 결정하는 단계; 및
상기 대상 그레이스케일 비율과 미리 설정된 임계 비율을 비교하여 상기 대상 영역의 조명 상태를 판단하는 단계
를 포함하고,
상기 전체 그레이스케일 레벨을 산출하는 단계는,
상기 단위 영역들의 그레이스케일 레벨을 추출하는 단계; 및
상기 추출한 그레이스케일 레벨의 평균값을 계산하고, 상기 평균값을 상기 전체 그레이스케일 레벨로 설정하는 단계를 포함하고,
상기 대상 영역의 그레이스케일 레벨을 산출하는 단계는,
상기 대상 영역에 존재하는 픽셀들의 그레이스케일 레벨들을 추출하는 단계;
상기 추출된 그레이스케일 레벨의 평균값을 계산하고, 상기 평균값을 상기 대상 영역의 그레이스케일 레벨로 설정하는 단계를 포함하는,
LED 조명 상태 판단 방법.
Generating an LED image frame based on the reception of an external LED visible light signal;
Dividing the LED image frame into a plurality of LED unit areas;
Calculating an overall grayscale level representing the entire LED image frame;
Calculating a target grayscale level representing a target area in which the LED lighting of the vehicle is arranged among the LED unit areas;
Determining a target grayscale ratio related to the target area as a ratio of the target grayscale level to the total grayscale level; And
Determining the lighting state of the target area by comparing the target grayscale ratio with a preset threshold ratio
Including,
The step of calculating the overall grayscale level,
Extracting grayscale levels of the unit regions; And
Computing an average value of the extracted grayscale levels, and setting the average value to the total grayscale level,
The step of calculating the grayscale level of the target area,
Extracting grayscale levels of pixels existing in the target area;
Computing an average value of the extracted grayscale level, and setting the average value as a grayscale level of the target area,
How to determine the LED lighting status.
삭제delete 제1항에 있어서,
상기 대상 영역의 조명 상태를 판단하는 단계는,
상기 비율이 상기 미리 설정된 임계 비율보다 큰 경우에 응답하여, 상기 대상 영역의 조명이 켜진 상태라고 판단하는 단계
를 포함하는 LED 조명 상태 판단 방법.
The method of claim 1,
Determining the lighting state of the target area,
In response to the ratio being greater than the preset threshold ratio, determining that the illumination of the target area is turned on
LED lighting state determination method comprising a.
삭제delete 제1항 및 제3항 중 어느 한 항의 방법을 수행하기 위한 명령어들을 포함하는 하나 이상의 컴퓨터 프로그램을 저장한 컴퓨터 판독 가능 기록 매체.A computer-readable recording medium storing one or more computer programs including instructions for performing the method of any one of claims 1 and 3. 외부 LED 가시광 신호의 수신에 기초하여, LED 이미지 프레임을 생성하는 이미지 생성부;
상기 LED 이미지 프레임을 복수 개의 LED 단위 영역들로 분할하고,
상기 LED 이미지 프레임의 전체를 대표하는 전체 그레이스케일 레벨을 산출하며,
상기 LED 단위 영역들 중 차량의 LED 조명이 배치된 대상 영역을 대표하는 대상 그레이스케일 레벨을 산출하고,
상기 전체 그레이스케일 레벨에 대한 상기 대상 그레이스케일 레벨의 비율로 상기 대상 영역에 관련된 대상 그레이스케일 비율을 결정하는 프로세서; 및
상기 전체 그레이스케일 레벨, 상기 대상 영역의 그레이스케일 레벨, 및 상기 대상 그레이스케일 비율 중 적어도 하나를 저장하는 메모리
를 포함하고,
상기 프로세서는,
상기 단위 영역들의 그레이스케일 레벨을 추출하고, 상기 추출한 그레이스케일 레벨의 평균값을 계산하여, 상기 평균값을 상기 전체 그레이스케일 레벨로 설정하며,
상기 대상 영역에 존재하는 픽셀들의 그레이스케일 레벨들을 추출하고, 상기 추출된 그레이스케일 레벨의 평균값을 계산하여, 상기 평균값을 상기 대상 영역의 그레이스케일 레벨로 설정하며,
상기 대상 그레이스케일 비율과 미리 설정된 임계 비율을 비교하여 상기 대상 영역의 조명 상태를 판단하는 LED 조명 상태 판단 장치.
An image generator configured to generate an LED image frame based on the reception of an external LED visible light signal;
Dividing the LED image frame into a plurality of LED unit areas,
Calculating a total grayscale level representing the entire LED image frame,
Calculate a target grayscale level representing a target area where the LED lighting of the vehicle is arranged among the LED unit areas,
A processor configured to determine a target grayscale ratio related to the target area as a ratio of the target grayscale level to the total grayscale level; And
A memory for storing at least one of the total grayscale level, the grayscale level of the target area, and the target grayscale ratio
Including,
The processor,
Extracting grayscale levels of the unit regions, calculating an average value of the extracted grayscale levels, and setting the average value as the total grayscale level,
Extracting grayscale levels of pixels existing in the target area, calculating an average value of the extracted grayscale levels, and setting the average value as the grayscale level of the target area,
LED lighting state determination device for determining the lighting state of the target area by comparing the target grayscale ratio and a preset threshold ratio.
삭제delete 제6항에 있어서,
상기 프로세서는,
상기 비율이 상기 미리 설정된 임계 비율보다 큰 경우에 응답하여, 상기 대상 영역의 조명이 켜진 상태라고 판단하는 LED 조명 상태 판단 장치.
The method of claim 6,
The processor,
In response to the ratio being greater than the preset threshold ratio, the LED lighting state determination device determines that the lighting of the target area is turned on.
삭제delete
KR1020190099048A 2019-08-13 2019-08-13 Apparatus and method for determining status of vehicle LED lighting based on average grayscale ratio KR102223324B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190099048A KR102223324B1 (en) 2019-08-13 2019-08-13 Apparatus and method for determining status of vehicle LED lighting based on average grayscale ratio

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190099048A KR102223324B1 (en) 2019-08-13 2019-08-13 Apparatus and method for determining status of vehicle LED lighting based on average grayscale ratio

Publications (2)

Publication Number Publication Date
KR20210019879A KR20210019879A (en) 2021-02-23
KR102223324B1 true KR102223324B1 (en) 2021-03-05

Family

ID=74688182

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190099048A KR102223324B1 (en) 2019-08-13 2019-08-13 Apparatus and method for determining status of vehicle LED lighting based on average grayscale ratio

Country Status (1)

Country Link
KR (1) KR102223324B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005190435A (en) * 2003-12-26 2005-07-14 Konica Minolta Photo Imaging Inc Image processing method, image processing apparatus and image recording apparatus
JP2009088704A (en) * 2007-09-27 2009-04-23 Toyota Central R&D Labs Inc Optical transmitting device, optical receiving device, and optical communication system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100736356B1 (en) 2006-08-25 2007-07-06 엠텍비젼 주식회사 Image edge detection apparatus and method, image sharpness emphasizing apparatus and method, recorded medium recorded the program performing it
KR101613614B1 (en) * 2009-07-17 2016-04-29 삼성전자주식회사 Digital image photographing apparatus, method for controlling the same, and medium for recording the method
KR101929560B1 (en) 2013-01-29 2019-03-14 삼성전자주식회사 Method and apparatus for detecting edge in image

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005190435A (en) * 2003-12-26 2005-07-14 Konica Minolta Photo Imaging Inc Image processing method, image processing apparatus and image recording apparatus
JP2009088704A (en) * 2007-09-27 2009-04-23 Toyota Central R&D Labs Inc Optical transmitting device, optical receiving device, and optical communication system

Also Published As

Publication number Publication date
KR20210019879A (en) 2021-02-23

Similar Documents

Publication Publication Date Title
JP6581068B2 (en) Image processing apparatus, image processing method, program, operation control system, and vehicle
KR102108953B1 (en) Robust camera and lidar sensor fusion method and system
US9501703B2 (en) Apparatus and method for recognizing traffic sign board
KR20220000977A (en) Apparatus and method for providing guidance information using crosswalk recognition result
KR101848019B1 (en) Method and Apparatus for Detecting Vehicle License Plate by Detecting Vehicle Area
US10043090B2 (en) Information processing device, information processing method, computer-readable recording medium, and inspection system
US10783391B2 (en) Method and system for recognizing license plate
KR20170070715A (en) Appartus and method for Object detection based on Deep leaning, apparatus for Learning thereof
KR101279712B1 (en) Apparatus and method for providing real-time lane detection, recording medium thereof
US20170228606A1 (en) Information processing apparatus, information processing method, and recording medium
US20210103746A1 (en) Method and apparatus for identifying travelling state of intelligent driving device, and device
KR20200092842A (en) Learning method and learning device for improving segmentation performance to be used for detecting road user events using double embedding configuration in multi-camera system and testing method and testing device using the same
KR101735874B1 (en) Apparatus and method for detecting vehicle number plate
JP7241772B2 (en) Image processing device
KR20160037481A (en) Shadow removal method for image recognition and apparatus using the same
CN115100614A (en) Evaluation method and device of vehicle perception system, vehicle and storage medium
US20210271979A1 (en) Method, a system, a storage portion and a vehicle adapting an initial model of a neural network
KR102223324B1 (en) Apparatus and method for determining status of vehicle LED lighting based on average grayscale ratio
KR102223316B1 (en) Apparatus and method for determining status of vehicle LED lighting based on comparison of gradient vectors
KR102223320B1 (en) Apparatus and method for determining status of vehicle LED lighting based on comparison of adjacent grayscale
KR101268596B1 (en) Foreground extraction apparatus and method using CCB and MT LBP
KR102118783B1 (en) Preprocessing method for color filtering robust against illumination environment and the system thereof
Islam et al. A new method for road surface detection
JP6354316B2 (en) Image detection apparatus and program
KR102143918B1 (en) Apparatus and method for detecting LED edge based on adaptive threshold

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right