KR20190086334A - Method and apparatus for tracking led in captured image based on probability - Google Patents

Method and apparatus for tracking led in captured image based on probability Download PDF

Info

Publication number
KR20190086334A
KR20190086334A KR1020180025399A KR20180025399A KR20190086334A KR 20190086334 A KR20190086334 A KR 20190086334A KR 1020180025399 A KR1020180025399 A KR 1020180025399A KR 20180025399 A KR20180025399 A KR 20180025399A KR 20190086334 A KR20190086334 A KR 20190086334A
Authority
KR
South Korea
Prior art keywords
pixel
led
probability
current frame
optical flow
Prior art date
Application number
KR1020180025399A
Other languages
Korean (ko)
Other versions
KR102099928B1 (en
Inventor
유명식
두트렁홉
최진석
Original Assignee
숭실대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 숭실대학교산학협력단 filed Critical 숭실대학교산학협력단
Publication of KR20190086334A publication Critical patent/KR20190086334A/en
Application granted granted Critical
Publication of KR102099928B1 publication Critical patent/KR102099928B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B39/00High-speed photography
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B10/00Transmission systems employing electromagnetic waves other than radio-waves, e.g. infrared, visible or ultraviolet light, or employing corpuscular radiation, e.g. quantum communication
    • H04B10/11Arrangements specific to free-space transmission, i.e. transmission through air or vacuum
    • H04B10/114Indoor or close-range type systems
    • H04B10/116Visible light communication

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

Disclosed are a method and apparatus for tracking a light emitting diode (LED) in a captured image based on probability. According to the present invention, the method comprises the steps of: configuring pixel information corresponding to a current frame based on an optical flow and a pixel intensity distribution of all pixels in the current frame among a plurality of frames included in a captured image; calculating a conditional probability that an i^th pixel belongs to an LED when the i^th pixel in the current frame corresponds to i^th pixel information in the pixel information; and determining an LED pixel belonging to the LED among all the pixels of the current frame based on the calculated conditional probability.

Description

촬영 이미지에서 확률 기반으로 LED를 추적하는 방법 및 장치{METHOD AND APPARATUS FOR TRACKING LED IN CAPTURED IMAGE BASED ON PROBABILITY}≪ Desc / Clms Page number 1 > METHOD AND APPARATUS FOR TRACKING LED IN CAPTURED IMAGE BASED ON PROBABILITY < RTI ID = 0.0 >

아래 실시예들은 촬영 이미지에서 확률 기반으로 LED를 추적하는 방법 장치에 관한 것이다.The following embodiments relate to a method for tracking an LED on a probability basis in a captured image.

차량 가시광 통신(vehicular visible light communication, V2LC)은 차량에 데이터를 전송하는데 사용할 수 있는 고전력 전면 및 후면 LED 조명이 장착되어 있기 때문에 가시광 통신(visible light communication, VLC)의 유망한 어플리케이션이다. 그러나 LED 광 신호를 수신할 때 기존의 문제점으로 인해 V2LC의 실제 어플리케이션은 거의 존재하지 않는다. VLC 시스템의 수신기는 일반적으로 포토 다이오드(photodiode, PD) 또는 이미지 센서로 구성됩니다. 그러나 PD는 주변 광에 민감한 것으로 알려져 있어 V2LC와 같은 실외용 어플리케이션에는 적합하지 않다. 이미지 센서는 햇빛을 포함하여 주변 광을 잘 처리 할 수 있지만 V2LC용 이미지 센서를 사용할 때 문제가 남아 있다. 예를 들어 카메라의 프레임 속도는 일반적으로 데이터 속도 측면에서 요구되는 것보다 훨씬 적다. 이 문제는 점점 더 많은 고속 카메라가 저렴한 가격으로 시장에 도입됨에 따라 해결될 가능성이 있다. 그러나 고속 카메라를 사용하여 일련의 LED 이미지를 촬영하는 경우에도 각 이미지에서 LED의 위치를 추적하는 것은 쉽지 않다. LED의 위치를 신속하고 정확하게 추적하는 것이 필요하기 때문이다. 또한 차량 움직임과 관련된 어려움이 있을 수 있다.Vehicular visible light communication (V2LC) is a promising application for visible light communication (VLC) because it is equipped with high power front and rear LED lights that can be used to transmit data to the vehicle. However, there are few practical applications of V2LC due to the existing problems when receiving LED optical signals. A receiver in a VLC system typically consists of a photodiode (PD) or an image sensor. PD, however, is known to be sensitive to ambient light and is not suitable for outdoor applications such as V2LC. The image sensor can handle ambient light well, including sunlight, but there is a problem when using an image sensor for V2LC. For example, the frame rate of a camera is generally much less than that required in terms of data rate. This problem is likely to be solved as more and more high-speed cameras are introduced into the market at lower prices. However, even when shooting a series of LED images using a high-speed camera, it is not easy to track the position of the LEDs in each image. This is because it is necessary to track the position of the LED quickly and accurately. There may also be difficulties associated with vehicle movement.

차량 탐지를 위한 영상 처리를 사용하는 다른 방법은 색상, 대칭 구조, 그림자, 모퉁이, 모서리 및 다양한 종류의 질감과 같은 다양한 차량 특성을 고려하여 차량 전체를 인식하는 것이 있다. 이러한 방법은 차량의 LED 라이트를 감지하는 보다 간단한 문제에 요구되는 것보다 복잡도가 높을 수 있다. 또한 이 방법에 따른 어플리케이션에는 초당 처리되어야 하는 프레임이 많을 수 있으며, 따라서 충분한 처리 속도를 달성하기 어려울 수 있다.Other methods of using image processing for vehicle detection include recognizing the entire vehicle in consideration of various vehicle characteristics such as color, symmetry structure, shadows, corners, edges, and various types of textures. This approach can be more complex than required for simpler problems of detecting the vehicle's LED light. In addition, an application according to this method may have many frames to be processed per second, and therefore it may be difficult to achieve a sufficient processing speed.

일반적으로 LED는 이미지의 강도에 따라 추적된다. 그러나 차량이 움직일 때, 그들의 이미지에는 모션 블러가 나타날 수 있고, 이는 픽셀 강도만을 사용하여 LED를 검출하는 것을 어렵게 만들 수 있다. 보다 구체적으로, 차량의 움직임으로 인해 LED 이미지가 흐려지면 LED에 속한 모든 픽셀과 LED 주변의 배경이 함께 흐려지고 거의 동일한 픽셀 강도를 갖게 된다. LED 픽셀보다 배경 픽셀이 더 많으므로 배경 픽셀은 LED 픽셀로 잘못 판단될 가능성이 높다. 따라서 차량의 속도가 증가할수록 더 많은 프레임이 누락될 수 있습니다. 예를 들어 운전 상황에서 LED 어레이를 추적하는 알고리즘이 있다. 이 알고리즘은 LED 배열의 패턴을 분석한다. 그러나 LED 어레이 내 단일 LED를 감지하는 메커니즘은 모든 프레임의 픽셀 강도에만 의존한다.In general, LEDs are tracked according to the intensity of the image. However, when the vehicle is moving, motion blur may appear in their images, which may make it difficult to detect the LED using only pixel intensity. More specifically, if the LED image is blurred due to vehicle motion, all the pixels belonging to the LED and the background around the LED are blurred together and have almost the same pixel intensity. Since there are more background pixels than LED pixels, background pixels are more likely to be misjudged as LED pixels. Therefore, as the vehicle speed increases, more frames may be missed. For example, there is an algorithm that tracks LED arrays in a driving situation. This algorithm analyzes the pattern of the LED array. However, the mechanism for sensing a single LED in an LED array depends only on the pixel strength of all the frames.

일 실시예에 따르면 촬영 이미지에서 LED를 추적하는 방법은 상기 촬영 이미지에 포함된 복수의 프레임들 중 현재 프레임 내 모든 픽셀에 관한 옵티컬 플로우(optical flow) 및 픽셀 강도 분포(pixel intensity distribution)에 기초하여 상기 현재 프레임에 대응하는 픽셀 정보를 구성하는 단계; 상기 현재 프레임 내 i번째 픽셀이 상기 픽셀 정보 내 i번째 픽셀 정보에 대응할 때 상기 i번째 픽셀이 LED에 속할 조건부 확률을 계산하는 단계; 및 상기 계산된 조건부 확률에 기초하여 상기 현재 프레임의 상기 모든 픽셀 중 LED에 속하는 LED 픽셀을 결정하는 단계를 포함한다.According to one embodiment, a method of tracking an LED in a shot image is based on an optical flow and a pixel intensity distribution on all pixels in a current frame among a plurality of frames included in the shot image Constructing pixel information corresponding to the current frame; Calculating a conditional probability that the i-th pixel belongs to an LED when the i-th pixel in the current frame corresponds to i-th pixel information in the pixel information; And determining an LED pixel belonging to an LED among all the pixels of the current frame based on the calculated conditional probability.

일 실시예에 따르면 촬영 이미지에서 LED를 추적하는 장치는 LED를 촬영하여 촬영 이미지를 생성하는 촬영부; 및 상기 촬영 이미지에 포함된 복수의 프레임들 중 현재 프레임 내 모든 픽셀에 관한 옵티컬 플로우(optical flow) 및 픽셀 강도 분포(pixel intensity distribution)에 기초하여 상기 현재 프레임에 대응하는 픽셀 정보를 구성하고, 상기 현재 프레임 내 i번째 픽셀이 상기 픽셀 정보 내 i번째 픽셀 정보에 대응할 때 상기 i번째 픽셀이 LED에 속할 조건부 확률을 계산하고, 상기 계산된 조건부 확률에 기초하여 상기 현재 프레임의 상기 모든 픽셀 중 LED에 속하는 LED 픽셀을 결정하는 LED 추적부를 포함한다.According to one embodiment, an apparatus for tracking an LED in a captured image includes a photographing unit for photographing an LED to generate a photographing image; And constructing pixel information corresponding to the current frame based on an optical flow and a pixel intensity distribution of all pixels in a current frame among a plurality of frames included in the captured image, Calculating a conditional probability that the i-th pixel belongs to the LED when the i-th pixel in the current frame corresponds to the i-th pixel information in the pixel information, and calculating, based on the calculated conditional probability, And an LED tracing unit for determining the LED pixels to which the LEDs belong.

도 1은 일 실시예에 따른 차량 가시광 통신 시스템을 나타낸 도면.
도 2는 일 실시예에 따른 LED 추적부의 동작을 나타낸 도면.
도 3은 일 실시예에 따른 옵티컬 플로우의 생성 과정을 나타낸 도면.
도 4는 일 실시예에 따른 유효 모션 벡터 맵을 나타낸 도면.
도 5는 일 실시예에 따른 확률 기반 LED 추적의 개념을 나타낸 도면.
도 6은 일 실시예에 따른 촬영 이미지에서 LED를 추적하는 방법을 나타낸 동작 흐름도.
BRIEF DESCRIPTION OF THE DRAWINGS Figure 1 is a view of a vehicle visible light communication system according to one embodiment.
2 illustrates an operation of an LED tracking unit according to an embodiment;
3 is a diagram illustrating a process of generating an optical flow according to an exemplary embodiment;
4 is a diagram of an effective motion vector map according to one embodiment.
5 illustrates a concept of probability based LED tracking in accordance with one embodiment.
6 is an operational flow diagram illustrating a method of tracking an LED in a captured image according to one embodiment.

본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시예들에 대해서 특정한 구조적 또는 기능적 설명들은 단지 본 발명의 개념에 따른 실시예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시예들은 다양한 형태로 실시될 수 있으며 본 명세서에 설명된 실시예들에 한정되지 않는다.It is to be understood that the specific structural or functional descriptions of embodiments of the present invention disclosed herein are presented for the purpose of describing embodiments only in accordance with the concepts of the present invention, May be embodied in various forms and are not limited to the embodiments described herein.

본 발명의 개념에 따른 실시예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시예들을 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시예들을 특정한 개시형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Embodiments in accordance with the concepts of the present invention are capable of various modifications and may take various forms, so that the embodiments are illustrated in the drawings and described in detail herein. However, it is not intended to limit the embodiments according to the concepts of the present invention to the specific disclosure forms, but includes changes, equivalents, or alternatives falling within the spirit and scope of the present invention.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만, 예를 들어 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.The terms first, second, or the like may be used to describe various elements, but the elements should not be limited by the terms. The terms may be named for the purpose of distinguishing one element from another, for example without departing from the scope of the right according to the concept of the present invention, the first element being referred to as the second element, Similarly, the second component may also be referred to as the first component.

어떤 구성요소가 다른 구성요소에 “연결되어” 있다거나 “접속되어” 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 “직접 연결되어” 있다거나 “직접 접속되어” 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 표현들, 예를 들어 “~사이에”와 “바로~사이에” 또는 “~에 직접 이웃하는” 등도 마찬가지로 해석되어야 한다.It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between. Expressions that describe the relationship between components, for example, "between" and "immediately" or "directly adjacent to" should be interpreted as well.

본 명세서에서 사용한 용어는 단지 특정한 실시예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, “포함하다” 또는 “가지다” 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, the terms " comprises " or " having ", and the like, are used to specify one or more of the features, numbers, steps, operations, But do not preclude the presence or addition of steps, operations, elements, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the meaning of the context in the relevant art and, unless explicitly defined herein, are to be interpreted as ideal or overly formal Do not.

이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 특허출원의 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, the scope of the patent application is not limited or limited by these embodiments. Like reference symbols in the drawings denote like elements.

도 1은 일 실시예에 따른 차량 가시광 통신 시스템을 나타낸 도면이다.1 is a view illustrating a vehicle visible light communication system according to an exemplary embodiment of the present invention.

도 1을 참조하면, 촬영 이미지에서 LED(light emitting diode)를 추적하는 장치(110)는 촬영부(111), LED 추적부(112), 위치 추정부(113), 가시광 통신부(114) 및 LED(115)를 포함할 수 있다.Referring to FIG. 1, an apparatus 110 for tracking an LED (Light Emitting Diode) in a captured image includes a photographing unit 111, an LED tracking unit 112, a position estimating unit 113, a visible light communication unit 114, (115).

촬영부(111)는 차량 가시광 통신 시스템에서 수신기로 동작할 수 있다. 촬영부(111)는 각각 이미지 센서를 포함하는 적어도 하나의 카메라를 포함할 수 있으며, 실시예에 따라 적어도 하나의 카메라는 고속 카메라를 포함할 수 있다. 이미지 센서는 CMOS(complementary metal-oxide semiconductor) 센서를 포함할 수 있다.The photographing unit 111 can operate as a receiver in a vehicle visible light communication system. The photographing unit 111 may include at least one camera each including an image sensor, and according to an embodiment, at least one camera may include a high-speed camera. The image sensor may comprise a complementary metal-oxide semiconductor (CMOS) sensor.

촬영부(111)는 주변 차량(120) 혹은 가로등(130) 내 LED를 촬영하여 촬영 이미지를 생성할 수 있다. 촬영 이미지는 LED를 포함하는 일련의 이미지들, 혹은 프레임들을 포함할 수 있다. 장치(110)는 촬영 이미지 내 LED에 기초하여 차량(100)의 위치를 추정하거나, 혹은 가시광 통신을 수행할 수 있다. 예를 들어, 주변 차량(120) 및 가로등(130)은 LED를 통해 데이터를 포함하는 가시광 신호를 전송할 수 있고, 장치(110)는 촬영부(111)를 통해 이를 촬영하여 가시광 신호 내 데이터를 수신할 수 있다. 장치(110)는 촬영 이미지 내 LED의 이미지 좌표, 및 가로등(130)의 월드 좌표 사이의 기하학적인 관계식을 구성하여 차량(100)의 위치를 추정할 수 있다. 가로등(130)의 월드 좌표는 가로등(130)에 의해 전송된 가시광 신호에 기초하여 결정될 수 있다.The photographing unit 111 can photograph an LED in the surrounding vehicle 120 or the streetlight 130 to generate a photographed image. The shot image may comprise a series of images, or frames, comprising an LED. The device 110 may estimate the position of the vehicle 100 based on the LED in the shot image, or may perform visible light communication. For example, the peripheral vehicle 120 and the streetlight 130 can transmit a visible light signal including data through the LED, and the device 110 photographs the light through the photographing unit 111 to receive data in the visible light signal can do. The apparatus 110 can estimate the position of the vehicle 100 by constructing a geometric relationship between the image coordinates of the LED in the shot image and the world coordinates of the streetlight 130. [ The world coordinates of the streetlight 130 may be determined based on the visible light signal transmitted by the streetlight 130.

이러한 동작을 위해서는 촬영 이미지 내 LED를 검출하고, 이를 지속적으로 추적할 필요가 있다. 예를 들어, 촬영 이미지에서 LED의 위치가 감지되면 촬영 이미지로부터 빛에 포함된 데이터가 추출될 수 있다. 일반적으로 LED는 픽셀 강도에 따라 감지될 수 있다. 그러나 차량이 주행 할 때 LED 이미지에 움직임이 생겨 LED 감지가 어려워질 수 있다. 고속에서는 일부 프레임이 높은 정도로 흐려져 여기서 LED를 감지하고 이러한 프레임에 포함된 정보를 추출할 수 없을 수 있다.For this operation, it is necessary to detect and continuously track the LEDs in the shot image. For example, when the position of the LED is detected in the captured image, data included in the light can be extracted from the captured image. In general, LEDs can be detected according to pixel intensity. However, when the vehicle is traveling, there is movement in the LED image, which may make it difficult to detect the LED. At high speeds, some frames may become so high that they may not be able to detect the LEDs and extract the information contained in these frames.

실시예에 따르면, LED 추적부(112)는 픽셀 강도뿐만 아니라 LED의 옵티컬 플로우와 이전 프레임들에서 얻은 통계 정보를 이용하여 LED를 추적한다. 이 정보를 기반으로 픽셀이 LED에 속하는 조건부 확률이 계산되고, 이 확률을 기반으로 LED의 위치가 결정될 수 있다.According to the embodiment, the LED tracker 112 tracks the LED using not only the pixel intensity but also the optical flow of the LED and the statistical information obtained from the previous frames. Based on this information, the conditional probability that the pixel belongs to the LED is calculated, and the position of the LED can be determined based on this probability.

촬영 이미지 내에서 LED가 검출되면, 이에 기초한 위치 추정 혹은 가시광 통신이 수행될 수 있다. 예를 들어, 위치 추정부(113)는 LED 추적부(112)로부터 촬영 이미지 내 LED의 이미지 좌표를 수신하고, 이를 통해 차량(100)의 위치를 추정할 수 있다. 또한, 가시광 통신부(114)는 LED 추적부(112)로부터 촬영 이미지 내 LED의 이미지 좌표를 수신하고, 이를 통해 촬영 이미지에서 주변 차량(120) 혹은 가로등(130)에 의해 전송된 가시광 신호를 추출할 수 있다. 가시광 통신부(114)는 LED(115)를 통해 주변 차량(120)에 가시광 신호를 전송할 수 있다.When the LED is detected in the shot image, position estimation or visible light communication based thereon can be performed. For example, the position estimating unit 113 may receive the image coordinates of the LEDs in the shot image from the LED tracking unit 112, thereby estimating the position of the vehicle 100. The visible light communication unit 114 receives the image coordinates of the LED in the photographed image from the LED tracking unit 112 and extracts the visible light signal transmitted from the surrounding vehicle 120 or the streetlight 130 in the photographed image . The visible light communication unit 114 can transmit the visible light signal to the surrounding vehicle 120 through the LED 115.

차량들(100, 120)에는 데이터를 전송하는데 사용할 수 있는 고전력의 LED가 전면 및 후면에 장착되어 있기 때문에, 차량 가시광 통신(vehicular visible light communication, V2LC)은 가시광 통신(visible light communication, VLC)의 유망한 어플리케이션이다. 그러나 LED 광 신호를 수신할 때 기존의 문제점으로 인해 V2LC의 실제 어플리케이션은 거의 존재하지 않는다. VLC 시스템의 수신기에 해당하는 촬영부(111)는 일반적으로 포토 다이오드(photodiode, PD) 또는 이미지 센서로 구성된다. 그러나 PD는 주변 광에 민감한 것으로 알려져 있어 V2LC와 같은 실외용 어플리케이션에는 적합하지 않다.Since vehicles 100 and 120 are equipped with high-power LEDs on the front and rear surfaces that can be used to transmit data, vehicular visible light communication (V2LC) is a type of visible light communication (VLC) It is a promising application. However, there are few practical applications of V2LC due to the existing problems when receiving LED optical signals. The photographing unit 111 corresponding to the receiver of the VLC system generally comprises a photodiode (PD) or an image sensor. PD, however, is known to be sensitive to ambient light and is not suitable for outdoor applications such as V2LC.

이미지 센서는 햇빛을 포함하여 주변 광을 잘 처리 할 수 있지만 V2LC용 이미지 센서를 사용할 때 문제가 남아 있다. 예를 들어 카메라의 프레임 속도는 일반적으로 데이터 속도 측면에서 요구되는 것보다 훨씬 적다. 이 문제는 점점 더 많은 고속 카메라가 저렴한 가격으로 시장에 도입됨에 따라 해결될 가능성이 있다. 그러나 고속 카메라를 사용하여 일련의 LED 이미지를 촬영하는 경우에도 각 이미지에서 LED의 위치를 추적하는 것은 쉽지 않다. LED의 위치를 신속하고 정확하게 추적하는 것이 필요하기 때문이다. 또한 차량 움직임과 관련된 어려움이 있을 수 있다.The image sensor can handle ambient light well, including sunlight, but there is a problem when using an image sensor for V2LC. For example, the frame rate of a camera is generally much less than that required in terms of data rate. This problem is likely to be solved as more and more high-speed cameras are introduced into the market at lower prices. However, even when shooting a series of LED images using a high-speed camera, it is not easy to track the position of the LEDs in each image. This is because it is necessary to track the position of the LED quickly and accurately. There may also be difficulties associated with vehicle movement.

차량 탐지를 위한 영상 처리를 사용하는 다른 방법은 색상, 대칭 구조, 그림자, 모퉁이, 모서리 및 다양한 종류의 질감과 같은 다양한 차량 특성을 고려하여 차량 전체를 인식하는 것이 있다. 이러한 방법은 차량의 LED 라이트를 감지하는 보다 간단한 문제에 요구되는 것보다 복잡도가 높을 수 있다. 또한 이 방법에 따른 어플리케이션에는 초당 처리되어야 하는 프레임이 많을 수 있으며, 따라서 충분한 처리 속도를 달성하기 어려울 수 있다.Other methods of using image processing for vehicle detection include recognizing the entire vehicle in consideration of various vehicle characteristics such as color, symmetry structure, shadows, corners, edges, and various types of textures. This approach can be more complex than required for simpler problems of detecting the vehicle's LED light. In addition, an application according to this method may have many frames to be processed per second, and therefore it may be difficult to achieve a sufficient processing speed.

일반적으로 LED는 이미지의 강도에 따라 추적된다. 그러나 가시광 신호를 수신하는 차량(100), 혹은 가시광 신호를 전송하는 주변 차량(120)이 움직일 때, 촬영부(111)에 의해 생성된 촬영 이미지에는 모션 블러가 나타날 수 있고, 이는 픽셀 강도만을 사용하여 LED를 검출하는 것을 어렵게 만들 수 있다. 보다 구체적으로, 차량의 움직임으로 인해 LED 이미지가 흐려지면 LED에 속한 모든 픽셀과 LED 주변의 배경이 함께 흐려지고 거의 동일한 픽셀 강도를 갖게 된다. LED 픽셀보다 배경 픽셀이 더 많으므로 배경 픽셀은 LED 픽셀로 잘못 판단될 가능성이 높다. 따라서 차량의 속도가 증가할수록 더 많은 프레임이 누락될 수 있다. 예를 들어 운전 상황에서 LED 어레이를 추적하는 알고리즘이 있다. 이 알고리즘은 LED 배열의 패턴을 분석한다. 그러나 LED 어레이 내 단일 LED를 감지하는 메커니즘은 모든 프레임의 픽셀 강도에만 의존한다.In general, LEDs are tracked according to the intensity of the image. However, when the vehicle 100 receiving the visible light signal or the peripheral vehicle 120 transmitting the visible light signal moves, a motion blur may appear in the photographed image generated by the photographing unit 111, Thereby making it difficult to detect the LED. More specifically, if the LED image is blurred due to vehicle motion, all the pixels belonging to the LED and the background around the LED are blurred together and have almost the same pixel intensity. Since there are more background pixels than LED pixels, background pixels are more likely to be misjudged as LED pixels. Therefore, as the vehicle speed increases, more frames may be missed. For example, there is an algorithm that tracks LED arrays in a driving situation. This algorithm analyzes the pattern of the LED array. However, the mechanism for sensing a single LED in an LED array depends only on the pixel strength of all the frames.

아래 실시예들에서는 일련의 이미지에서 LED의 위치를 추적하는 확률 기반 모델을 제안한다. 제안된 알고리즘은 픽셀 강도뿐 아니라 연속 프레임에서 생성된 LED의 옵티컬 플로우와 LED가 여전히 선명하게 보이는 이전 프레임의 통계 정보를 사용하여 픽셀이 LED 또는 배경에 속할 확률을 계산한다. 그런 다음 이 확률을 기반으로 이미지 내 LED 픽셀이 결정된다. 차량의 움직임으로 인해 LED가 흐려지면 LED 픽셀과 주변 배경 픽셀의 픽셀 강도가 유사해지거나 같아질 수 있다. 그러나 이 경우에도 LED의 옵티컬 플로우는 여전히 구성될 수 있다. 확률을 계산하기 위해 이전 프레임의 통계 정보도 고려되므로 LED 픽셀이 검출될 확률은 근처의 배경이 검출될 확률보다 여전히 높게 된다. 다시 말하면, LED가 흐리게 보이더라도 LED가 정확하게 검출될 수 있다.The embodiments below propose a probability-based model for tracking the position of LEDs in a series of images. The proposed algorithm computes not only the pixel intensity but also the optical flow of the LEDs generated in the continuous frame and the statistical information of the previous frame in which the LED is still clearly visible, to calculate the probability that the pixel belongs to the LED or background. Then, based on this probability, the LED pixels in the image are determined. If the LED is blurred due to vehicle motion, the pixel intensity of the LED pixel and surrounding background pixel may become similar or equal. In this case, however, the optical flow of the LED can still be configured. Since the statistical information of the previous frame is also taken into account to calculate the probability, the probability of detecting the LED pixel is still higher than the probability of detecting the nearby background. In other words, even if the LED is blurred, the LED can be accurately detected.

도 2는 일 실시예에 따른 LED 추적부의 동작을 나타낸 도면이다.2 is a diagram illustrating an operation of the LED tracking unit according to an exemplary embodiment.

도 2를 참조하면, LED 추적부(210)는 촬영 이미지에 기초하여 촬영 이미지 내 LED 픽셀 정보를 생성할 수 있다. LED 픽셀 정보는 LED 픽셀의 위치 정보, 혹은 좌표를 포함할 수 있다.Referring to FIG. 2, the LED tracker 210 may generate LED pixel information in the shot image based on the shot image. The LED pixel information may include position information, or coordinates, of the LED pixel.

LED 추적부(210)는 옵티컬 플로우 및 픽셀 강도 분포에 기초하여 촬영 이미지에서 LED 픽셀을 추적할 수 있다. 보다 구체적으로, LED 추적부(210)는 촬영 이미지에 포함된 복수의 프레임들 중 현재 프레임 내 모든 픽셀에 관한 옵티컬 플로우 및 픽셀 강도 분포에 기초하여 현재 프레임에 대응하는 픽셀 정보를 구성하고, 현재 프레임 내 i번째 픽셀이 상기 픽셀 정보 내 i번째 픽셀 정보에 대응할 때 i번째 픽셀이 LED에 속할 조건부 확률을 계산하고, 계산된 조건부 확률에 기초하여 현재 프레임의 모든 픽셀 중 LED에 속하는 LED 픽셀을 결정할 수 있다.The LED tracking unit 210 can track the LED pixels in the captured image based on the optical flow and the pixel intensity distribution. More specifically, the LED tracking unit 210 constructs pixel information corresponding to the current frame based on the optical flow and the pixel intensity distribution relating to all pixels in the current frame among a plurality of frames included in the shot image, Calculate the conditional probability that the i-th pixel belongs to the LED when the ith i-th pixel corresponds to the i-th pixel information in the pixel information, and determine an LED pixel belonging to the LED among all pixels of the current frame based on the calculated conditional probability have.

픽셀 강도에 따라 배경 픽셀과 LED 픽셀이 구분될 수 있다. 픽셀 강도가 예를 들어, 임계 값과 비교되어 픽셀이 LED 픽셀인지 또는 배경 픽셀인지 결정될 수 있다. 실시예에 따르면, 픽셀 강도는 해당 픽셀이 LED 픽셀일 조건부 확률을 계산하는 파라미터 중 하나로 사용된다.Depending on the pixel intensity, the background pixel and the LED pixel can be distinguished. The pixel intensity may be compared to, for example, a threshold value to determine whether the pixel is an LED pixel or a background pixel. According to an embodiment, the pixel intensity is used as one of the parameters for calculating the conditional probability that the pixel is an LED pixel.

n번째 프레임에서 i번째 픽셀의 강도를

Figure pat00001
로 나타낼 수 있다. 일반적인 상황에서,
Figure pat00002
은 이미지 센서의 중심에서 픽셀 강도가 가장 높고 이미지 센서의 외곽으로 갈수록 점차 감소하는 이미지 센서에 관한 가우스 분포를 갖는 것으로 가정될 수 있다.the intensity of the i-th pixel in the n-th frame
Figure pat00001
. Under normal circumstances,
Figure pat00002
Can be assumed to have a Gaussian distribution with respect to the image sensor having the highest pixel intensity at the center of the image sensor and gradually decreasing toward the outer edge of the image sensor.

옵티컬 플로우에 관해서는 아래 도 3 및 도 4를 참조하여 설명한다.The optical flow will be described with reference to Figs. 3 and 4 below.

도 3은 일 실시예에 따른 옵티컬 플로우의 생성 과정을 나타낸 도면이다.3 is a diagram illustrating a process of generating an optical flow according to an exemplary embodiment of the present invention.

차량 움직임은 이미지 센서에 의해 촬영된 광 신호에 반영될 수 있기 때문에 LED를 검출하는데 옵티컬 플로우(optical flow)가 고려될 수 있다. 옵티컬 플로우는 카메라와 장면 사이의 상대적인 움직임에 의해 생성된 시각적 장면의 객체(object), 표면(surface) 및 에지(edge)의 시운동(apparent motion)을 나타내는 패턴이다. 따라서 두 개의 연속 이미지를 이용하여 운동 방향을 보여주는 순간 옵티컬 플로우 맵(instant optical flow map)이 생성될 수 있다. 차량 움직임은 두 가지 요소, 즉 운동 방향 및 그 크기를 고려하여 이미지에서 측정될 수 있다. 두 개의 연속적인 프레임 사이의 시간 간격이 매우 짧다고 보면, 이에 따라 두 프레임에서의 동일한 LED의 픽셀 강도는 거의 동일하다.Because vehicle motion can be reflected in the optical signal taken by the image sensor, an optical flow can be considered in detecting the LED. An optical flow is a pattern that represents the apparent motion of an object, a surface, and an edge of a visual scene created by the relative movement between the camera and the scene. Thus, an instant optical flow map can be generated that shows the direction of motion using two successive images. Vehicle motion can be measured in an image taking into account two factors: the direction of motion and its magnitude. Assuming that the time interval between two consecutive frames is very short, the pixel intensities of the same LEDs in two frames are therefore approximately the same.

도 3을 참조하면, 옵티컬 플로우는 현재 프레임(320)내 픽셀(301) 및 참조 이미지(310) 내 대응 픽셀(302) 사이의 비교에 기초하여 생성될 수 있다. 현재 프레임(320)에서의 픽셀(301)의 위치는 그 픽셀(301)의 운동 방향 및 그 크기를 계산하기 위해 참조 프레임(310)에서의 대응하는 픽셀(302)과 비교될 수 있다. 예를 들어 참조 프레임(310)은 현재 프레임의 이전 프레임이거나, 이전 프레임들 중 모션 블러가 상대적으로 적게 포함된 프레임이거나, 혹은 LED가 비교적 정확하게 검출된 프레임을 포함할 수 있다. 도 3에서 운동 방향은 각도 θ로 표시되고, 운동 크기는 r로 표시된다.3, an optical flow may be generated based on a comparison between a pixel 301 in the current frame 320 and a corresponding pixel 302 in the reference image 310. The position of the pixel 301 in the current frame 320 may be compared to the corresponding pixel 302 in the reference frame 310 to calculate the direction and magnitude of that pixel 301's motion. For example, the reference frame 310 may be a previous frame of the current frame, a frame in which relatively few motion blur is included in the previous frames, or a frame in which the LED is relatively accurately detected. In Fig. 3, the motion direction is represented by the angle [theta], and the motion size is represented by r.

이미지의 모든 픽셀에 대한 모션 벡터가 계산되면, 차량에 속하는 픽셀을 포함할 것으로 예상되는 유효 모션 벡터 맵(effective motion vector map)이 정의된다. 배경에 속하는 픽셀은 안정적이거나 연속하는 프레임간에 약간만 변경되는 것으로 가정한다. 그런 다음 유효 모션 벡터 맵은 r과 θ의 조합을 주어진 임계 값과 비교하여 생성된다. 조합이 임계 값을 초과하지 않으면 이 픽셀은 안정된 것으로 간주된다. 수학식 1에 따라 모든 단일 픽셀에 대한 유효 모션 벡터가 계산될 수 있고, 계산된 유효 모션 벡터들에 기초하여 옵티컬 플로우, 혹은 유효 모션 벡터 맵이 구성될 수 있다.Once the motion vector for all the pixels of the image is calculated, an effective motion vector map is defined that is expected to contain pixels belonging to the vehicle. It is assumed that the pixels belonging to the background are stable or only slightly changed between consecutive frames. The effective motion vector map is then generated by comparing the combination of r and θ with a given threshold. If the combination does not exceed the threshold, this pixel is considered stable. The effective motion vector for every single pixel can be calculated according to Equation (1), and an optical flow or an effective motion vector map can be constructed based on the calculated effective motion vectors.

Figure pat00003
Figure pat00003

여기서 δ 는

Figure pat00004
의 메트릭이고, 하위 인덱스 i는 이미지의 i번째 픽셀을 나타내며, 상위 인덱스 n은 일련의 이미지들 중 n번째 이미지를 나타낸다. 여기서 이미지는 프레임을 의미할 수 있다.Where δ is
Figure pat00004
The lower index i represents the i-th pixel of the image, and the upper index n represents the n-th image of the series of images. Here, the image may mean a frame.

도 4는 일 실시예에 따른 유효 모션 벡터 맵을 나타낸 도면이다. 유효 모션 벡터 맵(400)은 두 개의 연속 프레임에서 생성될 수 있으며, 유효 모션 벡터 맵(400)에서 도트는 배경 픽셀에 대응할 수 있고, 화살표는 차량에 속하는 픽셀에 대응할 수 있다.4 is a diagram illustrating an effective motion vector map according to an embodiment. The effective motion vector map 400 may be generated in two consecutive frames where the dots in the valid motion vector map 400 may correspond to background pixels and the arrows may correspond to pixels belonging to the vehicle.

도 5는 일 실시예에 따른 확률 기반 LED 추적의 개념을 나타낸 도면이다.5 is a diagram illustrating the concept of probability based LED tracking according to an embodiment.

옵티컬 플로우 및 픽셀 강도 분포(pixel intensity distribution)는 서로 독립적인 이미지의 특징이다. 이들을 사용하여 LED의 위치를 찾으려면 두 특징을 입력으로 사용하는 단일 프레임워크에 이들을 결합해야 한다. 아래 실시예들에서 제안된 베이지안 프레임워크(Bayesian framework)는 옵티컬 플로우 및 픽셀 강도 분포를 입력으로 사용하여 픽셀이 배경이나 LED에 속할 확률을 계산한다.The optical flow and the pixel intensity distribution are independent of each other. To locate these LEDs using these, you need to combine them into a single framework that uses both features as inputs. The Bayesian framework proposed in the embodiments below uses the optical flow and pixel intensity distribution as input to calculate the probability that the pixel belongs to the background or LED.

이미지의 모든 픽셀에 대해 옵티컬 플로우 및 강도가 주어지면 픽셀이 LED에 속할 확률이 계산된다. 이것은 베이즈 규칙(Bayes' rule)을 사용하여 계산될 수 있는 조건부 확률이다.Given the optical flow and intensity for every pixel in the image, the probability that the pixel belongs to the LED is calculated. This is a conditional probability that can be computed using the Bayes' rule.

먼저 픽셀이 속하는 위치를 결정하기 위해 완전한 이벤트 세트가 정의된다. 픽셀에는 두 가지 상태

Figure pat00005
Figure pat00006
가 있다.
Figure pat00007
은 픽셀이 LED에 속하는 것을 나타내고
Figure pat00008
는 픽셀이 LED에 속하지 않는 것을 나타낸다. 확률 함수
Figure pat00009
는 이벤트의 전체 집합을 [0, 1]로 매핑한다. n번째 프레임에서 i번째 픽셀의 정보를
Figure pat00010
라고 정의한다. 이 정보는 위에서 언급 한 두 가지 특징, 즉 운동 방향 θ 및 그 크기 r을 포함하는 옵티컬 플로우, 및 픽셀 강도 분포 f를 포함한다. n번째 프레임에서, 이벤트 w1 또는 w2가 발생할 조건부 확률은 주어진 n번째 프레임까지의 일련의 이전 프레임들로부터의 정보를 고려하여 베이즈의 규칙에 따라 수학식 2와 같이 계산된다.First, a complete event set is defined to determine where the pixel belongs. The pixel has two states
Figure pat00005
And
Figure pat00006
.
Figure pat00007
Indicates that the pixel belongs to the LED
Figure pat00008
Indicates that the pixel does not belong to the LED. Probability function
Figure pat00009
Maps the entire set of events to [0, 1]. the information of the i-th pixel in the n-th frame
Figure pat00010
. This information includes the two features mentioned above, the optical flow including the direction of motion [theta] and its magnitude r, and the pixel intensity distribution f. In the nth frame, the conditional probability of occurrence of the event w1 or w2 is calculated according to the Bayes rule, taking into account information from a series of previous frames up to the given nth frame, as shown in equation (2).

Figure pat00011
Figure pat00011

여기서,

Figure pat00012
이다.here,
Figure pat00012
to be.

Figure pat00013
를 계산하려면 두 종류의 확률
Figure pat00014
Figure pat00015
를 계산해야 한다. θ, r 및 f가 통계적으로 독립적이라고 보면 확률
Figure pat00016
는 수학식 3과 같이 나타낼 수 있다.
Figure pat00013
To calculate the two types of probability
Figure pat00014
And
Figure pat00015
. If θ, r, and f are statistically independent,
Figure pat00016
Can be expressed by Equation (3).

Figure pat00017
Figure pat00017

여기서 j = 1, 2이다. 수학식 3에서

Figure pat00018
는 LED 픽셀 및 배경 픽셀을 포함하는 픽셀 상태
Figure pat00019
및 픽셀 강도 분포
Figure pat00020
에 기초하며, 아래에서 제1 확률 성분으로 지칭될 수 있다.
Figure pat00021
는 옵티컬 플로우의 크기
Figure pat00022
및 픽셀 강도 분포
Figure pat00023
에 기초하며, 아래에서 제2 확률 성분으로 지칭될 수 있다.
Figure pat00024
는 옵티컬 플로우의 방향
Figure pat00025
및 픽셀 강도 분포
Figure pat00026
에 기초하며, 아래에서 제3 확률 성분으로 지칭될 수 있다.Where j = 1, 2. In Equation 3,
Figure pat00018
RTI ID = 0.0 > LED < / RTI > pixels and background pixels
Figure pat00019
And pixel intensity distribution
Figure pat00020
And may be referred to below as a first probability component.
Figure pat00021
The size of the optical flow
Figure pat00022
And pixel intensity distribution
Figure pat00023
And may be referred to below as a second probability component.
Figure pat00024
The direction of the optical flow
Figure pat00025
And pixel intensity distribution
Figure pat00026
And may be referred to below as a third probability component.

θ, r 및 f가 정규 분포라고 가정하면, 수학식 3의 세가지 우도(likelihood)는 가우스 함수에 따라 수학식 4와 같이 나타낼 수 있다.Assuming that θ, r, and f are normal distributions, the three likelihoods of Equation (3) can be expressed as Equation (4) according to the Gaussian function.

Figure pat00027
Figure pat00027

여기서

Figure pat00028
,
Figure pat00029
,
Figure pat00030
,
Figure pat00031
,
Figure pat00032
,
Figure pat00033
,
Figure pat00034
는 이전 프레임들을 통해 계산 및 업데이트된 옵티컬 플로우의 크기 r, 방향 θ, 및 픽셀 강도 분포 f 각각의 평균 및 분산을 나타낸다. 다시 말해, 제1 확률 성분
Figure pat00035
, 제2 확률 성분
Figure pat00036
, 및 제3 확률 성분
Figure pat00037
각각은 촬영 이미지 내에서 현재 프레임까지의 이전 프레임들에 관해 지속적으로 갱신된 옵티컬 플로우의 크기 r, 방향 θ 및 픽셀 강도 분포 f에 기초하여 계산될 수 있다. 이러한 연산을 위해 옵티컬 플로우의 크기 r, 방향 θ은 촬영 이미지의 각 프레임에 관해 통계 정보로서 지속적으로 계산되고, 업데이트될 수 있다.here
Figure pat00028
,
Figure pat00029
,
Figure pat00030
,
Figure pat00031
,
Figure pat00032
,
Figure pat00033
,
Figure pat00034
Represents the mean and variance of the magnitude r, the direction [theta], and the pixel intensity distribution f of the optical flow computed and updated over the previous frames, respectively. In other words, the first probability component
Figure pat00035
, The second probability component
Figure pat00036
, And the third probability component
Figure pat00037
Each can be computed based on the magnitude r, the direction [theta], and the pixel intensity distribution f of the optical flow continuously updated with respect to previous frames up to the current frame in the shot image. For such an operation, the magnitude r of the optical flow and the direction? Can be continuously calculated and updated as statistical information about each frame of the photographed image.

(n-1)번째 프레임에서 LED에 속하는 픽셀 세트를

Figure pat00038
라 하면, 픽셀이 LED에 속할 확률
Figure pat00039
는 수학식 5와 같이 나타낼 수 있다.a set of pixels belonging to the LED in the (n-1)
Figure pat00038
, The probability that a pixel belongs to an LED
Figure pat00039
Can be expressed by Equation (5).

Figure pat00040
Figure pat00040

여기서

Figure pat00041
는 이전 프레임의 LED 픽셀의 수를 나타낸다.here
Figure pat00041
Represents the number of LED pixels of the previous frame.

픽셀이 배경에 속할 확률은 수학식 6과 같이 나타낼 수 있다.The probability that the pixel belongs to the background can be expressed by Equation (6).

Figure pat00042
Figure pat00042

현재 프레임 내 LED 픽셀 세트는 수학식 7과 같이 나타낼 수 있다.The set of LED pixels in the current frame can be expressed as Equation (7).

Figure pat00043
Figure pat00043

수학식 7은 수학식 8로 나타낼 수 있다.Equation (7) can be expressed by Equation (8).

Figure pat00044
Figure pat00044

수학식 3의 결정 규칙은 이미지 내 모든 픽셀에 적용되어 LED 영역을 찾는다. LED의 정확한 위치는 수학식 9에 따라 LED에 속할 확률이 가장 높은 픽셀을 선택하여 결정된다.The decision rule of Equation (3) is applied to all the pixels in the image to find the LED area. The exact position of the LED is determined by selecting the pixel most likely to belong to the LED according to equation (9).

Figure pat00045
Figure pat00045

실시예에 따른 알고리즘의 장점은 수학식 3을 통해 알 수 있다. 차량의 움직임으로 인해 LED 이미지가 흐려지면 LED에 속하는 픽셀과 주변 배경에 속하는 픽셀이 혼합된다. 따라서 픽셀 강도는 이제 LED의 위치를 추적하는데 결정적인 요인이 될 수 없다. 이것은 종전의 추적 알고리즘이 갖는 문제점이다.The advantage of the algorithm according to the embodiment can be found from the equation (3). When the LED image is blurred due to vehicle motion, the pixels belonging to the LED and the pixels belonging to the surrounding background are mixed. Thus, pixel intensity can no longer be a crucial factor in tracking the position of the LED. This is a problem with previous tracking algorithms.

그러나, 제안된 방법에서 LED 추적이 기초로 하는 확률은 수학식 3에서와 같이 3 개의 확률로부터 계산된다. LED 픽셀 및 주변 배경 픽셀의 확률

Figure pat00046
은 LED에 흐림 현상이 발생하면 서로 유사한 값을 갖는다. 그러나, 다른 두 개의 확률
Figure pat00047
Figure pat00048
는 여전히 LED 픽셀에 대해 더 높은 값을 갖는다. 따라서 LED가 흐려져도 LED가 여전히 검출될 수 있다. 다시 말해, 특정 픽셀이 LED에 속하고, 상기 픽셀에 흐림 현상이 발생할 때,
Figure pat00049
은 상기 픽셀이 배경에 속할 때와 유사한 값을 가질 수 있고,
Figure pat00050
Figure pat00051
는 상기 픽셀이 배경에 속할 때보다 큰 값을 가질 수 있다.However, the probability that the LED tracking is based on in the proposed method is calculated from the three probabilities as in Equation (3). The probability of LED pixels and surrounding background pixels
Figure pat00046
Have similar values when blurring occurs in LEDs. However, the other two probabilities
Figure pat00047
And
Figure pat00048
Lt; / RTI > still has a higher value for the LED pixel. Therefore, even if the LED is dimmed, the LED can still be detected. In other words, when a particular pixel belongs to the LED and the pixel is blurred,
Figure pat00049
May have a value similar to when the pixel belongs to the background,
Figure pat00050
And
Figure pat00051
May have a larger value than when the pixel belongs to the background.

도 6은 일 실시예에 따른 촬영 이미지에서 LED를 추적하는 방법을 나타낸 동작 흐름도이다. 도 6을 참조하면, 단계(610)에서 장치는 촬영 이미지에 포함된 복수의 프레임들 중 현재 프레임 내 모든 픽셀에 관한 옵티컬 플로우 및 픽셀 강도 분포에 기초하여 현재 프레임에 대응하는 픽셀 정보를 구성한다. 단계(620)에서 장치는 현재 프레임 내 i번째 픽셀이 상기 픽셀 정보 내 i번째 픽셀 정보에 대응할 때 i번째 픽셀이 LED에 속할 조건부 확률을 계산한다. 단계(630)에서 장치는 계산된 조건부 확률에 기초하여 현재 프레임의 상기 모든 픽셀 중 LED에 속하는 LED 픽셀을 결정한다. 장치는 단계(640)에서 상기 결정된 LED 픽셀에 기초하여 가시광 통신을 수행하고, 단계(650)에서 상기 결정된 LED 픽셀에 기초하여 차량의 위치를 추정한다. 그 밖에 촬영 이미지에서 LED를 추적하는 방법에 관해서는 상술된 내용이 적용될 수 있으며, 보다 상세한 설명은 생략한다.6 is an operational flow diagram illustrating a method for tracking an LED in a captured image according to an embodiment. Referring to FIG. 6, in step 610, the device constructs pixel information corresponding to the current frame based on the optical flow and pixel intensity distribution for all pixels in the current frame among a plurality of frames included in the captured image. In step 620, the device calculates a conditional probability that the i-th pixel belongs to the LED when the i-th pixel in the current frame corresponds to the i-th pixel information in the pixel information. In step 630, the device determines an LED pixel belonging to the LED among all the pixels of the current frame based on the calculated conditional probability. The apparatus performs visible light communication based on the determined LED pixel in step 640 and estimates the position of the vehicle based on the determined LED pixel in step 650. In addition, the above description can be applied to the method of tracking the LED in the captured image, and a detailed description will be omitted.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(Arithmetic Logic Unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(Field Programmable Gate Array), PLU(Programmable Logic Unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented as a computer-readable recording medium, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA) , A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks, and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (10)

촬영 이미지에서 LED를 추적하는 방법에 있어서,
상기 촬영 이미지에 포함된 복수의 프레임들 중 현재 프레임 내 모든 픽셀에 관한 옵티컬 플로우(optical flow) 및 픽셀 강도 분포(pixel intensity distribution)에 기초하여 상기 현재 프레임에 대응하는 픽셀 정보를 구성하는 단계;
상기 현재 프레임 내 i번째 픽셀이 상기 픽셀 정보 내 i번째 픽셀 정보에 대응할 때 상기 i번째 픽셀이 LED에 속할 조건부 확률을 계산하는 단계; 및
상기 계산된 조건부 확률에 기초하여 상기 현재 프레임의 상기 모든 픽셀 중 LED에 속하는 LED 픽셀을 결정하는 단계
를 포함하는 방법.
A method for tracking an LED in a shot image,
Constructing pixel information corresponding to the current frame based on an optical flow and a pixel intensity distribution of all pixels in a current frame among a plurality of frames included in the captured image;
Calculating a conditional probability that the i-th pixel belongs to the LED when the i-th pixel in the current frame corresponds to the i-th pixel information in the pixel information; And
Determining an LED pixel belonging to an LED of all the pixels of the current frame based on the calculated conditional probability
≪ / RTI >
제1항에 있어서,
상기 옵티컬 플로우는
상기 현재 프레임의 상기 i번째 픽셀 및 상기 촬영 이미지에 포함된 참조 프레임 내 상기 i번째 픽셀의 대응 픽셀에 기초하여 결정되는, LED 추적 방법.
The method according to claim 1,
The optical flow
Wherein the determination is based on the i-th pixel of the current frame and the corresponding pixel of the i-th pixel in the reference frame included in the captured image.
제1항에 있어서,
상기 옵티컬 플로우는
상기 현재 프레임의 상기 i번째 픽셀 및 상기 촬영 이미지에 포함된 참조 프레임 내 상기 i번째 픽셀의 대응 픽셀에 기초하는 모션 벡터의 크기 및 방향을 포함하는, 방법.
The method according to claim 1,
The optical flow
The magnitude and direction of the motion vector based on the i-th pixel of the current frame and the corresponding pixel of the i-th pixel in the reference frame included in the captured image.
제1항에 있어서,
상기 조건부 확률은
상기 LED 픽셀 및 배경 픽셀을 포함하는 픽셀 상태 및 상기 픽셀 강도 분포에 기초하는 제1 확률 성분;
상기 옵티컬 플로우의 크기 및 상기 픽셀 강도 분포에 기초하는 제2 확률 성분; 및
상기 옵티컬 플로우의 방향 및 상기 픽셀 강도 분포에 기초하는 제3 확률 성분
을 포함하는, 방법.
The method according to claim 1,
The conditional probability
A first probability component based on the pixel state including the LED pixel and the background pixel and the pixel intensity distribution;
A second probability component based on the magnitude of the optical flow and the pixel intensity distribution; And
And a third probability component based on the direction of the optical flow and the pixel intensity distribution
≪ / RTI >
제4항에 있어서,
상기 i번째 픽셀이 LED에 속하고, 상기 i번째 픽셀에 흐림 현상이 발생할 때, 상기 제1 확률 성분은 상기 i번째 픽셀이 배경에 속할 때와 유사한 값을 갖고, 상기 제2 확률 성분 및 상기 제3 확률 성분은 상기 i번째 픽셀이 배경에 속할 때보다 큰 값을 갖는, 방법.
5. The method of claim 4,
Wherein when the i-th pixel belongs to the LED and the blurring occurs in the i-th pixel, the first probability component has a value similar to that when the i-th pixel belongs to the background, and the second probability component and the 3 probability component has a larger value than when the i-th pixel belongs to the background.
제4항에 있어서,
상기 제1 확률 성분 내지 상기 제3 확률 성분 각각은 상기 촬영 이미지 내에서 상기 현재 프레임까지의 이전 프레임들에 관해 지속적으로 갱신된 옵티컬 플로우 및 픽셀 강도 분포에 기초하여 계산되는, 방법.
5. The method of claim 4,
Wherein each of the first probability component and the third probability component is calculated based on a continuously updated optical flow and a pixel intensity distribution for previous frames in the captured image to the current frame.
제1항에 있어서,
상기 결정된 LED 픽셀에 기초하여, 가시광 통신 및 차량의 위치 추정 중 적어도 하나가 수행되는, 방법.
The method according to claim 1,
Wherein at least one of visible light communication and vehicle position estimation is performed based on the determined LED pixel.
촬영 이미지에서 LED를 추적하는 장치에 있어서,
LED를 촬영하여 촬영 이미지를 생성하는 촬영부; 및
상기 촬영 이미지에 포함된 복수의 프레임들 중 현재 프레임 내 모든 픽셀에 관한 옵티컬 플로우(optical flow) 및 픽셀 강도 분포(pixel intensity distribution)에 기초하여 상기 현재 프레임에 대응하는 픽셀 정보를 구성하고, 상기 현재 프레임 내 i번째 픽셀이 상기 픽셀 정보 내 i번째 픽셀 정보에 대응할 때 상기 i번째 픽셀이 LED에 속할 조건부 확률을 계산하고, 상기 계산된 조건부 확률에 기초하여 상기 현재 프레임의 상기 모든 픽셀 중 LED에 속하는 LED 픽셀을 결정하는 LED 추적부
를 포함하는 장치.
1. An apparatus for tracking an LED in a shot image,
A photographing unit photographing an LED to generate a photographing image; And
Constructs pixel information corresponding to the current frame based on an optical flow and a pixel intensity distribution of all pixels in a current frame among a plurality of frames included in the captured image, Calculating a conditional probability that the i-th pixel belongs to the LED when the i-th pixel in the frame corresponds to i-th pixel information in the pixel information, and calculating a conditional probability that the i- LED tracing unit for determining LED pixels
/ RTI >
제8항에 있어서,
상기 옵티컬 플로우는
상기 현재 프레임의 상기 i번째 픽셀 및 상기 촬영 이미지에 포함된 참조 프레임 내 상기 i번째 픽셀의 대응 픽셀에 기초하여 결정되는, 장치.
9. The method of claim 8,
The optical flow
Th pixel of the current frame and the corresponding pixel of the i-th pixel in the reference frame contained in the captured image.
제8항에 있어서,
상기 조건부 확률은
상기 LED 픽셀 및 배경 픽셀을 포함하는 픽셀 상태 및 상기 픽셀 강도 분포에 기초하는 제1 확률 성분;
상기 옵티컬 플로우의 크기 및 상기 픽셀 강도 분포에 기초하는 제2 확률 성분; 및
상기 옵티컬 플로우의 방향 및 상기 픽셀 강도 분포에 기초하는 제3 확률 성분
을 포함하는, 장치.
9. The method of claim 8,
The conditional probability
A first probability component based on the pixel state including the LED pixel and the background pixel and the pixel intensity distribution;
A second probability component based on the magnitude of the optical flow and the pixel intensity distribution; And
And a third probability component based on the direction of the optical flow and the pixel intensity distribution
/ RTI >
KR1020180025399A 2018-01-12 2018-03-02 Method and apparatus for tracking led in captured image based on probability KR102099928B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180004691 2018-01-12
KR20180004691 2018-01-12

Publications (2)

Publication Number Publication Date
KR20190086334A true KR20190086334A (en) 2019-07-22
KR102099928B1 KR102099928B1 (en) 2020-05-15

Family

ID=67469208

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180025399A KR102099928B1 (en) 2018-01-12 2018-03-02 Method and apparatus for tracking led in captured image based on probability

Country Status (1)

Country Link
KR (1) KR102099928B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102244380B1 (en) * 2020-07-29 2021-04-26 고려대학교 산학협력단 Method for object recognition using queue-based model selection and optical flow in autonomous driving environment, recording medium and device for performing the method
KR20210153229A (en) * 2020-06-10 2021-12-17 광주과학기술원 A method and apparatus for generating super resolve intensity image

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010097507A (en) * 2008-10-17 2010-04-30 Nippon Telegr & Teleph Corp <Ntt> Device, method, and program for extracting movement object
KR101592125B1 (en) * 2014-12-17 2016-02-04 한양대학교 에리카산학협력단 Target tracing method and apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010097507A (en) * 2008-10-17 2010-04-30 Nippon Telegr & Teleph Corp <Ntt> Device, method, and program for extracting movement object
KR101592125B1 (en) * 2014-12-17 2016-02-04 한양대학교 에리카산학협력단 Target tracing method and apparatus

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Nagura et al. Tracking an LED array transmitter for visible light communications in the driving situation. ISWCS, 2010년 11월, pp. 11-5.* *
Phat Huynh et al. A Probability Based Algorithm Using Image Sensors to Track the LED in a Vehicle Visible Light Communication System. Sensors, 2017년 2월 10일, pp. 1-11. 1부.* *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210153229A (en) * 2020-06-10 2021-12-17 광주과학기술원 A method and apparatus for generating super resolve intensity image
KR102244380B1 (en) * 2020-07-29 2021-04-26 고려대학교 산학협력단 Method for object recognition using queue-based model selection and optical flow in autonomous driving environment, recording medium and device for performing the method

Also Published As

Publication number Publication date
KR102099928B1 (en) 2020-05-15

Similar Documents

Publication Publication Date Title
US11010622B2 (en) Infrastructure-free NLoS obstacle detection for autonomous cars
JP2020052694A (en) Object detection apparatus, object detection method, and computer program for object detection
US10388008B2 (en) Detection of lens contamination using expected edge trajectories
EP3839888B1 (en) Compute device and method for detection of occlusions on a camera
Tavakkoli et al. Non-parametric statistical background modeling for efficient foreground region detection
US11436839B2 (en) Systems and methods of detecting moving obstacles
Moghadam et al. Road direction detection based on vanishing-point tracking
KR20190030474A (en) Method and apparatus of calculating depth map based on reliability
JP2020052647A (en) Object detection device, object detection method, computer program for object detection, and vehicle control system
CN114359714A (en) Unmanned body obstacle avoidance method and device based on event camera and intelligent unmanned body
KR102099928B1 (en) Method and apparatus for tracking led in captured image based on probability
Naser et al. Shadowcam: Real-time detection of moving obstacles behind a corner for autonomous vehicles
Roy et al. A comprehensive survey on computer vision based approaches for moving object detection
KR101146417B1 (en) Apparatus and method for tracking salient human face in robot surveillance
CN114239736A (en) Method and device for training optical flow estimation model
US20200394435A1 (en) Distance estimation device, distance estimation method, and distance estimation computer program
Duan [Retracted] Deep Learning‐Based Multitarget Motion Shadow Rejection and Accurate Tracking for Sports Video
JP6577595B2 (en) Vehicle external recognition device
US20220180646A1 (en) Lane detection system and method for a vehicle
CN115797405A (en) Multi-lens self-adaptive tracking method based on vehicle wheel base
Tourani et al. Challenges of video-based vehicle detection and tracking in intelligent transportation systems
CN115481724A (en) Method for training neural networks for semantic image segmentation
WO2022061498A1 (en) Object detection and tracking
EP3896651A1 (en) Method and apparatus for evaluating temporal characteristics of semantic image segmentation
Yin et al. Moving object localization in thermal imagery by forward-backward motion history images

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant