KR101996169B1 - Method and apparatus for estimating vehicle position based on visible light communication that considering camera displacement - Google Patents

Method and apparatus for estimating vehicle position based on visible light communication that considering camera displacement Download PDF

Info

Publication number
KR101996169B1
KR101996169B1 KR1020180025398A KR20180025398A KR101996169B1 KR 101996169 B1 KR101996169 B1 KR 101996169B1 KR 1020180025398 A KR1020180025398 A KR 1020180025398A KR 20180025398 A KR20180025398 A KR 20180025398A KR 101996169 B1 KR101996169 B1 KR 101996169B1
Authority
KR
South Korea
Prior art keywords
camera
streetlights
image
vehicle
equations
Prior art date
Application number
KR1020180025398A
Other languages
Korean (ko)
Inventor
유명식
두트렁홉
최진석
Original Assignee
숭실대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 숭실대학교산학협력단 filed Critical 숭실대학교산학협력단
Application granted granted Critical
Publication of KR101996169B1 publication Critical patent/KR101996169B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/0093Geometric image transformation in the plane of the image for image warping, i.e. transforming by individually repositioning each pixel
    • G06T3/18
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/006Geometric correction
    • G06T5/80

Abstract

Disclosed are a method and device for estimating a vehicle location based on visible light communication considering camera displacement. A vehicle location estimating method using visible light communication, according to an embodiment, comprises the steps of: photographing street lamps while a vehicle is moving to obtain a photographed image including LEDs within the street lamps; acquiring image coordinates corresponding to the LEDs and visible light signals of the street lamps based on the photographed image; determining identification codes of the street lamps based on the visible light signals; extracting world coordinates of the street lamps corresponding to the determined identification codes from a database in which the identification codes of the street lamps and the world coordinates of the street lamps are matched and stored; constructing equations based on the geometric relationship between the obtained image coordinates and the extracted world coordinates; and estimating the location of the vehicle based on the constructed equations. The step of constructing the equations includes a step of reflecting a displacement value of the camera according to the movement of the vehicle in at least a part of the extracted world coordinates.

Description

카메라 변위를 고려한 가시광 통신 기반의 차량 위치 추정 방법 및 장치{METHOD AND APPARATUS FOR ESTIMATING VEHICLE POSITION BASED ON VISIBLE LIGHT COMMUNICATION THAT CONSIDERING CAMERA DISPLACEMENT}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a method and apparatus for estimating a position of a vehicle based on visible light communication,

아래 실시예들은 카메라 변위를 고려한 가시광 통신 기반의 차량 위치 추정 방법 및 장치에 관한 것이다.The following embodiments relate to a method and apparatus for vehicle position estimation based on visible light communication in consideration of camera displacement.

이미징 분야에서는 CCD(charge coupled device)와 CMOS(complementary metal-oxide semiconductor)의 두 가지 유형의 센서가 이용될 수 있다. CCD의 경우 우수한 이미지 품질을 제공하는 것으로 여겨져 왔고, 디지털 시대 초기에는 대부분의 카메라에 CCD 센서가 장착되었다. 그러나 최근 몇 년 동안 CMOS 센서의 급격한 발전으로 CMOS 센서가 이미지 품질, 프레임 속도 및 생산 비용을 비롯한 다양한 측면에서 CCD 센서보다 우수한 성능을 발휘하게 되었다. 결과적으로 CMOS 센서는 대부분의 이미징 장치의 빌딩 블록으로 사용되고 있으며, 널리 보급되어 가시 광선 통신 (visible light communication, VLC) 및 VLC 기반 위치 추정 분야에서 수신 장치로 사용하기에 적합하다.Two types of sensors, CCD (charge coupled device) and CMOS (complementary metal-oxide semiconductor), can be used in the imaging field. CCDs have been considered to provide excellent image quality, and in the early years of the digital age most cameras were equipped with CCD sensors. However, in recent years, with the rapid development of CMOS sensors, CMOS sensors have performed better than CCD sensors in various aspects including image quality, frame rate and production cost. As a result, CMOS sensors are used as building blocks in most imaging devices and are becoming widespread and are suitable for use as receiving devices in the field of visible light communication (VLC) and VLC based positioning.

현재 차량의 위치를 추정하는 방법으로는 크게 세 가지가 존재한다. 첫째로, GPS(global positioning system)를 이용하는 것이다. 이 방법은 비용이 저렴하지만, 높은 건물로 인해 GPS 신호가 방해 받을 수 있는 도시 지역의 터널이나 거리에서는 GPS를 사용할 수 없다. 둘째로, 4G, LTE(long term evolution)와 같은 데이터 통신 기반으로 차량의 위치를 추정하는 것으로, 이 방법을 통해 GPS의 가용성과 관련된 한계를 극복할 수 있다. 다만, 이 방법은 수십 미터의 위치 정확도만을 제공하며 자율 차량과 같은 높은 수준의 정확도가 필요한 애플리케이션에는 충분하지 않다. 셋째로, LIDAR(light detection and ranging)을 잉용하는 것으로, 이 방법은 매우 높은 정확도를 제공한다. 그러나, LIDAR를 구현하기 위해서는 일반적으로 매우 높은 비용의 추가 장비가 요구된다. 이러한 이유로 인해 차량의 위치를 추정하기 위한 새로운 기술이 요구된다.There are three methods for estimating the current position of the vehicle. First, it uses a global positioning system (GPS). This method is inexpensive, but GPS can not be used in urban tunnels or streets where high buildings can interfere with GPS signals. Secondly, by estimating the position of a vehicle based on data communication such as 4G and long term evolution (LTE), this method can overcome the limitation related to the availability of GPS. However, this method only provides position accuracy of tens of meters and is not sufficient for applications requiring high levels of accuracy such as autonomous vehicles. Third, by using LIDAR (light detection and ranging), this method provides very high accuracy. However, implementing LIDAR generally requires additional equipment at very high cost. For this reason, a new technique for estimating the position of the vehicle is required.

최근 몇 년 동안, 가시 광선 통신을 기반으로 한 새로운 종류의 기술이 차량 위치를 추정하기 위해 제안되었다. 일례로, 차량의 미등이나 헤드 라이트는 다른 차량에 설치된 두 개의 포토 다이오드로 위치 신호를 전송하는 데 사용될 수 있고, 차량 간의 상대 위치를 결정하기 위해 일종의 도착 시간차 (time difference of arrival, TDOA) 알고리즘이 사용될 수 있다. 다만, TDOA를 사용하면 시간 측정 시 발생하는 작은 오차로 인해 큰 위치 오차가 발생하기 때문에 실제로는 높은 정확도를 달성하기가 어렵다. 다른 예로, LED(light emitting diode) 신호등과 포토 다이오드를 사용하여 차량의 위치가 결정될 수 있다. 그러나, 포토 다이오드는 서로 다른 광원을 구별 할 수 없으므로, 이 방법은 주변 광, 특히 햇빛에 매우 취약할 수 있다. 또 다른 예로, 제1 차량이 후방 LED를 통해 VLC 포지셔닝 신호를 보내면 제2 차량이 두 대의 카메라를 사용하여 포지셔닝 신호를 수신 하고, 신경망을 이용하여 타겟 차량의 위치를 추정할 수 있다. 이 경우에서 카메라 기반 위치 추정에서 정확도는 LED 인 참조 점 간의 거리에 크게 의존할 수 있다. 제1 차량의 뒤쪽 LED가 두 차량 사이의 거리에 비해 상대적으로 가까운 경우 위치 정확도는 높지 않을 수 있다.In recent years, a new kind of technology based on visible light communication has been proposed to estimate vehicle location. For example, a vehicle's taillamp or headlight can be used to transmit position signals to two photodiodes installed in other vehicles, and a time difference of arrival (TDOA) algorithm is used to determine the relative position between the vehicles Can be used. However, when using TDOA, it is difficult to achieve high accuracy in practice because a large error occurs due to a small error occurring in time measurement. As another example, the position of the vehicle can be determined using a light emitting diode (LED) signal light and a photodiode. However, since a photodiode can not distinguish between different light sources, this method may be very vulnerable to ambient light, especially sunlight. As another example, if the first vehicle sends a VLC positioning signal via the rear LED, the second vehicle can use the two cameras to receive the positioning signal and use the neural network to estimate the position of the target vehicle. In this case, the accuracy in camera-based position estimation can be highly dependent on the distance between reference points, which is the LED. If the rear LED of the first vehicle is relatively close to the distance between the two vehicles, the position accuracy may not be high.

일 실시예에 따른 가시광 통신을 이용하여 차량의 위치를 추정하는 방법은 차량이 이동하는 동안 가로등들을 촬영하여 상기 가로등들 내 LED들을 포함하는 촬영 이미지를 획득하는 단계; 상기 촬영 이미지에 기초하여 상기 가로등들의 가시광 신호들 및 상기 LED들에 대응하는 이미지 좌표들을 획득하는 단계; 상기 가시광 신호들에 기초하여 상기 가로등들의 식별 코드들을 결정하는 단계; 상기 가로등들의 식별 코드들 및 상기 가로등들의 월드 좌표들이 서로 매칭되어 저장된 데이터베이스에서, 상기 결정된 식별 코드들에 대응하는 상기 가로등들의 월드 좌표들을 추출하는 단계; 상기 획득된 이미지 좌표들 및 상기 추출된 월드 좌표들 사이의 기하학적인 관계에 기초하여 방정식들을 구성하는 단계; 및 상기 구성된 방정식들에 기초하여 상기 차량의 위치를 추정하는 단계를 포함하고, 상기 방정식들을 구성하는 단계는 상기 차량의 이동에 따른 상기 카메라의 변위 값을 상기 추출된 월드 좌표들 중 적어도 일부에 반영하는 단계를 포함한다.A method of estimating the position of a vehicle using visible light communication in accordance with an embodiment includes the steps of photographing streetlights while the vehicle is moving to obtain a shot image including LEDs in the streetlights; Obtaining visible light signals of the streetlights based on the sensed image and image coordinates corresponding to the LEDs; Determining identification codes of the streetlights based on the visible light signals; Extracting world coordinates of the streetlights corresponding to the determined identification codes in a database in which the identification codes of the streetlights and the world coordinates of the streetlights are matched with each other; Constructing equations based on the geometric relationships between the obtained image coordinates and the extracted world coordinates; And estimating the position of the vehicle based on the equations constructed, wherein the step of constructing the equations includes reflecting the displacement value of the camera as the vehicle moves into at least a portion of the extracted world coordinates .

일 실시예에 따른 가시광 통신을 이용하여 차량의 위치를 추정하는 장치는 상기 차량이 이동하는 동안 가로등들을 촬영하여 상기 가로등들 내 LED들을 포함하는 촬영 이미지를 생성하는 촬영부; 및 상기 촬영 이미지에 기초하여 상기 가로등들의 가시광 신호들 및 상기 LED들에 대응하는 이미지 좌표들을 획득하고, 상기 가시광 신호들에 기초하여 상기 가로등들의 식별 코드들을 결정하고, 상기 가로등들의 식별 코드들 및 상기 가로등들의 월드 좌표들이 서로 매칭되어 저장된 데이터베이스에서 상기 결정된 식별 코드들에 대응하는 상기 가로등들의 월드 좌표들을 추출하고, 상기 획득된 이미지 좌표들 및 상기 추출된 월드 좌표들 사이의 기하학적인 관계에 기초하여 방정식들을 구성하는 위치 추정부를 포함하고, 상기 방정식들을 구성할 때 상기 위치 추정부는 상기 차량의 이동에 따른 상기 카메라의 변위 값을 상기 추출된 월드 좌표들 중 적어도 일부에 반영한다.An apparatus for estimating a position of a vehicle using visible light communication according to an exemplary embodiment of the present invention includes a photographing unit for photographing streetlights while the vehicle is moving to generate a photographing image including LEDs in the streetlights; And obtaining image coordinates corresponding to the visible light signals of the street lamps and the LEDs based on the shot image, determining identification codes of the street lamps based on the visible light signals, Extracting world coordinates of the streetlamps corresponding to the determined identification codes in a database in which world coordinates of the streetlamps are matched with each other and extracting world coordinates of the streetlamps corresponding to the determined identification codes based on the geometric relationship between the obtained image coordinates and the extracted world coordinates, And the position estimating unit reflects the displacement value of the camera according to the movement of the vehicle on at least a part of the extracted world coordinates when constructing the equations.

도 1은 일 실시예에 따른 차량 위치 추정 시스템을 나타낸 도면.
도 2는 일 실시예에 따른 차량 위치 추정 과정을 나타낸 동작 흐름도.
도 3은 일 실시예에 따른 핀홀 카메라 모델을 나타낸 도면.
도 4는 일 실시예에 따른 CMOS 센서의 이미지 획득 과정을 나타낸 도면.
도 5는 일 실시예에 따른 카메라의 이동에 따른 촬영 이미지를 나타낸 도면.
도 6은 일 실시예에 따른 카메라 변위와 LED 변위 사이의 관계를 나타낸 도면.
도 7은 일 실시예에 따라 촬영 이미지를 병합하여 방정식을 구성하는 과정을 나타낸 동작 흐름도.
도 8은 일 실시예에 따라 롤링 셔터 아티팩트를 보상하여 방정식을 구성하는 과정을 나타낸 동작 흐름도.
도 9은 일 실시예에 따른 카메라 변위에 따른 위치 추정 과정을 나타낸 도면.
도 10은 일 실시예에 따른 LED 변위에 따른 위치 추정 과정을 나타낸 도면.
BRIEF DESCRIPTION OF THE DRAWINGS Figure 1 illustrates a vehicle position estimation system in accordance with one embodiment.
2 is a flowchart illustrating a vehicle position estimation process according to an exemplary embodiment of the present invention.
3 illustrates a pinhole camera model according to one embodiment.
4 illustrates an image acquisition process of a CMOS sensor according to an exemplary embodiment;
5 is a view showing a photographed image according to a movement of a camera according to an embodiment.
6 illustrates a relationship between camera displacement and LED displacement in accordance with one embodiment;
FIG. 7 is an operational flowchart illustrating a process of constructing an equation by merging photographed images according to an embodiment. FIG.
8 is an operational flow diagram illustrating a process for constructing an equation by compensating for rolling shutter artifacts according to an embodiment;
9 is a view illustrating a position estimation process according to a camera displacement according to an embodiment.
10 is a diagram illustrating a position estimation process according to an LED displacement according to an exemplary embodiment.

본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시예들에 대해서 특정한 구조적 또는 기능적 설명들은 단지 본 발명의 개념에 따른 실시예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시예들은 다양한 형태로 실시될 수 있으며 본 명세서에 설명된 실시예들에 한정되지 않는다.It is to be understood that the specific structural or functional descriptions of embodiments of the present invention disclosed herein are presented for the purpose of describing embodiments only in accordance with the concepts of the present invention, May be embodied in various forms and are not limited to the embodiments described herein.

본 발명의 개념에 따른 실시예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시예들을 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시예들을 특정한 개시형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Embodiments in accordance with the concepts of the present invention are capable of various modifications and may take various forms, so that the embodiments are illustrated in the drawings and described in detail herein. However, it is not intended to limit the embodiments according to the concepts of the present invention to the specific disclosure forms, but includes changes, equivalents, or alternatives falling within the spirit and scope of the present invention.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만, 예를 들어 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.The terms first, second, or the like may be used to describe various elements, but the elements should not be limited by the terms. The terms may be named for the purpose of distinguishing one element from another, for example without departing from the scope of the right according to the concept of the present invention, the first element being referred to as the second element, Similarly, the second component may also be referred to as the first component.

어떤 구성요소가 다른 구성요소에 “연결되어” 있다거나 “접속되어” 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 “직접 연결되어” 있다거나 “직접 접속되어” 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 표현들, 예를 들어 “~사이에”와 “바로~사이에” 또는 “~에 직접 이웃하는” 등도 마찬가지로 해석되어야 한다.It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between. Expressions that describe the relationship between components, for example, "between" and "immediately" or "directly adjacent to" should be interpreted as well.

본 명세서에서 사용한 용어는 단지 특정한 실시예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, “포함하다” 또는 “가지다” 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, the terms " comprises ", or " having ", and the like, are used to specify one or more of the features, numbers, steps, operations, elements, But do not preclude the presence or addition of steps, operations, elements, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the meaning of the context in the relevant art and, unless explicitly defined herein, are to be interpreted as ideal or overly formal Do not.

아래 실시예들에서는 가로등과 CMOS 이미지 센서를 이용한 VLC 기반 차량 위치 추정 시스템이 제안된다. 환경 친화적이고 수명이 길며 에너지 효율이 높다는 등의 많은 이점을 통해 가로등은 전 세계적으로 점점 더 많이 사용되고 있다. 이러한 고전력 및 고밀도 조명 시스템은 통신 및 포지셔닝 목적으로 활용될 수 있다. 또한, 가로등을 이용한 위치 추정은 원칙적으로 거리 조명의 조밀한 배열로 인해 높은 정확도를 제공할 가능성이 높다.In the following embodiments, a VLC-based vehicle position estimation system using a streetlight and a CMOS image sensor is proposed. Street lamps are becoming increasingly popular around the world with many benefits, including environmental friendliness, long life span and high energy efficiency. These high power and high density lighting systems can be utilized for communication and positioning purposes. In addition, location estimation using a streetlight is highly likely to provide high accuracy due to the tight arrangement of street lights in principle.

카메라를 포지셔닝에 사용하는 문제는 컴퓨터 비전 분야에서 오랫동안 연구되었다. 그러나 차량 위치를 추정하는데 있어서 종래 포지셔닝 알고리즘에는 일정한 두 가지 한계가 존재할 수 있다. 첫째, 종래 포지셔닝 알고리즘은 LED 가로등이 동일 선상에 존재하는 경우 충분한 방적식을 획득할 수 없고, 이에 따라 차량의 위치를 추정하는데 실패할 수 있다. 둘째, LED의 배열에 상관없이, CMOS 센서의 롤링 셔터 아티팩트로 인해 위치 추정의 정확도가 떨어질 수 있다. 롤링 셔터 메커니즘을 사용하면 CMOS 센서의 각 픽셀 행이 각각 다른 시간에 노출된다. 따라서 노출 기간 동안 객체의 위치가 변경되면 촬영된 이미지의 물체 왜곡과 같은 아티팩트가 발생할 수 있다. 물체가 고속으로 움직이는 경우, 이러한 왜곡은 위치 추정 알고리즘에 잘못된 정보를 제공하여 위치 추정 결과에 오류를 유발할 수 있다. 롤링 셔터 메커니즘을 사용하지 않는 CCD 센서와 함께 사용하기 위해 원래 설계된 전통적인 포지셔닝 알고리즘이나 스마트 폰 CMOS 센서와 함께 사용하기 위해 고안된 최근 알고리즘은 이러한 아티팩트를 처리하지 않는다.The problem of using cameras for positioning has long been studied in the field of computer vision. However, there are two limitations of the conventional positioning algorithm in estimating the vehicle position. First, the conventional positioning algorithm can not obtain sufficient spin-off when the LED streetlights are present in the same line, thus failing to estimate the position of the vehicle. Second, regardless of the arrangement of the LEDs, the accuracy of the position estimation may be degraded due to the rolling shutter artifacts of the CMOS sensor. Using a rolling shutter mechanism, each pixel row of the CMOS sensor is exposed at different times. Therefore, if the position of the object changes during the exposure period, artifacts such as object distortion of the photographed image may occur. If the object moves at high speed, such distortion may give erroneous information to the position estimation algorithm, which may cause errors in the position estimation result. Conventional positioning algorithms originally designed for use with CCD sensors that do not use a rolling shutter mechanism or recent algorithms designed for use with smartphone CMOS sensors do not address these artifacts.

아래 실시예들에 따르면 상기 문제점들이 해결될 수 있다. 실시예들에 따르면 동일 선상의 LED 배열 문제를 해결하기 위해 차량의 서로 다른 위치에 배치 된 두 대의 카메라를 사용하여 LED 가로등의 이미지를 촬영하고, 두 이미지의 데이터를 통합하여 카메라의 위치를 추정할 수 있다. 실시예들에 따르면 롤링 셔터 아티팩트도 보정될 수 있다. 예를 들어, 차량의 속도와 센서의 판독 시간에 기초하여 LED 이미지의 아티팩트가 보정될 수 있다. 따라서, 차량이 고속으로 움직이는 경우에도 높은 위치 설정 정확도가 달성 될 수 있다.According to the embodiments described below, the above problems can be solved. According to the embodiments, in order to solve the LED arrangement problem in the same line, two LEDs disposed at different positions of the vehicle are used to photograph an image of the LED street lamp, and the position of the camera is estimated by integrating the data of the two LEDs . Rolling shutter artifacts may also be corrected according to embodiments. For example, the artifacts of the LED image can be corrected based on the speed of the vehicle and the read time of the sensor. Therefore, high positioning accuracy can be achieved even when the vehicle moves at high speed.

이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 특허출원의 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, the scope of the patent application is not limited or limited by these embodiments. Like reference symbols in the drawings denote like elements.

도 1은 일 실시예에 따른 차량 위치 추정 시스템을 나타낸 도면이다.1 is a diagram illustrating a vehicle position estimation system in accordance with one embodiment.

도 1을 참조하면, 가로등(120)은 가시광 신호를 전송할 수 있다. 가시광 신호는 가로등(120)의 식별 코드를 포함할 수 있으며, 식별 코드를 통해 가로등(120)의 위치에 대응하는 가로등(120)의 월드 좌표가 획득될 수 있다.Referring to FIG. 1, the streetlight 120 may transmit a visible light signal. The visible light signal may include the identification code of the streetlight 120 and the world coordinates of the streetlight 120 corresponding to the location of the streetlight 120 may be obtained through the identification code.

장치(110)는 촬영부(111) 및 위치 추정부(112)를 포함할 수 있고, 가시광 통신에 기초하여 차량의 위치를 추정할 수 있다. 촬영부(111)는 CMOS 이미지 센서에 기반하는 적어도 하나의 카메라를 포함할 수 있고, 가로등(120)을 촬영하여 촬영 이미지를 생성할 수 있다. 위치 추정부(112)는 촬영부(111)로부터 촬영 이미지를 획득하고, 촬영 이미지에 기초하여 가로등(120)의 가시광 신호를 획득할 수 있다.The apparatus 110 may include a photographing unit 111 and a position estimating unit 112 and may estimate the position of the vehicle based on visible light communication. The photographing unit 111 may include at least one camera based on a CMOS image sensor, and may photograph the street lamp 120 to generate a photographed image. The position estimating unit 112 may acquire a photographed image from the photographing unit 111 and obtain a visible light signal of the streetlight 120 based on the photographed image.

위치 추정부(112)는 가시광 신호에서 식별 코드를 추출하고, 가로등(120)의 식별 코드 및 가로등(120)의 월드 좌표가 매칭되어 저장된 데이터베이스를 참조하여 상기 추출된 식별 코드에 대응하는 월드 좌표를 획득할 수 있다.The position estimating unit 112 extracts an identification code from the visible light signal and refers to the database in which the identification code of the streetlight 120 and the world coordinates of the streetlight 120 are matched and stored to store the world coordinate corresponding to the extracted identification code Can be obtained.

가로등(120)은 LED(121)를 포함할 수 있다. 위치 추정부(112)는 촬영 이미지에서 LED(121)의 이미지 좌표를 획득할 수 있다. 위치 추정부(112)는 월드 좌표 및 이미지 좌표 간의 기하학적 관계, 및 카메라의 고유 파라미터에 기초하여 차량의 위치를 추정할 수 있다. 카메라의 고유 파라미터는 센서의 크기, 센서 해상도 및 렌즈의 초점 길이 등을 포함할 수 있다. 또한, 차량의 속도계를 통해 차량의 속도가 측정될 수 있고, 차량의 속도는 롤링 셔터 보정에 사용될 수 있다.The streetlight 120 may include an LED 121. The position estimating unit 112 can obtain the image coordinates of the LED 121 in the photographed image. The position estimating unit 112 can estimate the position of the vehicle based on the geometric relationship between the world coordinates and the image coordinates, and the intrinsic parameters of the camera. The intrinsic parameters of the camera may include the size of the sensor, the sensor resolution, and the focal length of the lens. Further, the speed of the vehicle can be measured through the speedometer of the vehicle, and the speed of the vehicle can be used for the rolling shutter correction.

도 2는 일 실시예에 따른 차량 위치 추정 과정을 나타낸 동작 흐름도이다.2 is a flowchart illustrating a vehicle position estimation process according to an exemplary embodiment of the present invention.

도 2를 참조하면, 단계(210)에서 촬영부는 가로등을 촬영하고, 위치 추정부는 촬영부로부터 촬영 이미지를 획득한다. 촬영 이미지는 가로등들 내 LED들을 포함할 수 있다.Referring to FIG. 2, in step 210, the photographing section photographs the streetlight, and the position estimating section obtains the photographing image from the photographing section. The photographed image may include LEDs in street lamps.

단계(220)에서 위치 추정부는 촬영 이미지에 기초하여 가로등들의 가시광 신호들 및 LED들에 대응하는 이미지 좌표들을 획득한다. 가로등들 각각은 VLC 기법을 통해 LED에서 출력되는 가시광을 통해 데이터를 전송할 수 있고, 위치 추정부는 가로등에 의해 전송된 가시광 신호로부터 데이터를 획득할 수 있다.In step 220, the position estimating unit obtains the image coordinates corresponding to the visible light signals and the LEDs of the streetlamps based on the shot image. Each of the streetlights can transmit data through the visible light output from the LED through the VLC technique, and the position estimator can acquire data from the visible light signal transmitted by the streetlight.

단계(230)에서 위치 추정부는 가시광 신호에 기초하여 데이터베이스에서 가로등의 월드 좌표를 추출한다. 위치 추정부는 가시광 신호들에 기초하여 가로등들의 식별 코드들을 결정할 수 있다. 예를 들어, 위치 추정부는 가시광 신호들을 복조하여 가시광 신호들로부터 가로등들 각각의 식별 코드를 획득할 수 있다. 식별 코드는 가로등을 식별하기 위해 가로등 마다 고유하게 할당될 수 있다. 데이터베이스에는 가로등들의 식별 코드들 및 가로등들의 월드 좌표들이 서로 매칭되어 저장될 수 있다. 위치 추정부는 상기 결정된 식별 코드들에 대응하는 가로등들의 월드 좌표들을 데이터베이스에서 추출할 수 있다.In step 230, the position estimator extracts the world coordinates of the street lamp in the database based on the visible light signal. The position estimating unit may determine the identification codes of the streetlights based on the visible light signals. For example, the position estimator may demodulate the visible light signals to obtain the identification codes of the respective streetlights from the visible light signals. The identification code can be uniquely assigned to each streetlight to identify the streetlight. In the database, the identification codes of the streetlights and the world coordinates of the streetlights may be matched and stored. The position estimating unit may extract, from the database, world coordinates of streetlights corresponding to the determined identification codes.

단계(240)에서 위치 추정부는 획득된 이미지 좌표들 및 추출된 월드 좌표들 사이의 기하학적인 관계에 관한 방정식들을 구성한다. 핀홀 카메라 모델에 따르면 이미지 좌표 및 월드 좌표 간에는 일정한 기하학적 관계가 형성될 수 있고, 이러한 기하학적인 관계에 따라 방정식들이 구성될 수 있다. 방정식들을 구성하는 구체적인 과정은 후술한다.In step 240, the position estimator constructs equations related to the geometric relationship between the obtained image coordinates and the extracted world coordinates. According to the pinhole camera model, a certain geometric relationship can be formed between the image coordinates and the world coordinates, and the equations can be constructed according to this geometrical relationship. The concrete procedure for constructing the equations will be described later.

단계(250)에서 위치 추정부는 상기 구성된 방정식들에 기초하여 상기 차량의 위치를 추정한다. 위치 추정부는 방정식들을 통해 솔루션을 구함으로써 가로등이 촬영된 순간의 카메라 위치를 추정할 수 있으며, 카메라의 위치에 기초하여 차량의 위치를 추정할 수 있다. 방정식들의 솔루션을 구하는 구체적인 과정은 후술한다.In step 250, the position estimating unit estimates the position of the vehicle based on the equations constructed above. The position estimating unit estimates the position of the camera at the moment the streetlight is photographed by obtaining the solution through the equations, and estimates the position of the vehicle based on the position of the camera. A concrete procedure for obtaining a solution of the equations will be described later.

도 3은 일 실시예에 따른 핀홀 카메라 모델을 나타낸 도면이다. 카메라를 이용한 위치 추정 알고리즘은 핀홀 카메라 모델을 기반으로 할 수 있다.3 is a view illustrating a model of a pinhole camera according to an exemplary embodiment of the present invention. The camera position estimation algorithm can be based on a pinhole camera model.

도 3을 참조하면, 3 차원 월드 좌표계, 3 차원 카메라 좌표계 및 2 차원 이미지 좌표계의 3 가지 유형의 좌표계가 도시되어 있다. 카메라의 3차원 월드 좌표는

Figure 112018021638913-pat00001
로 표시된다. 주점(principal point)은 이상적으로는 센서의 중심에 위치하며,
Figure 112018021638913-pat00002
와 같은 2D 이미지 좌표로 나타낼 수 있다.Referring to FIG. 3, there are shown three types of coordinate systems: a three-dimensional world coordinate system, a three-dimensional camera coordinate system, and a two-dimensional image coordinate system. The three-dimensional world coordinates of the camera are
Figure 112018021638913-pat00001
. The principal point is ideally located at the center of the sensor,
Figure 112018021638913-pat00002
As shown in FIG.

일반적으로 이미지에는 여러 개의 LED가 촬영될 수 있다.

Figure 112018021638913-pat00003
,
Figure 112018021638913-pat00004
가 i 번째 LED의 월드 좌표 및 이미지 좌표를 나타낸다고 가정하면, 각 월드 좌표와 각 이미지 좌표 간의 기하학적 관계는 수학식 1로 나타낼 수 있다.In general, multiple LEDs can be photographed in an image.
Figure 112018021638913-pat00003
,
Figure 112018021638913-pat00004
Is the world coordinate and the image coordinate of the i-th LED, the geometric relationship between each world coordinate and each image coordinate can be expressed by Equation (1).

Figure 112018021638913-pat00005
Figure 112018021638913-pat00005

여기서

Figure 112018021638913-pat00006
는 스칼라이고, K는 렌즈 초점 거리 f와 주점
Figure 112018021638913-pat00007
을 포함하는 카메라의 고유 파라미터(intrinsic parameter)에 의해 정의 된 3 x 4 카메라 캘리브레이션 행렬(calibration matrix)이며, R은 4 x 3 회전 행렬(rotation matrix)이고
Figure 112018021638913-pat00008
는 4 x 1 변환 행렬(translation matrix)이다.here
Figure 112018021638913-pat00006
Is a scalar, K is a lens focal length f,
Figure 112018021638913-pat00007
R is a 4 x 3 rotation matrix and is a 3 x 4 camera calibration matrix defined by intrinsic parameters of the camera,
Figure 112018021638913-pat00008
Is a 4 x 1 translation matrix.

카메라 기반 포지셔닝 알고리즘은 수학식 1의 형태로 여러 방정식 세트를 해결하는데 의존한다. 카메라의 고유 파라미터가 산출된 이후, 관성 센서(inertial sensor)가 카메라에 대한 정보를 얻는데 사용되는지 여부에 따라, 수학식 1에서 카메라 위치를 도출하는 두 가지 방법이 있다. 관성 센서를 이용하는 방법과 포지셔닝 알고리즘을 이용하는 방법이다. 이러한 방법들에는 각각 장단점이 존재할 수 있다. The camera-based positioning algorithm relies on solving several sets of equations in the form of Equation (1). There are two methods for deriving the camera position in equation (1), depending on whether an inertial sensor is used to obtain information about the camera after the camera's unique parameters have been computed. A method using an inertial sensor and a method using a positioning algorithm. Each of these methods may have advantages and disadvantages.

카메라 위치를 찾는 간단한 알고리즘은 관성 센서를 사용하여 카메라의 포즈(즉, 방향)에 대한 정보를 얻는 것이다. 이 정보를 통해 회전 행렬 R을 얻을 수 있다. 그러면 수학식 1은 카메라 위치가 발견 될 수 있는 공선 조건(collinearity condition)으로 결정될 수 있다. 이 방법의 장점은 카메라 위치를 결정하는데 2 개의 장면 점(scene point)만 있으면 된다는 것이다. 그러나 이 경우 정확도는 카메라 포즈를 얻는데 사용되는 관성 센서의 정확도에 크게 의존한다. 실내 환경에서 관성 센서의 정확도는 일반적으로 충분하다. 그러나, 실시예에 따른 시스템의 경우 카메라에서 LED까지의 거리가 실내 시스템의 거리보다 매우 길기 때문에 각도 측정에서 동일한 오류로 인해 위치 지정 오류가 높아질 수 있다.A simple algorithm to find the camera position is to use an inertial sensor to obtain information about the camera's pose (ie, direction). From this information, a rotation matrix R can be obtained. Then, equation (1) can be determined as a collinearity condition in which the camera position can be found. The advantage of this method is that it requires only two scene points to determine the camera position. In this case, however, the accuracy is highly dependent on the accuracy of the inertial sensor used to obtain the camera pose. The accuracy of an inertial sensor in an indoor environment is generally sufficient. However, in the case of the system according to the embodiment, since the distance from the camera to the LED is much longer than the distance of the indoor system, the positioning error may be increased due to the same error in the angle measurement.

포지셔닝 알고리즘에서 카메라의 자세는 알려지지 않았기 때문에 카메라 회전 행렬 R도 알 수 없다. 그러면 카메라 위치를 찾는 문제는 수학식 1을 사용하여 행렬 [R t]를 구하는 것으로 귀결된다. 이 문제를 해결하기 위해 수학식 1은 일종의 일차 방정식으로 변형될 필요가 있으며 이것은 직접 선형 변환(direct linear transformation, DLT) 기법을 통해 수행될 수 있다.The camera rotation matrix R is unknown because the position of the camera in the positioning algorithm is unknown. The problem of finding the camera position then results in finding the matrix [R t] using equation (1). To solve this problem, Equation 1 needs to be transformed into a kind of linear equation, which can be performed by a direct linear transformation (DLT) technique.

Figure 112018021638913-pat00009
가 행렬 [R t]를 나타낸다고 가정하자. 행렬 [R t]의 각 행
Figure 112018021638913-pat00010
, m = 1, 2, 3은 1 x 4 벡터
Figure 112018021638913-pat00011
으로 나타낼 수 있다.
Figure 112018021638913-pat00012
이고, 두 벡터
Figure 112018021638913-pat00013
Figure 112018021638913-pat00014
는 평행하므로, 이들의 외적(cross-product)은 0이다. 외적을 계산함으로써 수학식 2를 얻을 수 있다.
Figure 112018021638913-pat00009
Let Rt denote the matrix [R t]. Each row of the matrix [R t]
Figure 112018021638913-pat00010
, m = 1, 2, and 3 are 1 x 4 vectors
Figure 112018021638913-pat00011
.
Figure 112018021638913-pat00012
, And the two vectors
Figure 112018021638913-pat00013
Wow
Figure 112018021638913-pat00014
Are parallel, so their cross-product is zero. Equation 2 can be obtained by calculating the outer product.

Figure 112018021638913-pat00015
Figure 112018021638913-pat00015

수학식 2에서 0=[0 0 0 0]이다. 쌍

Figure 112018021638913-pat00016
각각은 수학식 2의 형태로 두 선형 방정식의 집합을 공식화 할 수 있다. 모든 장면 점에 대응하는 방정식들을 결합하여 수학식 3을 얻을 수 있다.In Equation (2), 0 = [0 0 0 0]. pair
Figure 112018021638913-pat00016
Each can formulate a set of two linear equations in the form of equation (2). Equation (3) can be obtained by combining equations corresponding to all scene points.

Figure 112018021638913-pat00017
Figure 112018021638913-pat00017

수학식 3은 수학식 4로 나타낼 수 있다.Equation (3) can be expressed by Equation (4).

Figure 112018021638913-pat00018
Figure 112018021638913-pat00018

수학식 4에서 M은 2N x 12 행렬이고, v는 12 x 1 벡터이다. 여기서 N은 장면 점의 수이다.In Equation (4), M is a 2N x 12 matrix and v is a 12 x 1 vector. Where N is the number of scene points.

수학식 4에서 12개의 알려지지 않은 요소들이 있기 때문에, 이들이 해결되기 위해서는 6개의 장면 점들이 필요하다. 잡음이 없는 이상적인 경우, v의 정확한 솔루션은 Mv = 0이 만족되도록 하여 찾을 수 있다. 실제 구현 시의 잡음 때문에 Mv = 0는 정확한 솔루션을 갖지 않을 수 있다. 그러므로, 이 문제는 수학식 5와 같이 솔루션 v를 찾는 최소 제곱 문제가 된다.Since there are 12 unknown elements in Equation 4, six scene points are needed to solve them. In the ideal case with no noise, the exact solution of v can be found so that Mv = 0 is satisfied. Mv = 0 may not have the correct solution due to noise in actual implementation. Therefore, this problem becomes a least squares problem of finding the solution v as in equation (5).

Figure 112018021638913-pat00019
Figure 112018021638913-pat00019

위의 최소 제곱 문제는 SVD(singular value decomposition)라고 불리는 기법으로 생성된 솔루션을 가질 수 있다. 그러나, 장면 점

Figure 112018021638913-pat00020
가 수학식 5에 대해 선형이 되지 않아야 한다. 다시 말해, 카메라 위치를 찾기 위해서는 LED가 동일 선상에 위치하지 않아야 한다. 이러한 솔루션을 통해 카메라의 위치가 추정될 수 있다.The least squares problem above can have a solution created with a technique called singular value decomposition (SVD). However,
Figure 112018021638913-pat00020
Should not be linear with respect to Equation (5). In other words, the LEDs must not be on the same line to find the camera position. With this solution, the position of the camera can be estimated.

도 4는 일 실시예에 따른 CMOS 센서의 이미지 획득 과정을 나타낸 도면이다.4 is a diagram illustrating an image acquisition process of a CMOS sensor according to an exemplary embodiment of the present invention.

도 4를 참조하면, 센서의 각 행은 서로 다른 시간에 순차적으로 노출된다. 두 개의 연속된 행에서 노출의 시작점 사이의 간격은

Figure 112018021638913-pat00021
로 표시되며, 이는 한 행의 판독 시간과 동일하다. 센서의 다른 행이 서로 다른 시간에 노출되기 때문에, 센서의 다른 행에서 촬영된 LED 이미지는 다른 위치 상의 LED 이미지에 해당하므로, LED가 카메라에 더 가까운 것과 같은 이미지 아티팩트가 발생한다. 도 5는 일 실시예에 따른 카메라의 이동에 따른 촬영 이미지를 나타낸 도면이다. 카메라(510)가 이동하면서 LED들(520)을 촬영할 때, 아티팩트가 발생하지 않는다면 촬영 이미지(530)가 획득되지만, 아티팩트가 발생한다면 촬영 이미지(540)가 획득되게 된다. 즉, LED들(520)이 카메라(510)에 더 가까운 것과 같은 이미지 아티팩트가 발생할 수 있다.Referring to FIG. 4, each row of sensors is sequentially exposed at different times. The spacing between the starting points of the exposures in two consecutive rows is
Figure 112018021638913-pat00021
, Which is equal to the read time of one row. Since different rows of the sensor are exposed at different times, the LED images taken in different rows of the sensor correspond to the LED images on different locations, resulting in image artifacts such that the LED is closer to the camera. 5 is a view showing a captured image according to the movement of a camera according to an embodiment. When the camera 510 captures the LEDs 520 as it moves, the captured image 530 is acquired if an artifact does not occur, but the captured image 540 is acquired if an artifact occurs. That is, image artifacts such as the LEDs 520 being closer to the camera 510 may occur.

Figure 112018021638913-pat00022
Figure 112018021638913-pat00023
가 i번째 LED의 월드 좌표 및 이미지 좌표인 경우, 이들 두 좌표 간의 관계는 수학식 6과 같이 나타낼 수 있다.
Figure 112018021638913-pat00022
And
Figure 112018021638913-pat00023
Is the world coordinate and the image coordinate of the i-th LED, the relationship between these two coordinates can be expressed by Equation (6).

Figure 112018021638913-pat00024
Figure 112018021638913-pat00024

수학식 6에서

Figure 112018021638913-pat00025
는 i번째 LED가 캡쳐된 때 카메라의 위치
Figure 112018021638913-pat00026
에 대응하는 변환 벡터를 나타낸다.In Equation (6)
Figure 112018021638913-pat00025
Is the position of the camera when the i-th LED is captured
Figure 112018021638913-pat00026
≪ / RTI >

수학식 6에서 카메라의 포즈는 단일 이미지를 촬영하는 동안 변경되지 않는다고 가정한다. 따라서 카메라 회전 행렬은 다른 LED와 동일하게 유지된다. 이미지의 모든 LED가 카메라의 다른 위치에 해당하기 때문에, 이러한 LED를 기반으로 카메라의 단일 위치를 찾는 것이 정확한 결과로 이어지지 않는다. 차량이 더 빨리 움직일 때, 수학식 6의 변환 벡터

Figure 112018021638913-pat00027
사이의 차이는 더 커지고, 그에 따른 포지셔닝 오류를 발생시킨다.It is assumed that the pose of the camera in Equation (6) does not change during the shooting of a single image. Therefore, the camera rotation matrix remains the same as the other LEDs. Since all of the LEDs in the image correspond to different locations in the camera, finding a single location of the camera based on these LEDs does not lead to accurate results. When the vehicle moves faster, the conversion vector of equation (6)
Figure 112018021638913-pat00027
The greater the difference between the two, resulting in a positioning error.

도 6은 일 실시예에 따른 카메라 변위와 LED 변위 사이의 관계를 나타낸 도면이다.Figure 6 is a diagram illustrating the relationship between camera displacement and LED displacement in accordance with one embodiment.

앞에서 설명한 두 가지 유형의 위치 추정 알고리즘 중 관성 센서를 사용하는 방법은 카메라에서 LED까지의 거리가 비교적 짧은 실내 환경에서 사용하는 것이 더 적합할 수 있다. 실시예들에서 고려된 시스템에서 대부분의 관성 센서는 바람직한 위치 정확도를 산출하기에 충분히 정확하지 않을 수 있다. 또한 관성 센서의 오류로 인한 위치 결정 오차는 관리하기 매우 어렵다는 문제점이 있다.Among the two types of position estimation algorithms described above, the inertial sensor method may be more suitable for use in an indoor environment where the distance from the camera to the LED is relatively short. Most inertial sensors in the system considered in the embodiments may not be accurate enough to produce the desired position accuracy. Also, there is a problem that the positioning error due to the error of the inertial sensor is very difficult to manage.

따라서 실시예들에서는 포지셔닝 알고리즘을 사용하여 카메라의 위치를 추정한다. 이를 위해 LED의 동일 선상 배열 및 롤링 셔터 아티팩트가 문제될 수 있다. 실시예들에서는 두 개의 카메라와 융합 알고리즘을 사용하여 첫 번째 문제가 해결 될 수 있으며, 두 번째 문제는 보상 방법을 사용하여 해결될 수 있다. 이 두 가지 문제의 해결책은 아래에서 설명되는 카메라 변위와 LED 변위 사이의 변환을 기반으로 한다.Therefore, in the embodiments, the position of the camera is estimated using the positioning algorithm. For this, collinear arrangement of LEDs and rolling shutter artifacts may be a problem. In the embodiments, the first problem can be solved by using two cameras and the fusion algorithm, and the second problem can be solved by using the compensation method. The solution to these two problems is based on the conversion between the camera displacement and the LED displacement described below.

x와 X는 각각 장면 점의 이미지 좌표와 월드 좌표를 나타낸다. C는 카메라 위치를 나타내고 ΔC는 카메라 위치의 변화, 즉 변위를 나타낸다. 카메라 위치의 변화로 인한 장면 점 X의 이미지 좌표 x에 대한 결과는 수학식 7과 같이 장면 위치의 변화와 동일(equivalent)하다.x and X denote the image coordinates and world coordinates of the scene point, respectively. C represents the camera position, and [Delta] C represents the change in the camera position, i.e., the displacement. The result for the image coordinate x of the scene point X due to the change of the camera position is equivalent to the change of the scene position as shown in Equation (7).

Figure 112018021638913-pat00028
Figure 112018021638913-pat00028

도 6을 참조하면, 처음에는 카메라가 카메라 위치로 간주되는 위치 C에 머물러 있고, 그런 다음 카메라는 위치 C + ΔC로 이동하여 X에 위치한 LED의 이미지를 촬영한다. 수학식 7에 따르면 C + ΔC에서 촬영된 이미지는 위치 X에 배치된 LED의 이미지와 동일하다. 두 이미지 내 두 LED 들의 좌표들을

Figure 112018021638913-pat00029
,
Figure 112018021638913-pat00030
로 나타내면 수학식 8을 얻을 수 있다.Referring to FIG. 6, initially the camera remains at position C, which is considered to be the camera position, and then the camera moves to position C + DELTA C to take an image of the LED located at X. According to Equation (7), the image taken at C +? C is the same as the image of the LED placed at position X. The coordinates of the two LEDs in the two images
Figure 112018021638913-pat00029
,
Figure 112018021638913-pat00030
The equation (8) can be obtained.

Figure 112018021638913-pat00031
Figure 112018021638913-pat00031

수학식 8에서

Figure 112018021638913-pat00032
Figure 112018021638913-pat00033
는 두 임의의 스케일을 나타낸다. 수학식 7에 따르면
Figure 112018021638913-pat00034
이다. 따라서 두 개의 촬영된 이미지에서 두 LED의 이미지 좌표는 동일하다.In Equation (8)
Figure 112018021638913-pat00032
And
Figure 112018021638913-pat00033
Represents two arbitrary scales. According to equation (7)
Figure 112018021638913-pat00034
to be. Therefore, the image coordinates of the two LEDs in the two captured images are the same.

아래에서 설명될 것처럼, 동일 선상의 LED 배열과 롤링 셔터 아티팩트의 두 가지 문제에 대한 솔루션은 모두 서로 다른 위치에 배치된 카메라로 촬영한 여러 개의 LED 이미지와 관련된다. 이러한 LED 이미지로 공식화된 방정식들은 카메라의 여러 위치들에 대응하여 구성되며, 문제는 카메라 변위의 관점에서는 이러한 방정식 세트를 해결할 수 없다는 것이다.As described below, solutions to two problems of collinear LED arrays and rolling shutter artifacts all relate to multiple LED images taken with cameras placed at different locations. The equations formulated with these LED images are constructed corresponding to various positions of the camera, and the problem is that they can not solve this set of equations in terms of camera displacement.

수학식 7을 이용하면 카메라 변위를 LED 변위로 변환할 수 있다. 그러면 서로 다른 위치의 카메라에서 촬영된 동일한 LED에 대한 서로 다른 이미지들은 고정된 위치의 카메라에서 촬영된 다른 위치에 배치된 별개 LED의 이미지로 간주될 수 있다. 이 경우, 카메라 위치의 차이를 알게되면 가상 LED의 위치를 알 수 있다. 따라서, 풀 수 있는 방정식의 세트가 결정될 수 있다.Equation 7 can be used to transform the camera displacement into an LED displacement. Different images for the same LED taken at cameras at different positions can then be considered as images of separate LEDs placed at different positions photographed at the camera at the fixed location. In this case, when the difference of the camera position is known, the position of the virtual LED can be known. Thus, a set of solvable equations can be determined.

도 7은 일 실시예에 따라 촬영 이미지를 병합하여 방정식을 구성하는 과정을 나타낸 동작 흐름도이다.FIG. 7 is an operational flowchart illustrating a process of constructing an equation by merging photographed images according to an embodiment.

도 7을 참조하면, 단계(710)에서 위치 추정부는 복수의 카메라에서 촬영된 이미지를 병합하여 방정식을 구성한다. 아래에서는, 복수의 카메라가 제1 카메라 및 제2 카메라를 포함하는 실시예를 설명한다.Referring to FIG. 7, in step 710, the position estimator constructs an equation by merging images photographed by a plurality of cameras. In the following, an embodiment in which a plurality of cameras includes a first camera and a second camera will be described.

앞에서 언급했듯이 실시예에서는 관성 센서를 사용하지 않는 위치 추정 알고리즘이 이용된다. 따라서 카메라의 위치를 추정하기 위해 적어도 6 개의 비 동일 선상의 LED 이미지가 촬영되어야 한다. 그러나 많은 경우 가로등은 거리의 양쪽을 따라 직선으로 배치되어 있다. 따라서 거리의 양쪽에서 선택된 세 개 이상의 LED가 보통 동일 선상에 있게 된다. 즉 거리의 양쪽에 최대 4 개의 비 동일 선상의 LED가 있게 되고, 이에 따라 종전의 알고리즘을 통해서는 카메라 위치를 추정할 수 없다. 충분한 수의 방정식들이 확보될 수 없기 때문이다.As mentioned above, in the embodiment, a position estimation algorithm that does not use the inertial sensor is used. Therefore, at least six non-collinear LED images should be taken to estimate the position of the camera. However, in many cases streetlights are arranged in a straight line along both sides of the street. Thus, three or more LEDs selected from both sides of the distance are usually collinear. In other words, there are up to four non-collinear LEDs on both sides of the distance, so that the camera position can not be estimated through the conventional algorithm. A sufficient number of equations can not be obtained.

동일 선상의 LED 배열 문제를 해결하려면 카메라의 기하학적 방정식을 공식화하기 위해 6 개 이상의 비 동일 선상 LED 이미지를 얻을 필요가 있다. 이것은 LED의 이미지를 포착하기 위해 서로 다른 위치에 배치 된 두 개의 카메라 및 수학식 7을 통해 가능해질 수 있다. 카메라 변위가 LED 변위로 변환 될 수 있기 때문에 두 카메라에 의해 촬영된 동일한 LED 이미지는 단일 카메라로 촬영된 두 개의 다른 LED 이미지들로 간주 될 수 있다.To solve the collinear LED array problem, it is necessary to obtain more than 6 non-collinear LED images to formulate the geometric equations of the camera. This can be done via two cameras arranged at different positions to capture the image of the LED and by Equation (7). Since the camera displacement can be converted to an LED displacement, the same LED image taken by both cameras can be regarded as two different LED images taken with a single camera.

각 카메라가 두 줄로 배열 된 6 개의 LED 이미지를 촬영한다고 가정한다. 이 때 제 2 카메라에 의해 촬영된 촬영 이미지는 제 1 카메라가 제2 카메라의 위치로 이동한 상태에서 촬영된 이미지인 것으로 간주될 수 있다. 즉 제1 카메라가 원 위치에서 6개의 LED를 포함하는 제1 이미지를 촬영하고, 제2 카메라의 위치에서 6개의 LED를 포함하는 제2 이미지를 촬영한 것이 되는데, 제1 이미지 및 제2 이미지가 단일 이미지로 융합되면 제1 카메라에 의해 12개의 LED를 포함하는 단일 이미지가 촬영된 것이 간주될 수 있다. 융합된 단일 이미지에서 6개의 LED는 비 동일 선상에 있다.It is assumed that each camera shoots six LED images arranged in two lines. At this time, the photographed image photographed by the second camera may be regarded as an image photographed in a state where the first camera moves to the position of the second camera. That is, the first camera photographs a first image including six LEDs at the original position, and the second image captures a second image including six LEDs at a position of the second camera. When a single image is fused, it can be considered that a single image including 12 LEDs is taken by the first camera. In the fused single image, the six LEDs are in a non-collinear fashion.

이에 따라 2 개의 이미지로부터 공식화 된 2 개의 방정식 세트는 융합될 수 있고, 각각의 방정식 세트는 수학식 1과 같은 방정식을 6 개씩 포함한다. 원래 이 두 방정식 세트의 카메라 위치는 다르지만, 융합된 방정식 세트에는 단일 카메라 위치에 관한 12 개의 LED가 있으며 그 중 6 개는 비 동일 선상에 있게 된다. 12개의 LED 중에 비 동일 선상에 위치하는 6 개의 LED에 대응하는 방정식을 선택하여 카메라 위치를 계산할 수 있다.Thus, two sets of equations formulated from two images can be fused, and each set of equations includes six equations, such as Equation (1). Originally, these two sets of equations have different camera positions, but in the fused equation set there are 12 LEDs for a single camera position, six of which are on the same line. The camera position can be calculated by selecting an equation corresponding to six LEDs positioned on non-collinear lines among 12 LEDs.

C를 제1 카메라의 월드 좌표로 두고, C + ΔC를 제2 카메라의 월드 좌표로 두고,

Figure 112018021638913-pat00035
를 i번째 LED의 월드 좌표로 두고,
Figure 112018021638913-pat00036
Figure 112018021638913-pat00037
를 각각 제1 카메라 및 제2 카메라에 의해 촬영된 두 이미지 상 i번째 LED의 이미지 좌표로 둔다. ΔC는 두 카메라 사이의 카메라 간격으로 이해될 수 있다. 이에 따라 수학식 9를 도출할 수 있다.Let C be the world coordinate of the first camera, C + C be the world coordinate of the second camera,
Figure 112018021638913-pat00035
Is set as the world coordinate of the i-th LED,
Figure 112018021638913-pat00036
And
Figure 112018021638913-pat00037
Are placed at the image coordinates of the i-th LED on the two images taken by the first camera and the second camera, respectively. ΔC can be understood as a camera interval between two cameras. Accordingly, equation (9) can be derived.

Figure 112018021638913-pat00038
Figure 112018021638913-pat00038

수학식 9에 수학식 7을 적용하여 수학식 10을 얻을 수 있다.Equation (10) can be obtained by applying Equation (7) to Equation (9).

Figure 112018021638913-pat00039
Figure 112018021638913-pat00039

Figure 112018021638913-pat00040
라 하면, N개의 LED에 대해, 수학식 10과 유사한 2N개의 방정식이 도출될 수 있다. DLT를 적용하여 2N개의 방정식이 수학식 11과 같이 도출될 수 있다.
Figure 112018021638913-pat00040
2N equations similar to Equation 10 can be derived for N LEDs. 2N equations can be derived as Equation (11) by applying DLT.

Figure 112018021638913-pat00041
Figure 112018021638913-pat00041

여기서

Figure 112018021638913-pat00042
는 j번째 카메라의 i번째 LED의 이미지 좌표이다. SVD를 통해 카메라의 세계 좌표, 즉 카메라의 위치를 추정할 수 있다.here
Figure 112018021638913-pat00042
Is the image coordinate of the i-th LED of the j-th camera. SVD can be used to estimate the world coordinates of the camera, that is, the position of the camera.

도 8은 일 실시예에 따라 롤링 셔터 아티팩트를 보상하여 방정식을 구성하는 과정을 나타낸 동작 흐름도이다.8 is an operational flow diagram illustrating a process for constructing an equation by compensating for rolling shutter artifacts according to an embodiment.

도 8을 참조하면, 단계(810)에서 위치 추정부는 롤링 셔터 아티팩트를 보상하여 방정식을 구성한다. 롤링 셔터 아티팩트를 계산하기 위해 수학식 6에 기초하여 수학식 12를 도출할 수 있다.Referring to FIG. 8, in step 810, the position estimator compares the rolling shutter artifacts to form an equation. To calculate the rolling shutter artifact, we can derive equation (12) based on equation (6).

Figure 112018021638913-pat00043
Figure 112018021638913-pat00043

여기서

Figure 112018021638913-pat00044
는 i번째 LED가 촬영된 시점의 카메라의 세계 좌표이다.here
Figure 112018021638913-pat00044
Is the world coordinate of the camera when the i-th LED is photographed.

수학식 12는 방정식의 수보다 더 많은 미지수가 있기 때문에 그 솔루션을 찾을 수 없는 상태이다. 그러나, 카메라 세계 좌표 C의 차이, 즉 ΔC를 알고 있다면 수학식 7을 이용하여 카메라 변위가 LED 변위로 변환 될 수 있고, 이에 따라 수학식 12의 솔루션을 찾을 수 있게 된다.Equation (12) states that the solution can not be found because there are more unknowns than the number of equations. However, if the difference of the camera world coordinate C, i.e.,? C, is known, the camera displacement can be converted to the LED displacement using equation (7), and thus the solution of equation (12) can be found.

보다 구체적으로, C가 현재 프레임의 노출 초기에 카메라 위치이고,

Figure 112018021638913-pat00045
, i = 1, 2, 3 ...이 i번째 LED를 캡처하는 동안 C와 카메라 위치 사이의 차이라고 둘 수 있다 수학식 12에
Figure 112018021638913-pat00046
를 대입하여 수학식 13을 얻을 수 있다.More specifically, C is the camera position at the beginning of exposure of the current frame,
Figure 112018021638913-pat00045
, i = 1, 2, 3 ... can be said to be the difference between C and the camera position while capturing the i-th LED.
Figure 112018021638913-pat00046
(13) can be obtained.

Figure 112018021638913-pat00047
Figure 112018021638913-pat00047

롤링 셔터 아티팩트를 보상하기 위해, 카메라 위치들 사이의 차이인

Figure 112018021638913-pat00048
가 먼저 결정될 필요가 있다.
Figure 112018021638913-pat00049
는 차량의 속도 및 센서의 판독 시간에 기초하여 결정될 수 있다.
Figure 112018021638913-pat00050
을 센서의 행 판독 시간으로 두고,
Figure 112018021638913-pat00051
를 i번째 LED가 센서에 나타나는 행으로 두면, i번째 LED에 대응하는 경과 시간
Figure 112018021638913-pat00052
은 수학식 14와 같이 나타낼 수 있다.To compensate for the rolling shutter artifact, the difference between the camera positions
Figure 112018021638913-pat00048
Needs to be determined first.
Figure 112018021638913-pat00049
May be determined based on the speed of the vehicle and the read time of the sensor.
Figure 112018021638913-pat00050
As the row read time of the sensor,
Figure 112018021638913-pat00051
Is set to the row in which the i-th LED appears in the sensor, the elapsed time corresponding to the i-th LED
Figure 112018021638913-pat00052
Can be expressed by Equation (14).

Figure 112018021638913-pat00053
Figure 112018021638913-pat00053

차량의 속도가

Figure 112018021638913-pat00054
라고 하면, 차이
Figure 112018021638913-pat00055
는 수학식 15와 같이 나타낼 수 있다.The speed of the vehicle
Figure 112018021638913-pat00054
In other words,
Figure 112018021638913-pat00055
Can be expressed by Equation (15).

Figure 112018021638913-pat00056
Figure 112018021638913-pat00056

수학식 13에 수학식 15를 적용하여 수학식 16을 얻을 수 있다.Equation (16) can be obtained by applying Equation (15) to Equation (13).

Figure 112018021638913-pat00057
Figure 112018021638913-pat00057

수학식 16에서

Figure 112018021638913-pat00058
이다.In equation (16)
Figure 112018021638913-pat00058
to be.

수학식 16은 롤링 셔터 보정을 위한 기본 방정식이 될 수 있다. 실제 솔루션을 계산하기 위해 수학식 16은 수학식 17과 같이 변형될 수 있다.Equation (16) can be a basic equation for rolling shutter correction. To calculate the real solution, equation (16) can be modified as shown in equation (17).

Figure 112018021638913-pat00059
Figure 112018021638913-pat00059

수학식 17에 SVD를 적용하여 카메라의 위치가 추정될 수 있다.The position of the camera can be estimated by applying SVD to Equation (17).

도 9는 일 실시예에 따른 카메라 변위에 따른 위치 추정 과정을 나타낸 도면이다.9 is a diagram illustrating a position estimation process according to a camera displacement according to an embodiment.

도 9를 참조하면, 차량의 이동에 따라 카메라의 위치는 t = t0에서 C, t = t1에서 C + ΔC1, t = t2에서 C + ΔC2로 변화한다. 차량의 이동에 따른 카메라의 변위 값은 t = t1에서 ΔC1이고, t = t2에서 ΔC2이다. 위치 추정부는 가로등을 촬영할 때 차량의 이동에 따른 카메라의 변위 값을 기록할 수 있다. LED의 이미지 좌표 x, 가로등의 월드 좌표를 X, 카메라의 고유 파라미터를 K, 회전 행렬을 R, 카메라의 위치를 C, 차량의 이동에 따른 카메라의 변위를 ΔC라고 하면, 수학식 18에 따른 방정식을 구성할 수 있다.Referring to FIG. 9, the position of the camera changes from C = t0 to C + tC1, from t = t1 to C +? C1, and from t = t2 to C +? C2. The displacement value of the camera as the vehicle moves is ΔC1 at t = t1 and ΔC2 at t = t2. The position estimating unit may record the displacement value of the camera according to the movement of the vehicle when the streetlight is photographed. Let X be the image coordinate x of the LED, X be the world coordinate of the street lamp, K be the intrinsic parameter of the camera, R be the rotation matrix, C be the position of the camera, and? C be the displacement of the camera as the vehicle moves. . ≪ / RTI >

Figure 112018021638913-pat00060
Figure 112018021638913-pat00060

그러나 수학식 18에는 ΔC가 C에 반영되어 있어서, 수학식 18을 이용할 경우 C에 관해 풀 수 있는 방정식의 세트를 구성할 수 없다. 실시예에 따르면 ΔC를 X에 반영하여 C에 관한 솔루션을 구할 수 있는 방정식 세트를 구성한다.However, since? C is reflected in C in Equation (18), it is impossible to construct a set of equations that can be solved with respect to C when Equation (18) is used. According to the embodiment, a set of equations is constructed to obtain a solution for C by reflecting ΔC to X.

도 10은 일 실시예에 따른 LED 변위에 따른 위치 추정 과정을 나타낸 도면이다.10 is a diagram illustrating a position estimation process according to an LED displacement according to an embodiment.

도 10을 참조하면, 차량의 이동에 따른 카메라의 변위는 LED의 변위로 치환된다. 예를 들어, 도 9에서 카메라의 위치는 t = t0에서 C, t = t1에서 C + ΔC1, t = t2에서 C + ΔC2로 변화한다. 이는 도 10에서 LED의 위치가 t = t0에서 X, t = t1에서 X - ΔC1, t = t2에서 X - ΔC2로 변화하는 것으로 치환된다. 차량의 이동에 따른 카메라의 변위 값은 도 7에서와 마찬가지로 t = t1에서 ΔC1이고, t = t2에서 ΔC2이다.Referring to FIG. 10, the displacement of the camera as the vehicle moves is substituted by the displacement of the LED. For example, the position of the camera in FIG. 9 changes from C = t0 to C, t = t1 to C +? C1, and t = t2 to C +? C2. This is replaced with a change in the position of the LED in FIG. 10 from X -? C1 at t = t0 to X -? C2 at t = t1. The displacement value of the camera as the vehicle moves is ΔC1 at t = t1 and ΔC2 at t = t2, as in FIG.

이와 같이 위치 추정 장치는 차량의 이동에 따른 카메라의 변위 값을 LED의 월드 좌표들 중 적어도 일부에 반영할 수 있다. LED의 이미지 좌표 x, 가로등의 월드 좌표를 X, 카메라의 고유 파라미터를 K, 회전 행렬을 R, 카메라의 위치를 C, 차량의 이동에 따른 카메라의 변위를 ΔC라고 하면, 수학식 19에 따른 방정식을 구성할 수 있다.Thus, the position estimating apparatus can reflect the displacement value of the camera according to the movement of the vehicle in at least a part of the world coordinates of the LED. Let X be the image coordinate x of the LED, X be the world coordinate of the street lamp, K be the intrinsic parameter of the camera, R be the rotation matrix, C be the position of the camera and? C be the displacement of the camera as the vehicle moves. . ≪ / RTI >

Figure 112018021638913-pat00061
Figure 112018021638913-pat00061

수학식 19에서 ΔC가 X에 반영되므로, 수학식 19를 이용하여 C에 관해 풀 수 있는 방정식의 세트를 구성할 수 있다.Since? C is reflected in X in equation (19), equation (19) can be used to construct a set of equations that can be solved with respect to C.

예를 들어, 촬영 이미지에 제1 가로등 내지 제n 가로등이 포함된 경우, 위치 추정 장치는 제1 가로등 내 제1 LED가 촬영된 순간에 차량의 이동에 따른 카메라의 제1 변위 값을 결정하고, 제1 변위 값을 제1 가로등에 대응하는 제1 월드 좌표에 반영할 수 있다. 위치 추정 장치는 제1 LED에 대응하는 이미지 좌표, 제1 변위 값이 반영된 제1 월드 좌표, 카메라의 고유 파라미터에 기초하여 제1 가로등에 관한 제1 방정식을 결정할 수 있다. 위치 추정 장치는 나머지 제2 가로등 내지 제n 가로등에 관해서도 이러한 방식으로 제2 방정식 내지 제n 방정식을 결정할 수 있으며, 이에 따라 구성된 방정식 세트의 솔루션을 구해서 차량의 위치를 추정할 수 있다.For example, when the photographed image includes the first to nth streetlights, the position estimation device determines a first displacement value of the camera according to the movement of the vehicle at the moment the first LED in the first streetlight is photographed, The first displacement value may be reflected in the first world coordinate corresponding to the first streetlight. The position estimating device may determine a first equation relating to the first streetlight based on image coordinates corresponding to the first LED, first world coordinates reflecting the first displacement value, and intrinsic parameters of the camera. The position estimating device can determine the second to nth equations in this manner also for the remaining second street lamps to the nth street lamps, thereby obtaining a solution of the equation set and estimating the position of the vehicle.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(Arithmetic Logic Unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(Field Programmable Gate Array), PLU(Programmable Logic Unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented as a computer-readable recording medium, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA) , A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (10)

가시광 통신을 이용하여 차량의 위치를 추정하는 방법에 있어서,
차량이 이동하는 동안 가로등들을 촬영하여 상기 가로등들 내 LED들을 포함하는 촬영 이미지를 획득하는 단계;
상기 촬영 이미지에 기초하여 상기 가로등들의 가시광 신호들 및 상기 LED들에 대응하는 이미지 좌표들을 획득하는 단계;
상기 가시광 신호들에 기초하여 상기 가로등들의 식별 코드들을 결정하는 단계;
상기 가로등들의 식별 코드들 및 상기 가로등들의 월드 좌표들이 서로 매칭되어 저장된 데이터베이스에서, 상기 결정된 식별 코드들에 대응하는 상기 가로등들의 월드 좌표들을 추출하는 단계;
상기 획득된 이미지 좌표들 및 상기 추출된 월드 좌표들 사이의 기하학적인 관계에 기초하여 방정식들을 구성하는 단계; 및
상기 구성된 방정식들에 기초하여 상기 차량의 위치를 추정하는 단계
를 포함하고,
상기 방정식들을 구성하는 단계는
상기 촬영 이미지에 나타난 상기 가로등들 중 제1 가로등 내 제1 LED가 촬영된 순간에 상기 차량의 이동에 따른 카메라의 제1 변위 값을 결정하는 단계;
상기 제1 가로등에 대응하는 제1 월드 좌표를 제1 변위 값만큼 조절하는 단계; 및
상기 제1 LED에 대응하는 이미지 좌표, 상기 조절된 상기 제1 월드 좌표, 상기 카메라의 고유 파라미터에 기초하여 상기 방정식들 중 제1 방정식을 결정하는 단계
를 포함하는, 방법.
A method for estimating a position of a vehicle using visible light communication,
Capturing streetlights while the vehicle is moving to obtain a shot image including LEDs in the streetlights;
Obtaining visible light signals of the streetlights based on the sensed image and image coordinates corresponding to the LEDs;
Determining identification codes of the streetlights based on the visible light signals;
Extracting world coordinates of the streetlights corresponding to the determined identification codes in a database in which the identification codes of the streetlights and the world coordinates of the streetlights are matched with each other;
Constructing equations based on the geometric relationships between the obtained image coordinates and the extracted world coordinates; And
Estimating a position of the vehicle based on the equations;
Lt; / RTI >
The steps of constructing the equations
Determining a first displacement value of the camera according to the movement of the vehicle at a moment when the first LED in the first streetlight among the streetlights displayed in the captured image is photographed;
Adjusting a first world coordinate corresponding to the first streetlight by a first displacement value; And
Determining a first one of the equations based on the image coordinates corresponding to the first LED, the adjusted first world coordinate, and the intrinsic parameters of the camera
/ RTI >
삭제delete 제1항에 있어서,
상기 가로등들을 촬영할 때 상기 차량의 이동에 따른 상기 카메라의 변위 값을 기록하는 단계
를 더 포함하는, 방법.
The method according to claim 1,
Recording the displacement value of the camera according to the movement of the vehicle when photographing the streetlights
≪ / RTI >
제1항에 있어서,
상기 방정식들은 하기 수학식에 기초하여 구성되는,
Figure 112019015842802-pat00062

-상기 수학식에서 λ는 스칼라를 나타내고, x는 LED의 이미지 좌표를 나타내고, X는 가로등의 월드 좌표를 나타내고, K는 카메라의 고유 파라미터를 나타내고, R은 회전 행렬을 나타내고, C는 카메라의 위치를 나타내고, ΔC는 차량의 이동에 따른 카메라의 변위를 나타냄-
방법.
The method according to claim 1,
The above equations are based on the following equations:
Figure 112019015842802-pat00062

X represents the world coordinate of the street lamp; K represents the camera's intrinsic parameter; R represents the rotation matrix; C represents the camera position; And ΔC represents the displacement of the camera as the vehicle moves.
Way.
제1항에 있어서,
상기 촬영 이미지는 제1 카메라에 의해 촬영되고, 제2 촬영 이미지가 제2 카메라에 의해 촬영되는 경우, 상기 방정식들을 구성하는 단계는
상기 제1 카메라 및 상기 제2 카메라 사이의 카메라 간격을 상기 제2 촬영 이미지에 나타난 가로등들의 월드 좌표들에 반영하는 단계; 및
상기 촬영 이미지 내 가로등들의 월드 좌표들 및 상기 카메라 간격이 반영된 상기 제2 촬영 이미지 내 제2 가로등들의 월드 좌표들에 기초하여 상기 방정식들을 구성하는 단계
를 포함하는, 방법.
The method according to claim 1,
Wherein when the captured image is captured by a first camera and a second captured image is captured by a second camera,
Reflecting a camera interval between the first camera and the second camera on the world coordinates of the streetlights displayed in the second shot image; And
Constructing the equations based on world coordinates of streetlights in the shot image and world coordinates of second streetlights in the second shot image reflecting the camera interval
/ RTI >
제1항에 있어서,
상기 방정식들을 구성하는 단계는
직접 선형 변환(direct linear transformation, DLT)에 기초하여 상기 방정식들을 구성하는 단계를 포함하는, 방법.
The method according to claim 1,
The steps of constructing the equations
And constructing the equations based on direct linear transformation (DLT).
제1항에 있어서,
상기 차량의 위치를 추정하는 단계는
상기 구성된 방정식들에 SVD(singular value decomposition)을 적용하여 상기 차량의 위치를 추정하는 단계를 포함하는, 방법.
The method according to claim 1,
The step of estimating the position of the vehicle
And applying a singular value decomposition (SVD) to the equations to estimate the position of the vehicle.
가시광 통신을 이용하여 차량의 위치를 추정하는 장치에 있어서,
상기 차량이 이동하는 동안 가로등들을 촬영하여 상기 가로등들 내 LED들을 포함하는 촬영 이미지를 생성하는 촬영부; 및
상기 촬영 이미지에 기초하여 상기 가로등들의 가시광 신호들 및 상기 LED들에 대응하는 이미지 좌표들을 획득하고, 상기 가시광 신호들에 기초하여 상기 가로등들의 식별 코드들을 결정하고, 상기 가로등들의 식별 코드들 및 상기 가로등들의 월드 좌표들이 서로 매칭되어 저장된 데이터베이스에서 상기 결정된 식별 코드들에 대응하는 상기 가로등들의 월드 좌표들을 추출하고, 상기 획득된 이미지 좌표들 및 상기 추출된 월드 좌표들 사이의 기하학적인 관계에 기초하여 방정식들을 구성하는 위치 추정부
를 포함하고,
상기 방정식들을 구성할 때 상기 위치 추정부는
상기 촬영 이미지에 나타난 상기 가로등들 중 제1 가로등 내 제1 LED가 촬영된 순간에 상기 차량의 이동에 따른 카메라의 제1 변위 값을 결정하고, 상기 제1 가로등에 대응하는 제1 월드 좌표를 제1 변위 값만큼 조절하고, 상기 제1 LED에 대응하는 이미지 좌표, 상기 조절된 상기 제1 월드 좌표, 상기 카메라의 고유 파라미터에 기초하여 상기 방정식들 중 제1 방정식을 결정하는, 장치.
An apparatus for estimating a position of a vehicle using visible light communication,
A photographing unit for photographing streetlights while the vehicle is moving to generate a photographing image including LEDs in the streetlights; And
Acquiring visible light signals of the street lamps and image coordinates corresponding to the LEDs based on the sensed image, determining identification codes of the streetlights based on the visible light signals, identifying the identification codes of the streetlights, Extracting world coordinates of the streetlamps corresponding to the determined identification codes in a database in which the world coordinates of the street coordinates of the streetlamps are matched with each other and calculating equations based on the obtained image coordinates and the geometric relationship between the extracted world coordinates The position estimating unit
Lt; / RTI >
When constructing the above equations, the position estimator
Determining a first displacement value of the camera according to the movement of the vehicle at the instant when the first LED in the first streetlight among the streetlights displayed in the captured image is photographed, 1 displacement value, and determines a first one of the equations based on the image coordinates corresponding to the first LED, the adjusted first world coordinate, and the intrinsic parameters of the camera.
삭제delete 제8항에 있어서,
상기 촬영 이미지는 제1 카메라에 의해 촬영되고, 제2 촬영 이미지가 제2 카메라에 의해 촬영되는 경우, 상기 위치 추정부는
상기 제1 카메라 및 상기 제2 카메라 사이의 카메라 간격을 상기 제2 촬영 이미지에 나타난 가로등들의 월드 좌표들에 반영하고, 상기 촬영 이미지 내 가로등들의 월드 좌표들 및 상기 카메라 간격이 반영된 상기 제2 촬영 이미지 내 제2 가로등들의 월드 좌표들에 기초하여 상기 방정식들을 구성하는, 장치.
9. The method of claim 8,
When the shot image is shot by the first camera and the second shot image is shot by the second camera,
Wherein the distance between the first camera and the second camera is reflected in the world coordinates of the streetlights displayed in the second shot image, and the world coordinates of the streetlights in the shot image and the second shot image And constructs the equations based on world coordinates of the second streetlights.
KR1020180025398A 2018-01-12 2018-03-02 Method and apparatus for estimating vehicle position based on visible light communication that considering camera displacement KR101996169B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20180004690 2018-01-12
KR1020180004690 2018-01-12

Publications (1)

Publication Number Publication Date
KR101996169B1 true KR101996169B1 (en) 2019-07-03

Family

ID=67258692

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180025398A KR101996169B1 (en) 2018-01-12 2018-03-02 Method and apparatus for estimating vehicle position based on visible light communication that considering camera displacement

Country Status (1)

Country Link
KR (1) KR101996169B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200057850A (en) * 2018-11-15 2020-05-27 국민대학교산학협력단 The method and apparatus for predicting led color using neural network model in visual-mimo environment
CN114460590A (en) * 2022-04-13 2022-05-10 南昌大学 Third-party object detection and positioning method and system, storage medium and electronic equipment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008190874A (en) * 2007-01-31 2008-08-21 Toshiba Corp Positioning device, positional information supplying device, and positioning system
KR20090013026A (en) * 2007-07-31 2009-02-04 가부시끼가이샤 도시바 Method and apparatus for determining the position of a moving object, by using visible light communication
JP2012185540A (en) * 2011-03-03 2012-09-27 Honda Elesys Co Ltd Image processing device, image processing method, and image processing program
KR20180002609A (en) * 2015-04-10 2018-01-08 로베르트 보쉬 게엠베하 Object position measurement by car camera using vehicle motion data

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008190874A (en) * 2007-01-31 2008-08-21 Toshiba Corp Positioning device, positional information supplying device, and positioning system
KR20090013026A (en) * 2007-07-31 2009-02-04 가부시끼가이샤 도시바 Method and apparatus for determining the position of a moving object, by using visible light communication
JP2012185540A (en) * 2011-03-03 2012-09-27 Honda Elesys Co Ltd Image processing device, image processing method, and image processing program
KR20180002609A (en) * 2015-04-10 2018-01-08 로베르트 보쉬 게엠베하 Object position measurement by car camera using vehicle motion data

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
논문2 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200057850A (en) * 2018-11-15 2020-05-27 국민대학교산학협력단 The method and apparatus for predicting led color using neural network model in visual-mimo environment
KR102146665B1 (en) 2018-11-15 2020-08-24 국민대학교산학협력단 The method and apparatus for predicting led color using neural network model in visual-mimo environment
CN114460590A (en) * 2022-04-13 2022-05-10 南昌大学 Third-party object detection and positioning method and system, storage medium and electronic equipment

Similar Documents

Publication Publication Date Title
US11131752B2 (en) Vehicle navigation system using pose estimation based on point cloud
CN108020827B (en) Mobile imaging platform calibration
US10909395B2 (en) Object detection apparatus
CN112785702A (en) SLAM method based on tight coupling of 2D laser radar and binocular camera
CN107357286A (en) Vision positioning guider and its method
JP6782903B2 (en) Self-motion estimation system, control method and program of self-motion estimation system
US8144974B2 (en) Image processing apparatus, method, and program
CN108692701B (en) Mobile robot multi-sensor fusion positioning method based on particle filter
US20080267453A1 (en) Method for estimating the pose of a ptz camera
KR101996169B1 (en) Method and apparatus for estimating vehicle position based on visible light communication that considering camera displacement
CN108090935B (en) Hybrid camera system and time calibration method and device thereof
JP6699567B2 (en) Imaging device
Zingoni et al. Real-time 3D reconstruction from images taken from an UAV
KR101996168B1 (en) Method and apparatus for estimating vehicle position based on visible light communication that considering rolling shutter compensation of cmos sensor
JP2007278871A (en) Apparatus for computing amount of movement
KR101990734B1 (en) Vehicle positioning system by fusing images from multi camera
KR20170088202A (en) Method for evaluation of fusion feasibility on multi-sensor satellite images and Apparatus Thereof
KR102019990B1 (en) Method and apparatus for estimating vehicle position based on visible light communication that considering motion blur compensation
CN112985388B (en) Combined navigation method and system based on large-displacement optical flow method
Carmichael et al. Dataset and Benchmark: Novel Sensors for Autonomous Vehicle Perception
KR20190042472A (en) Method and apparatus for estimating plenoptic camera array depth images with neural network
Chendeb et al. Calibration of a moving zoom-lens camera for augmented reality applications
WO2024083010A1 (en) Visual localization method and related apparatus
JP7242822B2 (en) Estimation system and car
Musa Multi-view traffic sign localization with high absolute accuracy in real-time at the edge

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant