KR102368262B1 - Method for estimating traffic light arrangement information using multiple observation information - Google Patents

Method for estimating traffic light arrangement information using multiple observation information Download PDF

Info

Publication number
KR102368262B1
KR102368262B1 KR1020210071685A KR20210071685A KR102368262B1 KR 102368262 B1 KR102368262 B1 KR 102368262B1 KR 1020210071685 A KR1020210071685 A KR 1020210071685A KR 20210071685 A KR20210071685 A KR 20210071685A KR 102368262 B1 KR102368262 B1 KR 102368262B1
Authority
KR
South Korea
Prior art keywords
observation
traffic light
observation data
data
information
Prior art date
Application number
KR1020210071685A
Other languages
Korean (ko)
Inventor
김진혁
Original Assignee
(주)에이아이매틱스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)에이아이매틱스 filed Critical (주)에이아이매틱스
Priority to KR1020210071685A priority Critical patent/KR102368262B1/en
Application granted granted Critical
Publication of KR102368262B1 publication Critical patent/KR102368262B1/en
Priority to PCT/KR2022/006636 priority patent/WO2022255678A1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/30Transportation; Communications
    • G06Q50/40
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/095Traffic lights

Abstract

The present invention relates to a method for estimating traffic light arrangement information using multi-observation information, comprising: a step of collecting observation data on a fixed object near a road in a driving process of each of a plurality of vehicles; a step of classifying the observation data in accordance with classification hierarchies defined for each fixed object; a step of clustering the observation data based on a position in the same classification hierarchy; a step of successively sorting the observation data in accordance with the observation conditions and the observation characteristics; a step of applying a numerical analysis model to the observation data and analyzing the observation data; a step of verifying observation reliability based on the analysis results; a step of determining an object position for one or more fixed objects when the observation reliability passes the verification; a step of estimating the type of the relevant traffic lights and the number of lamps based on the observation data when the fixed object falls under a traffic light; a step of detecting the situation of being turned on of each lamp of the relevant traffic light in the observation data and matching the situation of being turned on with each lamp; and a step of determining the lamp configuration and arrangement of the relevant traffic light when the matching has succeeded. The present invention aims to provide the method for estimating traffic light arrangement information using multi-observation information through statistical data processing techniques by collecting a large number of observation results from general image storage devices for vehicles.

Description

다중 관측정보를 이용한 신호등 배치정보 추정 방법{METHOD FOR ESTIMATING TRAFFIC LIGHT ARRANGEMENT INFORMATION USING MULTIPLE OBSERVATION INFORMATION}Method for estimating traffic light arrangement information using multiple observation information

본 발명은 영상 분석 기반의 객체 식별 기술에 관한 것으로, 보다 상세하게는 일반적인 차량용 영상저장장치로부터 다수의 관측 결과를 수집하여 통계적 데이터 처리 기법을 통해 신호등에 관한 배치정보를 추정하는 다중 관측정보를 이용한 신호등 배치정보 추정 방법에 관한 것이다.The present invention relates to image analysis-based object identification technology, and more particularly, using multiple observation information for estimating arrangement information about traffic lights through statistical data processing techniques by collecting a plurality of observation results from a general vehicle image storage device. It relates to a method for estimating traffic light arrangement information.

도로의 고정시설물, 특히 안전운전의 가이드 역할을 하는 교통표지판과 신호등은, 운전자가 육안으로 보면서 도로에 대한 정보를 인지하고 이에 따라 안전하게 운전할 수 있도록 하는 중요한 교통 인프라이다.Fixed facilities on roads, especially traffic signs and traffic lights that serve as guides for safe driving, are important transportation infrastructures that allow drivers to recognize road information and drive safely accordingly.

한편, ADAS(advanced driver assist system) 또는 자율성의 발전 정도에 따라 통상 5단계로 구분되는 자율주행 기술이 점차 적용됨에 따라, 자율주행차량이 판단하는 도로 정보의 정확도가 중요해졌다. 가령, 어느 구간의 제한속도가 60km/h에서 50 km/h로 갑자기 변경되는데, ADAS/자율주행 시스템이 저장되어 있는 구간 정보에만 의존한다면 교통법규를 위반하게 된다. 실제로 개발되고 있는 다수의 자율주행자동차가 Lidar를 이용하여 획득한 차량 주변의 기하학적 정보와 고정밀 지도에 의존하고 있으므로 이런 현상이 발생할 위험이 있다.On the other hand, as autonomous driving technology, which is usually divided into five stages according to the advanced driver assist system (ADAS) or the degree of development of autonomy, is gradually applied, the accuracy of road information judged by autonomous vehicles has become more important. For example, if the speed limit of a section is suddenly changed from 60 km/h to 50 km/h, and the ADAS/autonomous driving system only depends on the stored section information, it will violate traffic laws. There is a risk of this happening because many autonomous vehicles being developed actually rely on high-precision maps and geometric information around the vehicle acquired using Lidar.

고정밀 지도가 아닌 종래의 내비게이션 시스템용 지도의 경우, 지도 정보를 유지, 관리하기 위하여 고정밀 GPS, Lidar와 고해상도 카메라 및 대용량 저장장치를 갖춘 전용차량을 운용하고 있는데, 고가의 장비가 필요하므로 차량의 수가 많지 않기 때문에 한 지점에 대한 도로 정보의 업데이트 주기가 길다는 단점이 있다. 통상적인 업데이트 주기는 1년 이상이 소요되므로, 만약 업데이트 직후 시설물 변경이 있었다면, 1년 이상 잘못된 정보가 남아 있게 된다.In the case of a map for a conventional navigation system, not a high-precision map, a dedicated vehicle equipped with high-precision GPS, lidar, high-resolution camera, and mass storage is operated to maintain and manage map information. Since there are not many, there is a disadvantage that the update cycle of road information for one point is long. Since the normal update cycle takes more than one year, if there is a facility change immediately after the update, incorrect information remains for more than one year.

객체가 도로면에 있다면, 도로면은 2차원 평면이므로, 역시 2차원 평면인 카메라에서 촬영된 이미지와 1:1 매칭되며 획득된 하나의 카메라 이미지에서 위치 특정이 가능하지만, 공중에 있어 3차원 좌표(X, Y, Z)를 결정해야 하는 표지판과 신호등의 경우 한 이미지만으로 특정이 불가능하다.If the object is on the road surface, the road surface is a two-dimensional plane, so it matches 1:1 with the image taken by the camera, which is also a two-dimensional plane, and location specification is possible from one camera image obtained, but three-dimensional coordinates in the air In the case of signs and traffic lights that need to determine (X, Y, Z), it is impossible to specify only one image.

한국공개특허 제10-2017-0058640호 (2017.06.29)Korea Patent Publication No. 10-2017-0058640 (2017.06.29)

본 발명의 일 실시예는 일반적인 차량용 영상저장장치로부터 다수의 관측 결과를 수집하여 통계적 데이터 처리 기법을 통해 신호등에 관한 배치정보를 추정하는 다중 관측정보를 이용한 고정객체의 위치 결정 방법을 제공하고자 한다.An embodiment of the present invention is to provide a method for determining the position of a fixed object using multiple observation information for estimating arrangement information about a traffic light through a statistical data processing technique by collecting a plurality of observation results from a general vehicle image storage device.

실시예들 중에서, 다중 관측정보를 이용한 신호등 배치정보 추정 방법은 복수의 차량들 각각의 주행 과정에서 도로 인근의 고정객체에 관한 관측 데이터를 수집하는 단계; 상기 관측 데이터를 상기 고정객체 별로 정의된 분류계층에 따라 분류하는 단계; 상기 관측 데이터를 동일 분류계층 내에서 위치를 기준으로 클러스터링 하는 단계; 상기 관측 데이터를 관측 조건과 관측 특성에 따라 순차적으로 선별하는 단계; 상기 관측 데이터에 수치해석 모델을 적용하여 분석하는 단계; 상기 분석의 결과를 기초로 관측 신뢰도를 검증하는 단계; 상기 검증에 통과하면 상기 적어도 하나의 고정객체에 관한 객체 위치를 결정하는 단계; 고정객체가 신호등에 해당하는 경우 상기 관측 데이터를 기초로 해당 신호등의 유형 및 램프 개수를 추정하는 단계; 상기 관측 데이터에서 상기 해당 신호등의 램프 별로 점등 상황을 검출하여 매칭하는 단계; 및 상기 매칭에 성공한 경우 상기 해당 신호등의 램프 구성과 배치를 결정하는 단계;를 포함한다.Among the embodiments, a method for estimating traffic light arrangement information using multiple observation information includes: collecting observation data about a fixed object near a road in the driving process of each of a plurality of vehicles; classifying the observation data according to a classification layer defined for each fixed object; clustering the observation data based on a location within the same classification layer; sequentially selecting the observation data according to observation conditions and observation characteristics; analyzing the observation data by applying a numerical analysis model; verifying observation reliability based on a result of the analysis; determining an object position with respect to the at least one fixed object if the verification is passed; estimating the type of the corresponding traffic light and the number of lamps based on the observation data when the fixed object corresponds to a traffic light; detecting and matching the lighting conditions for each lamp of the corresponding traffic light from the observation data; and determining a lamp configuration and arrangement of the corresponding traffic light when the matching is successful.

상기 수집하는 단계는 상기 복수의 차량들 각각에 설치되는 적어도 하나의 카메라를 통해 해당 차량의 전방 영상을 촬영하는 단계; 상기 전방 영상으로부터 상기 고정객체를 포함하는 적어도 하나의 이미지를 추출하는 단계; 및 상기 적어도 하나의 이미지, 해당 이미지에 부여되는 관측번호, 상기 해당 차량의 위치와 주행방향 및 시간을 포함하는 관측 데이터를 상기 복수의 차량들로부터 수신하는 단계를 포함할 수 있다.The collecting may include: photographing a front image of the vehicle through at least one camera installed in each of the plurality of vehicles; extracting at least one image including the fixed object from the front image; and receiving observation data including the at least one image, an observation number assigned to the image, and the location, driving direction, and time of the corresponding vehicle from the plurality of vehicles.

상기 선별하는 단계는 상기 분류계층에 대한 일치도가 임계값 이하인 경우, 해당 관측 시점이 특정 시간 범위에 해당하는 경우 및 상기 해당 관측 시점의 날씨가 특정 조건을 충족하는 경우 중 적어도 하나의 관측 조건에 해당하면 상기 관측 데이터에서 제거하는 단계; 상기 관측 데이터에 대해 관측지점 간의 거리가 기 설정된 임계거리 미만인 경우를 제거하는 단계; 및 상기 관측 데이터에 대해 방향벡터 간의 각도가 기 설정된 임계각도 미만인 경우를 제거하는 단계를 포함할 수 있다.The selecting corresponds to at least one observation condition among a case in which the degree of conformity to the classification layer is less than or equal to a threshold value, a case in which the corresponding observation time corresponds to a specific time range, and a case in which the weather at the corresponding observation time meets a specific condition. removing it from the observation data; removing a case in which a distance between observation points for the observation data is less than a preset threshold distance; and removing a case in which an angle between direction vectors with respect to the observation data is less than a preset critical angle.

상기 분석하는 단계는 상기 고정객체의 위치좌표를 정의하고 상기 위치좌표를 기준으로 방향벡터와의 거리에 관한 벡터식을 생성하는 단계; 상기 벡터식을 상기 위치좌표에 관한 2차식으로 변환하고 상기 2차식을 상기 관측 데이터에 적용하여 상기 위치좌표에 관한 혼합 2차식을 생성하는 단계; 및 상기 혼합 2차식을 기초로 상기 위치좌표를 산출하는 단계를 포함한다.The analyzing may include defining the positional coordinates of the fixed object and generating a vector expression for a distance from a direction vector based on the positional coordinates; converting the vector equation into a quadratic equation relating to the position coordinates and applying the quadratic equation to the observation data to generate a mixed quadratic equation relating to the position coordinates; and calculating the position coordinates based on the mixed quadratic equation.

상기 검증하는 단계는 상기 관측 데이터에서 상기 산출된 위치좌표까지의 거리가 검증기준을 초과하는 아웃라이어(outlier)를 검출하여 제거하는 단계를 포함할 수 있다.The verifying may include detecting and removing outliers in which a distance from the observation data to the calculated location coordinates exceeds a verification criterion.

상기 객체 위치를 결정하는 단계는 상기 검증에 통과한 관측 데이터가 소정의 개수만큼 누적된 경우 상기 객체 위치로서 확정하는 단계를 포함할 수 있다.The determining of the object position may include determining the object position as the object position when a predetermined number of observation data passing the verification is accumulated.

상기 추정하는 단계는 상기 관측 데이터로부터 상기 해당 신호등에 관한 관심영역(ROI)를 검출하는 단계; 및 상기 관심영역의 가로 및 세로 간의 비교 및 비율에 따라 상기 유형 및 램프 개수를 각각 결정하는 단계를 포함할 수 있다.The estimating may include: detecting a region of interest (ROI) for the corresponding traffic light from the observation data; and determining the type and the number of lamps, respectively, according to a comparison and a ratio between the width and length of the region of interest.

상기 램프 구성과 배치를 결정하는 단계는 상기 해당 신호등의 모든 램프에 대해 상기 점등 상황의 매칭이 완료된 경우 상기 매칭의 성공을 결정하는 단계를 포함할 수 있다.The determining of the lamp configuration and arrangement may include determining the success of the matching when matching of the lighting conditions for all lamps of the corresponding traffic light is completed.

개시된 기술은 다음의 효과를 가질 수 있다. 다만, 특정 실시예가 다음의 효과를 전부 포함하여야 한다거나 다음의 효과만을 포함하여야 한다는 의미는 아니므로, 개시된 기술의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.The disclosed technology may have the following effects. However, this does not mean that a specific embodiment should include all of the following effects or only the following effects, so the scope of the disclosed technology should not be understood as being limited thereby.

본 발명의 일 실시예에 따른 다중 관측정보를 이용한 고정객체의 위치 결정 방법은 일반적인 차량용 영상저장장치로부터 다수의 관측 결과를 수집하여 통계적 데이터 처리 기법을 통해 신호등에 관한 배치정보를 추정할 수 있다.The method for determining the location of a fixed object using multiple observation information according to an embodiment of the present invention may collect a plurality of observation results from a general vehicle image storage device and estimate arrangement information regarding a traffic light through a statistical data processing technique.

도 1은 본 발명에 따른 배치 추정 시스템을 설명하는 도면이다.
도 2는 도 1의 배치 추정 장치의 기능적 구성을 설명하는 도면이다.
도 3은 본 발명에 따른 다중 관측정보를 이용한 신호등 배치정보 추정 방법을 설명하는 순서도이다.
4 내지 6은 도로 인근의 시설물에 대한 카메라 관측 범위를 설명하는 도면이다.
도 7은 도로 인근 및 도로 위의 시설물에 대한 카메라 관측 범위를 설명하는 도면이다.
도 8 내지 10은 본 발명에 따른 다중 관측을 통한 도로시설물 측위 방법을 설명하는 도면이다.
도 11은 본 발명에 따른 관측 데이터의 전처리 동작을 설명하는 도면이다.
도 12 및 13은 본 발명에 따른 좌표계 변환 과정을 설명하는 도면이다.
도 14 및 15는 본 발명에 따른 데이터 선별 과정을 설명하는 도면이다.
도 16은 본 발명에 따른 위치 결정 방법을 설명하는 도면이다.
도 17 및 18은 본 발명에 따른 신호등 위치 결정 및 배치정보 판단 방법을 설명하는 도면이다.
1 is a view for explaining a placement estimation system according to the present invention.
FIG. 2 is a diagram for explaining a functional configuration of the arrangement estimating apparatus of FIG. 1 .
3 is a flowchart illustrating a method for estimating traffic light arrangement information using multiple observation information according to the present invention.
4 to 6 are diagrams for explaining a camera observation range for a facility near a road.
7 is a view for explaining a camera observation range for facilities near and on the road.
8 to 10 are diagrams for explaining a method for positioning a road facility through multiple observations according to the present invention.
11 is a view for explaining a pre-processing operation of observation data according to the present invention.
12 and 13 are diagrams for explaining a coordinate system transformation process according to the present invention.
14 and 15 are diagrams for explaining a data selection process according to the present invention.
16 is a view for explaining a positioning method according to the present invention.
17 and 18 are diagrams for explaining a method of determining a location of a traffic light and determining arrangement information according to the present invention.

본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.Since the description of the present invention is merely an embodiment for structural or functional description, the scope of the present invention should not be construed as being limited by the embodiment described in the text. That is, since the embodiment may have various changes and may have various forms, it should be understood that the scope of the present invention includes equivalents capable of realizing the technical idea. In addition, since the object or effect presented in the present invention does not mean that a specific embodiment should include all of them or only such effects, it should not be understood that the scope of the present invention is limited thereby.

한편, 본 출원에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.On the other hand, the meaning of the terms described in the present application should be understood as follows.

"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.Terms such as “first” and “second” are for distinguishing one component from another, and the scope of rights should not be limited by these terms. For example, a first component may be termed a second component, and similarly, a second component may also be termed a first component.

어떤 구성요소가 다른 구성요소에 "연결되어"있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.When a component is referred to as being “connected to” another component, it may be directly connected to the other component, but it should be understood that other components may exist in between. On the other hand, when it is mentioned that a certain element is "directly connected" to another element, it should be understood that the other element does not exist in the middle. Meanwhile, other expressions describing the relationship between elements, that is, "between" and "between" or "neighboring to" and "directly adjacent to", etc., should be interpreted similarly.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다"또는 "가지다" 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The singular expression is to be understood as including the plural expression unless the context clearly dictates otherwise, and terms such as "comprises" or "have" refer to the embodied feature, number, step, action, component, part or these It is intended to indicate that a combination exists, and it should be understood that it does not preclude the possibility of the existence or addition of one or more other features or numbers, steps, operations, components, parts, or combinations thereof.

각 단계들에 있어 식별부호(예를 들어, a, b, c 등)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.In each step, identification numbers (eg, a, b, c, etc.) are used for convenience of description, and identification numbers do not describe the order of each step, and each step clearly indicates a specific order in context. Unless otherwise specified, it may occur in a different order from the specified order. That is, each step may occur in the same order as specified, may be performed substantially simultaneously, or may be performed in the reverse order.

본 발명은 컴퓨터가 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현될 수 있고, 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The present invention can be embodied as computer-readable codes on a computer-readable recording medium, and the computer-readable recording medium includes all types of recording devices in which data readable by a computer system is stored. . Examples of the computer-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, and the like. In addition, the computer-readable recording medium is distributed in a computer system connected to a network, so that the computer-readable code can be stored and executed in a distributed manner.

여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.All terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs, unless otherwise defined. Terms defined in general used in the dictionary should be interpreted as having the meaning consistent with the context of the related art, and cannot be interpreted as having an ideal or excessively formal meaning unless explicitly defined in the present application.

본 발명에 따라 식별 가능한 대상인 도로시설물 또는 고정객체(object)는, 국가 또는 행정기관의 표준, 자치단체의 조례, 또는 산업계의 기술 표준, 그 외 암묵적인 상호 동의 하에 널리 쓰이는 공통의 형상과 내용을 갖는 물체를 의미하며, 기술적으로는 이와 같은 객체의 영상 데이터를 다수 확보하여, 기계학습(machine learning) 또는 딥러닝(deep learning) 기법을 적용하여, 공통된 특징을 바탕으로 특정한 분류계층(class)을 지정할 수 있는 것을 의미한다.A road facility or fixed object, which is an identifiable object according to the present invention, has a common shape and content widely used under national or administrative standards, local ordinances, industrial technical standards, and other tacit mutual consent. It means an object, and technically, by securing a large number of image data of such an object, machine learning or deep learning techniques are applied to designate a specific classification layer based on common characteristics. means you can

예를 들어, 대한민국의 교통표지판은, 도로교통법 제2조 16호에서 '안전표지'로 규정하고 있으며, 통상 '교통안전표지'로 사용될 수 있다. 안전표지의 종류 및 만드는 방식은 행정자치부령인 도로교통법 시행규칙 별표 6에서 규정하고 있다. 미국은 Federal Highway Administrator에 의해 국가 표준으로 지정되어 있는 The Manual on Uniform Traffic Control Devices, 약자로 MUTCD라는 문서에서 표지판의 형태와 제작 방법을 기술하고 있으며, 각 주별 특수 상황, 가령, 악어(aligator) 횡단 주의, 큰사슴(무스) 횡단 주의 등의 표지판을 추가하여 주별 MUTCD를 배포하고 있다.For example, traffic signs in Korea are defined as 'safety signs' in Article 2, No. 16 of the Road Traffic Act, and can usually be used as 'traffic safety signs'. The types and methods of making safety signs are stipulated in Annex 6 of the Enforcement Rules of the Road Traffic Act, an Ordinance of the Ministry of Government Administration and Home Affairs. In the United States, the form and manufacturing method of signs are described in the document called The Manual on Uniform Traffic Control Devices, abbreviation MUTCD, which is designated as a national standard by the Federal Highway Administrator. We are distributing MUTCDs by state by adding signs such as caution and moose crossing caution.

또한, 교통신호등의 경우, 가로 배치와 세로 배치가 혼합되어 사용되고 있으며, 우리나라의 경우 도로를 가로지르는 지지프레임에는 가로 배치, 도로가의 기둥프레임에는 세로 배치를 사용하는 것이 일반적이다. 미국의 경우 세로 배치의 신호등을 줄에 매달아 늘어뜨리는 경우와 같이 세로 배치의 신호등에 대한 사용 빈도가 높다.In addition, in the case of traffic lights, a horizontal arrangement and a vertical arrangement are mixed and used, and in Korea, it is common to use a horizontal arrangement for a support frame that crosses a road and a vertical arrangement for a pillar frame along the road. In the United States, the frequency of use for vertical traffic lights is high, such as when vertical traffic lights are hung on a line.

하나의 교통신호등 안에 배치된 램프들은 동시에 켜지지 않기 때문에, 중요한 교통신호등의 형태, 즉 램프의 배치를 한 번의 주행에서 정확히 확인하는 것은 어려우며, 다수의 관측이 필수적으로 요구될 수 있다.Since the lamps arranged in one traffic light do not turn on at the same time, it is difficult to accurately confirm the shape of an important traffic light, that is, the arrangement of the lamps in one run, and multiple observations may be essential.

이하, 첨부된 도면들을 참조하여 본 발명에 따른 다중 관측정보를 이용한 신호등 배치정보 추정 방법에 대하여 구체적으로 설명한다.Hereinafter, a method for estimating traffic light arrangement information using multiple observation information according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 배치 추정 시스템을 설명하는 도면이다.1 is a view for explaining a placement estimation system according to the present invention.

도 1을 참조하면, 배치 추정 시스템(100)은 다중 관측정보를 이용한 신호등 배치정보 추정 방법을 수행할 수 있으며, 차량(110), 배치 추정 장치(130) 및 데이터베이스(150)를 포함하여 구현될 수 있다.Referring to FIG. 1 , the arrangement estimation system 100 may perform a traffic light arrangement information estimation method using multiple observation information, and may be implemented including a vehicle 110 , an arrangement estimation device 130 , and a database 150 . can

차량(110)은 모터 또는 엔진에 의해 생산된 동력을 이용하여 승객이나 화물을 운반하는 교통수단으로서 자동차에 해당할 수 있다. 여기에서는, 차량(110)이 기본적으로 도로 위를 주행하는 자동차에 해당함을 전제로 설명하지만, 반드시 이에 한정되지 않고, 오토바이, 자전거, 퍼스널 모빌리티 등 도로 위를 주행할 수 있는 다양한 운송 수단에 해당할 수도 있다. 차량(110)은 배치 추정 장치(130)와 네트워크를 통해 연결될 수 있고, 복수의 차량(110)들은 배치 추정 장치(130)와 동시에 연결될 수도 있다.The vehicle 110 may correspond to a vehicle as a means of transportation for transporting passengers or cargo using power produced by a motor or an engine. Here, it is described on the premise that the vehicle 110 basically corresponds to a vehicle traveling on the road, but is not necessarily limited thereto, and may correspond to various transportation means that can be driven on the road, such as a motorcycle, a bicycle, and personal mobility. may be The vehicle 110 may be connected to the arrangement estimator 130 through a network, and the plurality of vehicles 110 may be simultaneously connected to the arrangement estimator 130 .

일 실시예에서, 차량(110)은 주행 과정에서 도로 위 상황을 인식하거나 또는 주행 상태를 모니터링 하기 위해 복수의 센서들을 포함하여 구현될 수 있다. 예를 들어, 차량(110)은 주행 상태에 관한 데이터 수집을 위해 가속 센서, 브레이크 센서, 휠(wheel) 센서, GPS(Global Positioning System) 센서 및 조향각 센서 등을 포함할 수 있으며, 도로 위 상황에 관한 데이터 수집을 위해 블랙박스, 카메라 센서, 라이다(Lidar) 센서 등을 포함할 수 있다.In one embodiment, the vehicle 110 may be implemented by including a plurality of sensors in order to recognize a situation on the road or monitor a driving state in the driving process. For example, the vehicle 110 may include an acceleration sensor, a brake sensor, a wheel sensor, a global positioning system (GPS) sensor, a steering angle sensor, etc. to collect data related to the driving state, and It may include a black box, a camera sensor, a lidar sensor, and the like for data collection related to the data.

일 실시예에서, 차량(110)은 전방을 향해 장착되어 전면 도로 상황을 촬영할 수 있는 적어도 하나의 카메라를 포함하여 구현될 수 있다. 이때, 카메라를 통해 촬영된 영상은 배치 추정 장치(130)로 전송될 수 있다. 한편, 차량(110)은 배치 추정 장치(130)와 연동하는 전용 프로그램 또는 어플리케이션을 설치하여 실행할 수 있다.In one embodiment, the vehicle 110 may be implemented to include at least one camera that is mounted forward to capture a front road situation. In this case, the image captured by the camera may be transmitted to the arrangement estimating apparatus 130 . Meanwhile, the vehicle 110 may install and execute a dedicated program or application interworking with the arrangement estimating device 130 .

배치 추정 장치(130)는 다중 시점에서 촬영된 관측 정보를 이용하여 도로시설물(또는 고정객체)의 절대위치를 측정하고 신호등의 배치정보를 추정할 수 있는 컴퓨터 또는 프로그램에 해당하는 서버로 구현될 수 있다. 배치 추정 장치(130)는 차량(110)과 유선 네트워크 또는 블루투스, WiFi 등과 같은 무선 네트워크로 연결될 수 있고, 데이터를 송·수신할 수 있다. 또한, 배치 추정 장치(130)는 데이터의 수집 또는 추가 기능의 제공을 위하여 별도의 외부 시스템(도 1에 미도시함)과 연동하여 동작하도록 구현될 수도 있다.The arrangement estimating device 130 may be implemented as a server corresponding to a computer or program capable of measuring the absolute position of road facilities (or fixed objects) and estimating arrangement information of traffic lights using observation information taken from multiple viewpoints. there is. The arrangement estimating device 130 may be connected to the vehicle 110 through a wired network or a wireless network such as Bluetooth or WiFi, and may transmit/receive data. In addition, the arrangement estimating apparatus 130 may be implemented to operate in conjunction with a separate external system (not shown in FIG. 1 ) to collect data or provide an additional function.

일 실시예에서, 배치 추정 장치(130)는 차량(110) 내부에 장착되어 동작 가능하도록 소형화된 컴퓨팅 장치로 구현될 수 있다. 보다 구체적으로, 배치 추정 장치(130)는 차량(110)의 전방을 향해 장착되어 차량(110)의 전면 도로 상황을 촬영할 수 있는 카메라를 포함하여 구현될 수 있다. 배치 추정 장치(130)는 카메라에 의해 촬영된 영상을 입력 받아 분석 알고리즘을 실행할 수 있는 프로세서를 포함하여 구현될 수 있다. 이때, 프로세서는 다층신경망 연산을 수행할 수 있는 네트워크 처리 유닛(NPU, Network Processing Unit) 또는 텐서 처리 유닛(TPU, Tensor Processing Unit)을 포함할 수 있고, 복수의 네트워크 알고리즘을 시간배분조절(time scheduling) 하여 처리할 수 있는 제어로직(control logic)을 포함하여 구현될 수 있다.In an embodiment, the arrangement estimating device 130 may be implemented as a miniaturized computing device to be operably mounted inside the vehicle 110 . More specifically, the arrangement estimating apparatus 130 may be implemented by including a camera that is mounted toward the front of the vehicle 110 to photograph the front road condition of the vehicle 110 . The arrangement estimating apparatus 130 may be implemented by including a processor capable of receiving an image captured by a camera and executing an analysis algorithm. In this case, the processor may include a network processing unit (NPU) or a tensor processing unit (TPU) capable of performing multilayer neural network operation, and time scheduling a plurality of network algorithms ) and can be implemented including control logic that can be processed.

또한, 배치 추정 장치(130)는 프로세서가 수행할 프로그램과 네트워크 처리 유닛의 알고리즘 및 파라미터를 저장하는 비휘발성(non-volatile) 메모리, 별도로 영상 데이터를 저장할 수 있는 이동 가능한 비휘발성 메모리(예를 들어, micro-SD 카드 등), 수행중인 프로그램을 보관하고 기준시점 이전의 영상을 버퍼링하고 있는 고속의 휘발성(volatile) 메모리(예를 들어, DDR SDRAM 등), 차량의 현재의 위치를 확인할 수 있는 GPS서버와 통신하여 주시하는 이벤트(특정 도로시설물의 인지)가 발생했음을 알리고, 선제적으로 또는 서버의 요청에 따라 저장된 영상 데이터를 전송할 수 있는 4G 이상의 무선통신 and/or WiFi 통신이 가능한 통신 모듈 등을 포함하여 구현될 수 있다.In addition, the batch estimator 130 includes a non-volatile memory that stores a program to be executed by the processor and an algorithm and parameters of a network processing unit, and a removable non-volatile memory that can separately store image data (for example, , micro-SD card, etc.), high-speed volatile memory (eg, DDR SDRAM, etc.) that stores running programs and buffers images before the reference point, GPS that can check the current location of the vehicle A communication module capable of 4G or higher wireless communication and/or WiFi communication that communicates with the server to notify that an event to be observed (recognition of a specific road facility) has occurred, and can transmit stored image data preemptively or at the request of the server It can be implemented including

일 실시예에서, 배치 추정 장치(130)는 영상 분석을 통해 차량(110)의 전방 영상에서 도로시설물을 식별할 수 있다. 이때, 배치 추정 장치(130)는 사전에 학습된 결과가 반영된 학습 모델을 이용하여 추론(inference)을 통해 도로시설물을 식별할 수 있다. 예를 들어, 배치 추정 장치(130)는 합성곱 신경망(CNN, Convolution Neural Network) 기반의 기계학습 기법을 적용하여 영상에서 객체(object)를 식별할 수 있다. 이하, 전형적인 추론 과정을 간략히 서술한다.In an embodiment, the arrangement estimating apparatus 130 may identify road facilities from the front image of the vehicle 110 through image analysis. In this case, the arrangement estimating apparatus 130 may identify the road facility through inference using a learning model in which the result learned in advance is reflected. For example, the arrangement estimation apparatus 130 may identify an object in an image by applying a machine learning technique based on a convolutional neural network (CNN). Hereinafter, a typical reasoning process is briefly described.

먼저, 합성곱(convolution)은 영상과 같이 2차원 배열로 표현되는 데이터의 한 위치의 값과 주변 위치(3x3, 5x5 등)의 값들을 선형적으로 연산하여 연관성을 부여하므로 영상에서의 신경망 기법 적용에 폭넓게 활용되고 있다. (1) 영상은 합성곱층(convolution layer)를 거치고, 이후 네트워크 설계에 따라 다양한 형태의 다층 네트워크를 거쳐 피쳐맵(feature map)으로 변환될 수 있다. (2) RPN(region proposal network)은 찾고자 하는 객체(object)가 위치하는 관심영역(region of interest, ROI)을 제안할 수 있다. (3) 관심영역에 해당하는 피쳐맵의 부분을 가져와 객체의 분류계층(class)을 산출할 수 있다. 이때, 분류는 하나의 결과만을 제시하지 않고, 사전에 설정된 각각의 분류계층과 일치하는 정도를 출력할 수 있으며, 예를 들어, 객체별 확률 정보가 인지된 결과로서 생성될 수 있다.First, since convolution linearly calculates the values of one position and the values of neighboring positions (3x3, 5x5, etc.) of data expressed in a two-dimensional array like an image to give correlation, the neural network technique is applied in images. is widely used in (1) An image may be converted into a feature map through a convolution layer and then through various types of multi-layer networks according to network design. (2) A region proposal network (RPN) can propose a region of interest (ROI) in which an object to be found is located. (3) By bringing the part of the feature map corresponding to the region of interest, it is possible to calculate the classification class of the object. In this case, classification does not present only one result, and may output the degree of matching with each classification layer set in advance, and for example, probability information for each object may be generated as a recognized result.

데이터베이스(150)는 배치 추정 장치(130)의 동작 과정에서 필요한 다양한 정보들을 저장하는 저장장치에 해당할 수 있다. 예를 들어, 데이터베이스(150)는 다수의 차량(110)들에서 수집한 도로 영상을 저장할 수 있고, 영상 분석을 위한 분석 알고리즘 및 프로그램 정보를 저장할 수 있으며, 반드시 이에 한정되지 않고, 배치 추정 장치(130)가 다중 관측정보를 이용한 고정객체(예를 들어, 표지판, 신호등 등)의 위치 결정 및 신호등 배치정보의 추정 과정에서 다양한 형태로 수집 또는 가공된 정보들을 저장할 수 있다.The database 150 may correspond to a storage device for storing various types of information required in the operation process of the arrangement estimating apparatus 130 . For example, the database 150 may store road images collected from a plurality of vehicles 110 , and may store analysis algorithms and program information for image analysis, but is not necessarily limited thereto, and the arrangement estimating device ( 130) may store information collected or processed in various forms in the process of determining the location of a fixed object (eg, a sign, a traffic light, etc.) using multiple observation information and estimating traffic light arrangement information.

또한, 도 1에서, 데이터베이스(150)는 배치 추정 장치(130)와 독립적인 장치로서 도시되어 있으나, 반드시 이에 한정되지 않고, 배치 추정 장치(130)의 논리적인 저장장치로서 배치 추정 장치(130)에 포함되어 구현될 수 있음은 물론이다.Also, in FIG. 1 , the database 150 is illustrated as a device independent of the batch estimating device 130 , but is not limited thereto, and the batch estimating device 130 is a logical storage device of the batch estimating device 130 . Of course, it can be implemented by being included in the .

도 2는 도 1의 배치 추정 장치의 기능적 구성을 설명하는 도면이다.FIG. 2 is a diagram for explaining a functional configuration of the arrangement estimating apparatus of FIG. 1 .

도 2를 참조하면, 배치 추정 장치(130)는 데이터 수집부(210), 데이터 전처리부(230), 데이터 분석부(250), 객체 위치 결정부(270), 신호등 배치정보 추정부(290) 및 제어부(도 2에 미도시함)를 포함할 수 있다.Referring to FIG. 2 , the arrangement estimating device 130 includes a data collecting unit 210 , a data preprocessing unit 230 , a data analyzing unit 250 , an object position determining unit 270 , and a traffic light arrangement information estimating unit 290 . and a control unit (not shown in FIG. 2 ).

데이터 수집부(210)는 복수의 차량(110)들 각각의 주행 과정에서 도로 인근의 고정객체에 관한 관측 데이터를 수집할 수 있다. 데이터 수집부(210)는 차량(110) 별로 수집된 관측 데이터를 소정의 기준에 따라 분류하여 데이터베이스(150)에 저장할 수 있다. 즉, 관측 데이터는 차량(110) 내에 설치된 카메라를 통해 촬영된 전방 영상 또는 이미지를 포함할 수 있으나, 반드시 이에 한정되지 않으며, 데이터 획득 장치에 따라 다양한 유형의 데이터를 관측 데이터로서 수집할 수도 있다. 특히, 관측 데이터는 차량(110)의 전방에서 식별 가능한 다양한 도로시설물에 대한 정보를 포함할 수 있다. 예를 들어, 도로시설물은 도로 또는 인근에 설치되는 신호등이나 표지판 등을 포함할 수 있다.The data collection unit 210 may collect observation data regarding a fixed object near a road in the driving process of each of the plurality of vehicles 110 . The data collection unit 210 may classify the observation data collected for each vehicle 110 according to a predetermined criterion and store it in the database 150 . That is, the observation data may include a front image or image captured by a camera installed in the vehicle 110 , but is not limited thereto, and various types of data may be collected as observation data according to a data acquisition device. In particular, the observation data may include information on various road facilities that can be identified in front of the vehicle 110 . For example, the road facility may include a traffic light or sign installed on a road or nearby.

일 실시예에서, 데이터 수집부(210)는 복수의 차량(110)들 각각에 설치되는 적어도 하나의 카메라를 통해 촬영된 해당 차량(110)의 전방 영상을 수집할 수 있고, 전방 영상으로부터 고정객체를 포함하는 적어도 하나의 이미지를 추출할 수 있으며, 적어도 하나의 이미지, 해당 이미지에 부여되는 관측번호, 해당 차량(110)의 위치와 주행방향 및 시간을 포함하는 관측 데이터를 복수의 차량(110)들로부터 수신할 수 있다. 데이터 수집부(210)는 기본적으로 하나의 차량(110)을 대상으로 수집된 전방 영상을 기초로 관측 데이터를 획득할 수 있으나, 필요에 따라 다수의 차량(110)들로부터 다양한 시점의 관측 정보를 통합하여 획득할 수도 있다.In an embodiment, the data collection unit 210 may collect a front image of the corresponding vehicle 110 photographed through at least one camera installed in each of the plurality of vehicles 110 , and may collect a fixed object from the front image. At least one image including can be received from The data collection unit 210 may basically acquire observation data based on a front image collected for one vehicle 110 , but may collect observation information from a plurality of vehicles 110 at various viewpoints as necessary. It can also be obtained by consolidation.

또한, 데이터 수집부(210)는 획득한 전방 영상으로부터 고정객체를 포함하는 이미지를 프레임 단위로 추출할 수 있으며, 해당 이미지에 식별 정보로서 관측번호를 부여할 수 있다. 또한, 데이터 수집부(210)는 해당 이미지를 촬영한 차량(110)에 관한 위치 및 주행 정보와 시점 정보를 관측 데이터로서 수집할 수 있다.Also, the data collection unit 210 may extract an image including a fixed object from the acquired front image in units of frames, and may assign an observation number to the image as identification information. Also, the data collection unit 210 may collect location and driving information and viewpoint information regarding the vehicle 110 in which the corresponding image is captured as observation data.

데이터 전처리부(230)는 데이터 수집부(210)에 의해 수집된 관측 데이터를 분류하거나 또는 필터링, 군집화 등의 전처리 동작을 수행할 수 있다. 보다 구체적으로, 데이터 전처리부(230)는 관측 데이터를 고정객체 별로 정의된 분류계층에 따라 분류하고, 관측 데이터를 동일 분류계층 내에서 위치를 기준으로 클러스터링 할 수 있다. 또한, 데이터 전처리부(230)는 관측 데이터를 관측 조건에 따라 1차 선별하고, 관측 특성에 따라 2차 선별하는 동작을 수행할 수 있다.The data preprocessor 230 may classify the observation data collected by the data collector 210 or perform preprocessing operations such as filtering and clustering. More specifically, the data preprocessor 230 may classify the observation data according to a classification hierarchy defined for each fixed object, and cluster the observation data based on a location within the same classification hierarchy. In addition, the data preprocessor 230 may perform an operation of primary selection of observation data according to observation conditions and secondary selection according to observation characteristics.

도 11에서, 분류계층은 도로 상에서 식별 가능한 고정객체의 유형에 해당할 수 있다. 예를 들어, 분류계층은 신호등, 표지판 등을 포함할 수 있으며, 데이터 전처리부(230)는 수집된 관측 데이터의 관측 위치와 관측된 객체를 기초로 분류계층 별로 분류할 수 있다(그림 (b)). 또한, 데이터 전처리부(230)는 인접한 관측끼리 묶어 특정 고정객체에 대한 관측을 선별할 수 있다(그림 (c)). 이때, 데이터 전처리부(230)는 k-군집 알고리즘 등 클러스터링 알고리즘을 활용하여 군집화 동작을 수행할 수 있다.In FIG. 11 , the classification layer may correspond to a type of a fixed object that can be identified on a road. For example, the classification layer may include a traffic light, a sign, and the like, and the data preprocessing unit 230 may classify by classification layer based on the observed position and the observed object of the collected observation data (Fig. (b)). ). Also, the data preprocessor 230 may select observations for a specific fixed object by grouping adjacent observations (Fig. (c)). In this case, the data preprocessor 230 may perform a clustering operation by using a clustering algorithm such as a k-clustering algorithm.

일 실시예에서, 데이터 전처리부(230)는 분류계층에 대한 일치도가 임계값 이하인 경우, 해당 관측 시점이 특정 시간 범위에 해당하는 경우 및 해당 관측 시점의 날씨가 특정 조건을 충족하는 경우 중 적어도 하나의 관측 조건에 해당하면 관측 데이터에서 제거할 수 있다. 즉, 데이터 전처리부(230)는 분류 결과 분류계층(class)에 대한 일치도가 낮은 경우 관측 데이터를 선별하여 제거할 수 있다. 또한, 데이터 전처리부(230)는 해당 관측 시간의 날씨 조건이 나쁘거나, 역광 조건이거나, 또는 야간 등 특정 시간에 해당하는 경우 관측 데이터에서 제거하여 객체 위치를 결정함에 있어 장애 요소를 미리 제거할 수 있다.In an embodiment, the data preprocessor 230 is configured to perform at least one of a case in which the degree of matching for the classification layer is less than or equal to a threshold value, a case in which the corresponding observation point corresponds to a specific time range, and a case in which the weather at the corresponding observation point meets a specific condition. If it meets the observation conditions of , it can be removed from the observation data. That is, the data preprocessor 230 may select and remove the observed data when the degree of matching with the classification layer is low as a result of the classification. In addition, the data preprocessor 230 may remove obstacles in advance in determining the location of the object by removing it from the observation data when the weather condition of the corresponding observation time is bad, the backlight condition, or a specific time such as night time. .

일 실시예에서, 데이터 전처리부(230)는 관측 데이터에 대해 관측지점 간의 거리가 기 설정된 임계거리 미만인 경우를 제거할 수 있고, 관측 데이터에 대해 방향벡터 간의 각도가 기 설정된 임계각도 미만인 경우를 제거할 수 있다. 이에 대해서는 도 14 및 15에서 보다 자세히 설명한다.In an embodiment, the data preprocessor 230 may remove a case in which the distance between observation points for observation data is less than a preset critical distance, and removes a case in which an angle between direction vectors with respect to observation data is less than a preset critical angle can do. This will be described in more detail with reference to FIGS. 14 and 15 .

데이터 분석부(250)는 관측 데이터에 수치해석 모델을 적용하여 데이터 분석을 수행할 수 있으며, 해당 분석의 결과를 기초로 관측 신뢰도를 검증하는 동작을 수행할 수 있다. 일 실시예에서, 데이터 분석부(250)는 고정객체의 위치좌표를 정의하고 위치좌표를 기준으로 방향벡터와의 거리에 관한 벡터식을 생성하며, 벡터식을 위치좌표에 관한 2차식으로 변환하고 2차식을 관측 데이터에 적용하여 위치좌표에 관한 혼합 2차식을 생성하며, 혼합 2차식을 기초로 위치좌표를 산출할 수 있다. 일 실시예에서, 데이터 분석부(250)는 관측 데이터에서 산출된 위치좌표까지의 거리가 검증기준을 초과하는 아웃라이어(outlier)를 검출하여 제거할 수 있다. 이에 대해서는 도 16을 통해 보다 자세히 설명한다.The data analysis unit 250 may perform data analysis by applying a numerical analysis model to the observation data, and may perform an operation of verifying observation reliability based on a result of the analysis. In one embodiment, the data analysis unit 250 defines the positional coordinates of the fixed object, generates a vector equation regarding the distance from the direction vector based on the positional coordinates, converts the vector equation into a quadratic equation regarding the positional coordinates, By applying the quadratic equation to the observation data, a mixed quadratic equation for position coordinates is generated, and the position coordinates can be calculated based on the mixed quadratic equation. In an embodiment, the data analysis unit 250 may detect and remove an outlier whose distance from the observation data to the calculated position coordinate exceeds the verification criterion. This will be described in more detail with reference to FIG. 16 .

객체 위치 결정부(270)는 검증에 통과하면 적어도 하나의 고정객체에 관한 객체 위치를 결정할 수 있다. 즉, 객체 위치 결정부(270)는 검증 동작을 거쳐 획득한 데이터를 기초로 고정객체의 위치를 결정함으로써 보다 정확하게 위치 정보를 획득할 수 있다.The object position determiner 270 may determine an object position with respect to at least one fixed object if the verification is passed. That is, the object position determiner 270 may more accurately acquire position information by determining the position of the fixed object based on data obtained through the verification operation.

일 실시예에서, 객체 위치 결정부(270)는 검증에 통과한 관측 데이터가 소정의 개수만큼 누적된 경우 객체 위치로서 확정할 수 있다. 예를 들어, 사전에 설정된 누적 개수가 6인 경우, 객체 위치 결정부(270)는 데이터 분석 과정의 반복적 수행에 따라 검증에 통과한 관측 데이터가 6개만큼 누적되면 해당 정보를 기초로 고정객체의 위치를 확정할 수 있다.In an embodiment, the object location determiner 270 may determine the object location when a predetermined number of observation data passing the verification is accumulated. For example, when the preset cumulative number is 6, the object position determiner 270 accumulates 6 pieces of observation data that have passed verification according to iterative performance of the data analysis process. location can be determined.

도 17에서, 유효한 관측이 6회 이상(Nmin=6)이어야 고정객체의 위치를 최종 확정할 수 있다고 가정하면, 객체 위치 결정부(270)는 지점 A에서 최초 관측(N=1)이 발생하더라도 위치 추정이 불가능하므로 해당 정보를 DB에 누적시켜 저장할 수 있다. 또한, 데이터 분석에 따른 위치 정보가 반복적으로 수집되는 과정에서 N=6의 경우 객체 위치 결정부(270)는 위치 추정을 시도할 수 있지만, 해당 관측이 한계범위를 벗어난 경우에 해당하여 측위에 실패할 수 있다(즉, Ninlier<Nmin).In FIG. 17 , assuming that the position of the fixed object can be finally determined when valid observations are performed 6 or more times (N min = 6), the object positioning unit 270 generates the first observation (N=1) at point A Even so, location estimation is impossible, so the information can be accumulated and stored in the DB. In addition, in the case of N=6 in the process of repeatedly collecting location information according to data analysis, the object location determination unit 270 may try to estimate the location, but the location fails because the corresponding observation is outside the limit range. can (ie, N inlier < N min ).

이와 달리, N=7의 경우 객체 위치 결정부(270)는 위치 추정을 시도하여 6개의 유효한 관측이 누적되면 측위에 성공할 수 있다. 이에 따라, 객체 위치 결정부(270)는 해당 고정객체의 존재를 확인하고 위치를 결정할 수 있다. 이후, 객체 위치 결정부(270)는 일정 기간 또는 신규 관측이 추가되는 경우, 위치 추정을 업데이트하여 위치를 교정 또는 변경할 수 있고, 아웃라이어를 제거하는 동작을 반복적으로 수행할 수 있다.Contrary to this, in the case of N=7, the object positioning unit 270 may attempt to estimate the location and, if six valid observations are accumulated, the location may be successful. Accordingly, the object position determiner 270 may determine the existence of the corresponding fixed object and determine the position. Thereafter, when a predetermined period or new observation is added, the object position determiner 270 may correct or change the position by updating the position estimate, and may repeatedly perform the operation of removing the outlier.

일 실시예에서, 객체 위치 결정부(270)는 객체 위치를 모니터링 하여 고정객체의 철거, 교체 및 이동을 검출할 수 있다. 즉, 객체 위치 결정부(270)는 고정객체의 위치를 식별한 이후 반복적인 동작을 통해 고정객체의 위치를 모니터링할 수 있으며, 고정객체의 위치 변화에 따라 철거, 교체 및 이동 여부를 효과적으로 검출할 수 있다.In an embodiment, the object position determiner 270 may monitor the position of the object to detect the removal, replacement, and movement of the fixed object. That is, the object position determining unit 270 can monitor the position of the fixed object through repeated operations after identifying the position of the fixed object, and can effectively detect whether to dismantle, replace, or move the fixed object according to the change in the position of the fixed object. can

예를 들어, 객체 위치 결정부(270)는 특정 B 지점에 대해, 해당 지점을 차량(110)들이 주행하여 통과한 기록을 누적시킬 수 있고, 그럼에도 불구하고 고정객체의 위치가 결정되지 않아 도로시설물이 관측되지 않는 경우에는 주행통과 횟수 또는 기간을 기준으로 해당 도로시설물의 철거를 결정할 수 있다.For example, the object positioning unit 270 may accumulate records of vehicles 110 driving and passing a specific point B for a specific point B, but the location of the fixed object is not determined nevertheless, so the road facility If this is not observed, the demolition of the relevant road facility may be decided based on the number or period of driving passages.

또한, 객체 위치 결정부(270)는 특정 C 지점에 대해, 동일 위치에서 기존의 분류계층이 더 이상 관측되지 않는 반면, 다른 분류계층의 도로시설물이 유효 관측 횟수(즉, Nmin 초과)만큼 관측되는 경우 해당 위치에서 고정객체의 교체를 결정할 수 있다.In addition, the object location determining unit 270 for a specific point C, while the existing classification hierarchy is no longer observed at the same location, the road facilities of the other classification hierarchy are observed as much as the effective number of observations (that is, more than N min ). In this case, it is possible to determine the replacement of the fixed object at the corresponding position.

또한, 객체 위치 결정부(270)는 특정 D 및 D' 지점에 대해, 기존 D 지점에서 더 이상 관측되지 않는 반면, D 지점 인근의 D' 지점에서 동일 분류계층의 도로시설물이 유효 관측 횟수만큼 관측되는 경우 해당 고정객체가 D에서 D' 지점으로 이동된 것으로 결정할 수 있다.In addition, the object positioning unit 270 for specific points D and D' is no longer observed at the existing point D, whereas the road facilities of the same classification layer are observed at the point D' near the point D by the effective number of observations. In this case, it can be determined that the fixed object has been moved from point D to point D'.

신호등 배치정보 추정부(290)는 위치가 식별된 고정객체가 신호등에 해당하는 경우 관측 데이터를 기초로 해당 신호등의 유형 및 램프 개수를 추정할 수 있고, 관측 데이터에서 해당 신호등의 램프 별로 점등 상황을 검출하여 매칭할 수 있으며, 해당 매칭에 성공한 경우 해당 신호등의 램프 구성과 배치를 결정할 수 있다. 보다 구체적으로, 영상 분석을 통해 신호등의 형상에 관한 정보는 쉽게 도출되는 반면, 신호등의 램프가 동시에 모두 점등되지 않기 때문에 램프의 배치 형태는 단일 관측이나 위치 결정 과정에서의 관측으로는 충분하지 않으며 추가적인 관측 데이터가 필요할 수 있다. 신호등 배치정보 추정부(290)는 영상 분석을 통해 도출되는 신호등이 가로 및 세로의 크기 비교를 통해 상대 비율로서 추정할 수 있다.When the fixed object whose location is identified corresponds to a traffic light, the traffic light arrangement information estimator 290 may estimate the type of the corresponding traffic light and the number of lamps based on the observation data, and calculate the lighting situation for each lamp of the corresponding traffic light from the observation data. It can be detected and matched, and when the matching is successful, the lamp configuration and arrangement of the corresponding traffic light can be determined. More specifically, information on the shape of a traffic light can be easily derived through image analysis, but since the lamps of the traffic light do not all light up at the same time, the arrangement of the lamps is not sufficient for single observation or observation in the positioning process. Observational data may be required. The traffic light arrangement information estimator 290 may estimate the traffic light derived through image analysis as a relative ratio through horizontal and vertical size comparison.

일 실시예에서, 신호등 배치정보 추정부(290)는 관측 데이터로부터 해당 신호등에 관한 관심영역(ROI)를 검출하고, 관심영역의 가로 및 세로 간의 비교 및 비율에 따라 해당 신호등의 유형 및 램프 개수를 각각 결정할 수 있다. 예를 들어, 신호등의 가로의 크기가 세로의 크기보다 더 큰 경우 가로 신호등에 해당할 수 있으며, 램프의 개수는 'round(가로/세로)'를 통해 결정될 수 있다. 또한, 신호등의 세로의 크기가 가로의 크기보다 더 큰 경우 세로 신호등에 해당할 수 있으며, 램프의 개수는 'round(세로/가로)'를 통해 결정될 수 있다. 통상적인 삼색 신호등에 있어서, W > H 인 경우 W/H

Figure 112021063914202-pat00001
3이고, W < H 인 경우 H/W
Figure 112021063914202-pat00002
3이다.In one embodiment, the traffic light arrangement information estimator 290 detects a region of interest (ROI) with respect to the corresponding traffic light from the observation data, and determines the type and number of lamps of the corresponding traffic light according to the comparison and ratio between the width and length of the region of interest. each can be decided. For example, when the horizontal size of the traffic light is larger than the vertical size, it may correspond to a horizontal traffic light, and the number of lamps may be determined through 'round (horizontal/vertical)'. In addition, when the vertical size of the traffic light is larger than the horizontal size, it may correspond to a vertical traffic light, and the number of lamps may be determined through 'round (vertical/horizontal)'. In a typical tri-color traffic light, W/H when W > H
Figure 112021063914202-pat00001
Figure 112021063914202-pat00001
3, and H/W if W < H
Figure 112021063914202-pat00002
Figure 112021063914202-pat00002
3 is

일 실시예에서, 신호등 배치정보 추정부(290)는 해당 신호등의 모든 램프에 대해 점등 상황의 매칭이 완료된 경우 매칭의 성공을 결정할 수 있다. 즉, 신호등의 배치정보를 추정하기 위해서는 전방 영상으로부터 신호등의 램프별 점등 상황이 모두 매칭될 필요가 있다. 관측 데이터를 통해 신호등의 점등 상황이 검출된 경우라 하더라도 동일한 램프에 대한 점등 상황이 반복적으로 매칭된 경우라면 매칭되지 않은 나머지 점등의 배치정보가 미확인 상태로 존재할 수밖에 없으며, 신호등 배치정보 추정부(290)는 모든 램프에 대한 점등 상황이 관측될 때까지 매칭 동작을 반복적으로 수행할 수 있다.In an embodiment, the traffic light arrangement information estimator 290 may determine the success of matching when matching of lighting conditions for all lamps of the corresponding traffic light is completed. That is, in order to estimate the arrangement information of the traffic light, it is necessary to match all the lighting conditions of each lamp of the traffic light from the front image. Even if the lighting condition of the traffic light is detected through the observation data, if the lighting condition for the same lamp is repeatedly matched, the arrangement information of the remaining unmatched lights inevitably exists in an unconfirmed state, and the traffic light arrangement information estimation unit 290 ) may repeatedly perform the matching operation until the lighting conditions for all lamps are observed.

제어부(도 2에 미도시함)는 배치 추정 장치(130)의 전체적인 동작을 제어하고, 데이터 수집부(210), 데이터 전처리부(230), 데이터 분석부(250), 객체 위치 결정부(270) 및 신호등 배치정보 추정부(290) 간의 제어 흐름 또는 데이터 흐름을 관리할 수 있다.The controller (not shown in FIG. 2 ) controls the overall operation of the arrangement estimator 130 , and the data collection unit 210 , the data preprocessor 230 , the data analysis unit 250 , and the object position determiner 270 . ) and the traffic light arrangement information estimator 290 may manage a control flow or data flow.

도 3은 본 발명에 따른 다중 관측정보를 이용한 신호등 배치정보 추정 방법을 설명하는 순서도이다.3 is a flowchart illustrating a method for estimating traffic light arrangement information using multiple observation information according to the present invention.

도 3을 참조하면, 배치 추정 장치(130)는 데이터 수집부(210)를 통해 복수의 차량(110)들 각각의 주행 과정에서 도로 인근의 고정객체에 관한 관측 데이터를 수집할 수 있다. 데이터 수집부(210)는 차량(110) 별로 관측 데이터를 수집하여 저장할 수 있으며, 이후 데이터 분석 및 위치 결정 과정은 차량(110) 단위로 수행되거나 또는 다수의 차량(110)들에 관한 통합된 동작으로 수행될 수 있다.Referring to FIG. 3 , the arrangement estimating apparatus 130 may collect observation data about a stationary object near a road in the driving process of each of the plurality of vehicles 110 through the data collecting unit 210 . The data collection unit 210 may collect and store observation data for each vehicle 110 , and then the data analysis and location determination process may be performed for each vehicle 110 or an integrated operation for a plurality of vehicles 110 . can be performed with

또한, 배치 추정 장치(130)는 데이터 전처리부(230)를 통해 관측 데이터에 대한 분류 및 선별 동작에 관한 전처리 동작을 수행할 수 있다. 예를 들어, 데이터 전처리부(230)는 관측 데이터를 고정객체 별로 정의된 분류계층에 따라 분류하고(단계 S300), 동일 분류계층 내에서 위치를 기준으로 클러스터링 하며(단계 S310), 관측 데이터를 관측 조건 및 관측 특성에 따라 선별하는 동작을 수행할 수 있다(단계 S320 및 S330).Also, the arrangement estimator 130 may perform a preprocessing operation regarding classification and selection operations on the observed data through the data preprocessor 230 . For example, the data preprocessor 230 classifies the observed data according to a classification hierarchy defined for each fixed object (step S300), and clusters the observed data based on the location within the same classification hierarchy (step S310), and observes the observed data. A selection operation may be performed according to conditions and observation characteristics (steps S320 and S330).

또한, 배치 추정 장치(130)는 데이터 분석부(250)를 통해 관측 데이터에 수치해석 모델을 적용하여 분석하고(단계 S340), 분석의 결과를 기초로 관측 신뢰도를 검증할 수 있다(단계 S350). 이를 위해, 데이터 분석부(250))는 관측 데이터에 대해 다양한 수치해석 모델을 활용할 수 있으며, 신뢰도 검증에 실패한 데이터는 관측 데이터(outlier)에서 제거될 수 있다.In addition, the arrangement estimation apparatus 130 may apply a numerical analysis model to the observation data through the data analysis unit 250 and analyze it (step S340), and verify the observation reliability based on the result of the analysis (step S350) . To this end, the data analysis unit 250 may utilize various numerical analysis models for the observed data, and data that fails reliability verification may be removed from the observed data (outlier).

또한, 배치 추정 장치(130)는 객체 위치 결정부(270)를 통해 검증에 통과한 관측 데이터를 기초로 도로 상에 존재하는 적어도 하나의 고정객체에 관한 객체 위치 결정할 수 있다(단계 S360). 일 실시예에서, 객체 위치 결정부(270)는 식별된 고정객체의 위치 정보를 지속적으로 업데이트 하여 모니터링할 수 있으며, 위치 정보의 변화에 따라 고정객체의 철거, 교체 및 이동을 검출할 수 있다.Also, the arrangement estimating apparatus 130 may determine an object position with respect to at least one fixed object existing on a road based on the observation data that has passed verification through the object position determiner 270 (step S360). In an embodiment, the object positioning unit 270 may continuously update and monitor the location information of the identified fixed object, and may detect the removal, replacement, and movement of the fixed object according to a change in the location information.

또한, 배치 추정 장치(130)는 신호등 배치정보 추정부(290)를 통해 신호등 배치 및 램프 개수를 추정할 수 있다(단계 S370). 신호등 배치정보 추정부(290)는 관측 데이터에서 해당 신호등의 램프 별로 점등 상황을 검출하여 매칭할 수 있다(단계 S380). 만약 해당 신호등의 특정 램프에 대해 점등 상황의 매칭이 완료되지 않은 경우라면 배치 추정 장치(130)는 관측 데이터로부터 신호등을 식별하여 신호등의 점등 상황에 대한 매칭 동작을 반복적으로 수행할 수 있다. 마지막으로, 신호등 배치정보 추정부(290)는 매칭에 성공한 경우 해당 신호등의 램프 구성과 배치를 최종 결정할 수 있다(단계 S390).Also, the arrangement estimating apparatus 130 may estimate the arrangement of the traffic lights and the number of lamps through the traffic light arrangement information estimator 290 (step S370). The traffic light arrangement information estimator 290 may detect and match the lighting conditions for each lamp of the corresponding traffic light from the observation data (step S380). If the matching of the lighting conditions for a specific lamp of the corresponding traffic light is not completed, the arrangement estimating apparatus 130 may identify the traffic light from the observation data and repeatedly perform the matching operation for the lighting condition of the traffic light. Finally, when matching is successful, the traffic light arrangement information estimating unit 290 may finally determine the lamp configuration and arrangement of the corresponding traffic light (step S390).

4 내지 6은 도로 인근의 시설물에 대한 카메라 관측 범위를 설명하는 도면이다.4 to 6 are diagrams for explaining a camera observation range for a facility near a road.

도 4를 참조하면, 도로시설물(410)의 위치와 카메라의 화각은 3차원으로 표현될 수 있지만, 여기에서는 2차원으로 도식화하여 설명한다. 그림 (b)에서, 영역 A는 표지판이 인지 가능한 크기로 보이는 영역으로서 표지판에서 일정 거리 이내인 영역에 해당할 수 있다. 표지판은 통상적으로 주행하는 차량(110)의 정면을 향하여 설치되므로, 대향각도가 커질수록 표지판에 대한 인지가 어려워지며 영역 A는 부채꼴 형태로 형성될 수 있다. 즉, 영역 X는 표지판 인지가 불가능한 영역에 해당할 수 있다.Referring to FIG. 4 , the position of the road facility 410 and the angle of view of the camera may be expressed in three dimensions, but here it will be described with a diagram in two dimensions. In the figure (b), area A is an area in which a sign is visible in a recognizable size and may correspond to an area within a certain distance from the sign. Since the sign is usually installed toward the front of the vehicle 110 traveling, it becomes difficult to recognize the sign as the opposing angle increases, and the area A may be formed in a fan shape. That is, the area X may correspond to an area in which sign recognition is impossible.

또한, 그림 (a)에서, 영역 B는 차량(110)에 장착된 카메라에서 인지 가능한 영역에 해당할 수 있다. 화각을 나타내는 삼각형의 꼭지점은 카메라의 위치에 해당할 수 있으며, 카메라에 인접한 영역으로서 점선으로 표시된 영역 Y는 화각 제한으로 표지판이 보이지 않는 영역에 해당할 수 있다.Also, in the figure (a), area B may correspond to a recognizable area by a camera mounted on the vehicle 110 . The vertex of the triangle indicating the angle of view may correspond to the position of the camera, and the area Y indicated by a dotted line as an area adjacent to the camera may correspond to an area in which the sign cannot be seen due to the limitation of the angle of view.

도 5를 참조하면, 표지판에서 가까운 차로를 주행하는 차량(110)에서의 관측 가능한 범위는 2차원적으로 도식화되어 표현될 수 있다. 구체적으로, 그림 (a)의 경우 거리가 멀어서 표지판이 보이지 않는 경우에 해당할 수 있고, 그림 (b)의 경우 표지판이 보이지만 화면상 크기가 작아 인지되지 않는 경우에 해당할 수 있으며, 그림 (c)의 경우 표지판 인지 가능 영역이 시작되는 경우에 해당할 수 있고, 그림 (d)의 경우 표지판이 화면을 (화면의 위쪽으로) 벗어나기 직전의 경우에 해당할 수 있다.Referring to FIG. 5 , the observable range in the vehicle 110 driving in a lane close to the sign may be diagrammed and expressed in two dimensions. Specifically, in the case of figure (a), it may correspond to a case where the sign is not visible due to a long distance, and in the case of figure (b), it may correspond to a case where the sign is visible but not recognized due to the small size of the screen, and in figure (c) ) may correspond to the case where the sign recognizable area starts, and in the case of figure (d), it may correspond to the case just before the sign leaves the screen (upward of the screen).

도 6을 참조하면, 표지판에서 떨어진 차로를 주행하는 차량(110)에서의 관측 가능한 범위는 2차원적으로 도식화되어 표현될 수 있다. 구체적으로, 그림 (a)의 경우 관측이 시작되는 경우에 해당할 수 있고, 그림 (b)의 경우 관측이 종료되는 경우(예를 들어, 화면의 측면으로 벗어나기 직전)에 해당할 수 있다. 또한, 그림 (c)의 경우 멀리 있는 차로에서 주행할수록 관측 가능한 영역이 작아지는 경우에 해당할 수 있고, 그림 (d)의 경우 표지판 인지 영역을 벗어나 표지판 관측이 불가능한 경우에 해당할 수 있다.Referring to FIG. 6 , the observable range in the vehicle 110 driving the lane away from the sign may be diagrammed and expressed in two dimensions. Specifically, in the case of figure (a), it may correspond to the case where observation is started, and in the case of figure (b), it may correspond to the case where the observation is finished (eg, just before moving to the side of the screen). In addition, in the case of Figure (c), it may correspond to a case in which the observable area becomes smaller as driving in a further lane, and in the case of Figure (d), it may correspond to a case where it is impossible to observe a sign outside the sign recognition area.

도 7은 도로 인근 및 도로 위의 시설물에 대한 카메라 관측 범위를 설명하는 도면이다.7 is a view for explaining a camera observation range for facilities near and on the road.

그림 (a)의 경우, 주행 중인 차량(110) 내에 설치된 카메라를 통해 도로 인근에 설치된 표지판을 관측 가능한 범위는 4개의 선들, (1), (2), (3) 및 (4)에 의해 형성되는 영역에 해당할 수 있다. 그림 (b)의 경우, 교차로 등과 같이 차로 위에 설치된 도로시설물의 관측 범위도 인도 등 도로 인근에 설치된 도로시설물의 관측 범위와 동일한 방식으로 표현될 수 있다. 즉, 주행 중인 차량(110) 내에 설치된 카메라를 통해 도로 위에 설치된 신호등을 관측 가능한 범위는 4개의 선들, (1'), (2'), (3') 및 (4')에 의해 형성되는 영역에 해당할 수 있다.In the case of Figure (a), the range where the sign installed near the road can be observed through the camera installed in the vehicle 110 in motion is formed by four lines, (1), (2), (3) and (4) It may correspond to an area where In the case of Figure (b), the observation range of road facilities installed on the road, such as an intersection, can be expressed in the same way as the observation range of road facilities installed near the road, such as sidewalks. That is, the range in which the traffic light installed on the road can be observed through the camera installed in the vehicle 110 in motion is an area formed by four lines, (1'), (2'), (3') and (4'). may correspond to

따라서, 해당 영역 내에 차량(110)에 장착된 카메라가 존재하는 경우 관측 데이터에 대한 분석을 통해 신호등 인지가 가능할 수 있다. 이때, 선 (1) 및 (1')는 카메라의 해상도 한계에 따른 표지판 인지 가능 거리에 해당할 수 있고, 선 (2) 및 (2')는 카메라의 측면 화각 범위의 한계에 해당할 수 있으며, 선 (3) 및 (3')는 카메라의 상면 화각 범위의 한계에 해당할 수 있고, 선 (4) 및 (4')는 도로 경계로 인해 차량(110)에 장착된 카메라가 측방향으로 접근할 수 있는 한계에 해당할 수 있다.Accordingly, when there is a camera mounted on the vehicle 110 in the corresponding area, it may be possible to recognize a traffic light through analysis of the observation data. In this case, lines (1) and (1') may correspond to the sign recognition distance according to the resolution limit of the camera, and the lines (2) and (2') may correspond to the limit of the side view angle range of the camera, , lines (3) and (3') may correspond to the limits of the camera's upper field angle range, and lines (4) and (4') indicate that the camera mounted on the vehicle 110 is laterally moved due to road boundaries. There may be limits to access.

한편, 도 7에서 도시하는 해당 영역은 표지판의 실체 위치나 높이, 차량(110)에 장착된 카메라의 세부 사양, 장착 높이 등에 따라 달라질 수 있음은 물론이다. 또한, 해당 영역의 범위에 대한 개념은 표지판, 신호등 등의 도로시설물에 동일하게 적용될 수 있다.Meanwhile, it goes without saying that the corresponding area shown in FIG. 7 may vary depending on the actual position or height of the sign, detailed specifications of the camera mounted on the vehicle 110 , the mounting height, and the like. In addition, the concept of the scope of the corresponding area may be equally applied to road facilities such as signs and traffic lights.

도 8 내지 10은 본 발명에 따른 다중 관측을 통한 도로시설물 측위 방법을 설명하는 도면이다.8 to 10 are diagrams for explaining a method for positioning a road facility through multiple observations according to the present invention.

도 8을 참조하면, 카메라는 실세계의 3D를 2D 평면으로 투영하기 때문에, 카메라의 한 점(예를 들어, 그림 (a)에서 x)은 실세계에서 한 직선(x-X)이 투영된 것에 해당할 수 있다. 즉, 카메라를 통해 촬영된 영상에서의 한 점은 실세계의 해당 직선 상에서 실제 어느 점이 투영되어 표현된 것인지 확인하기 어려우며, 결과적으로 실세계의 점 X의 위치 정보를 획득하기 어렵다는 의미로 해석될 수 있다.Referring to FIG. 8 , since the camera projects 3D of the real world onto a 2D plane, a point of the camera (eg, x in Figure (a)) may correspond to a projection of a straight line (xX) in the real world. there is. That is, it is difficult to determine which point is actually projected and expressed on the corresponding straight line in the real world for a point in the image captured by the camera, and as a result, it can be interpreted as meaning that it is difficult to obtain the location information of the point X in the real world.

다만, 단일 카메라를 통한 단일 관측만으로는 표지판의 위치를 결정할 수 없으나, 이론적으로 서로 다른 위치에서 2번 이상의 관측이 가능하면 대상의 위치를 특정할 수 있다. 대표적인 예로서, 동일 평면 상에 2개의 카메라를 고정한 상태에서 동일한 대상을 관측하고 각 카메라에서 발생하는 차이(disparity)를 이용하여 대상과의 거리(depth)를 측정할 수 있다.However, the position of the sign cannot be determined only by single observation through a single camera, but theoretically, if two or more observations are possible from different positions, the position of the target can be specified. As a representative example, in a state in which two cameras are fixed on the same plane, the same object may be observed, and a distance to the object may be measured using a disparity generated in each camera.

한편, 그림 (b)의 경우 스테레오 비전에서 거리 D는 비례 관계에 따라 D = d·f/δ 와 같이 표현될 수 있다(여기에서, D: 대상 객체까지의 거리, d: 두개의 카메라 중심 간의 거리, δ(disparity): 두개의 카메라에서 대상 객체의 동일 기준점이 맺힌 화소간 거리, f: 초점거리). 즉, 배치 추정 장치(130)는 다중 시점에서의 관측 정보들을 수집하고, 관측 정보들 간의 차이에 기초하여 도로시설물의 위치에 관한 정보를 획득할 수 있다.On the other hand, in the case of Figure (b), in stereo vision, the distance D can be expressed as D = d·f/δ according to the proportional relationship (here, D: distance to the target object, d: between the two camera centers) Distance, δ (disparity): the distance between pixels where the same reference point of the target object is formed in two cameras, f: focal length). That is, the arrangement estimating apparatus 130 may collect observation information from multiple viewpoints, and may acquire information about the location of road facilities based on a difference between the observation information.

도 9를 참조하면, 스테레오 비전의 예의 경우, 거리가 먼 차량(110)까지의 거리를 측정하기 위해서는 두개의 카메라 간의 거리(폭)가 충분히 크다는 조건을 충족하여야 한다. 즉, 카메라에서 촬영된 영상은 디지털화 되어 있고, 일정한 크기를 갖는 각각의 화소 단위로 대상의 기준점을 정할 수 있으며, 이러한 카메라 자체의 오차, 주행시 발생하는 진동에 의한 오차 등을 고려하면 카메라 간의 거리(d)가 충분히 커야 먼 거리까지 측정이 가능하고 측정된 거리의 정확도도 높아질 수 있다.Referring to FIG. 9 , in the case of stereo vision, a condition that the distance (width) between two cameras is sufficiently large must be satisfied in order to measure the distance to the vehicle 110 having a long distance. That is, the image taken by the camera is digitized, and the reference point of the target can be determined in units of each pixel having a certain size. When d) is large enough, it is possible to measure up to a long distance and to increase the accuracy of the measured distance.

그림 (a)와 같이, 단일 주행에서는 여러 번 관측하더라도 관측각도의 차이가 크게 발생하지 않으며, 주행속도가 높다면 충분한 관측을 하지 못하고 통과할 가능성이 높다. 또한, 주행 당시의 날씨(예를 들어, 강우, 강설, 역광, 야간 등)의 영향을 받아 관측이 되지 않을 가능성도 존재한다.As shown in Figure (a), in a single driving, the difference in observation angle does not occur much even if several observations are made. In addition, there is a possibility that observation may not be possible due to the influence of the weather at the time of driving (eg, rain, snow, backlight, night, etc.).

그림 (b)와 같이, 다수 차량(110)에 장착된 카메라에서 다수의 관측을 수집하면 넓은 관측 각도를 확보할 수 있고, 적합한 날씨 조건과 주행속도 등 적합한 관측을 선별적으로 적용할 수 있어 측정의 정확도와 신뢰도를 높일 수 있다.As shown in Figure (b), if a large number of observations are collected from a camera mounted on a number of vehicles 110, a wide observation angle can be secured, and suitable observations such as suitable weather conditions and driving speed can be selectively applied for measurement. can increase the accuracy and reliability of

도 10을 참조하면, 배치 추정 장치(130)는 데이터 수집부(210)를 통해 다수 차량(110)에 의한 다중 관측을 통해 관측 데이터를 수집할 수 있다. 이때, 관측 데이터는 적어도 하나의 이미지, 해당 이미지에 부여되는 관측번호, 해당 차량(110)의 위치와 주행방향 및 시간을 포함할 수 있다. 데이터 수집부(210)는 각각의 차량(110)들로부터 무선통신 또는 저장매체의 복사 등의 방법을 통해 관측 데이터를 수집할 수 있고, 수집된 관측 데이터들은 데이터베이스(150)에 저장하여 보관할 수 있다. 이후, 배치 추정 장치(130)는 데이터 분석부(230)를 통해 수집된 관측 데이터에 대한 분석을 통해 도로시설물을 식별하고 해당 위치를 결정할 수 있으며, 이를 통해 도로시설물의 교체, 이동 및 신규 설치 등을 효과적으로 검출할 수 있다.Referring to FIG. 10 , the arrangement estimating apparatus 130 may collect observation data through multiple observations by multiple vehicles 110 through the data collection unit 210 . In this case, the observation data may include at least one image, an observation number assigned to the image, and the location, driving direction, and time of the vehicle 110 . The data collection unit 210 may collect observation data from each vehicle 110 through wireless communication or copying of a storage medium, and the collected observation data may be stored and stored in the database 150 . . Thereafter, the arrangement estimating device 130 may identify the road facility through analysis of the observation data collected through the data analysis unit 230 and determine the corresponding location, and through this, the replacement, movement, and new installation of the road facility, etc. can be effectively detected.

도 12 및 13은 본 발명에 따른 좌표계 변환 과정을 설명하는 도면이다.12 and 13 are diagrams for explaining a coordinate system transformation process according to the present invention.

도 12 및 13을 참조하면, 카메라의 관측은 차량(110)을 기준으로 하는 지역좌표계(local coordinate system)에서 이루어지며, 통상 차량(110)의 진행방향은 Z축, 측면 방향은 X축, 위쪽 방향은 Y 축에 대응될 수 있다.12 and 13 , the observation of the camera is made in a local coordinate system with respect to the vehicle 110 , and in general, the traveling direction of the vehicle 110 is the Z-axis, the lateral direction is the X-axis, and the upper The direction may correspond to the Y axis.

즉, 카메라가 장착된 위치가 원점이 되며, 카메라는 높이 h에 장착되고 카메라의 센서면은 진행방향 Z축과 수직으로 형성될 수 있다. 이와 같은 조건에서, 객체의 한 점 (X(l), Y(l), Z(l))이 영상의 한점(x, y)에 맺히게 되면 카메라를 통해 해당 객체를 관측할 수 있다. 도 12에서, 3D 공간의 좌표는 대문자, 영상 좌표는 소문자로 나타내며, 위첨자 (l)은 지역좌표계를 의미한다.That is, the position at which the camera is mounted becomes the origin, the camera is mounted at the height h, and the sensor surface of the camera may be formed perpendicular to the moving direction Z-axis. Under such conditions, when a point (X (l) , Y (l) , Z (l) ) of an object is focused on a point (x, y) of an image, the object can be observed through the camera. In FIG. 12 , coordinates in 3D space are indicated by uppercase letters, image coordinates by lowercase letters, and a superscript (l) indicates a local coordinate system.

예를 들어, 카메라를 통해 촬영된 전방 영상의 중심을 기준으로 설명하면, 카메라의 초점거리 λ(lambda, focal length)를 기초로 렌즈의 공식에 따라 고정객체의 위치 (x, y)는 다음의 수학식 1과 같이 표현될 수 있다.For example, if we explain based on the center of the front image taken through the camera, the position (x, y) of the fixed object is as follows according to the lens formula based on the focal length λ (lambda, focal length) of the camera. It can be expressed as Equation (1).

[수학식 1][Equation 1]

Figure 112021063914202-pat00003
Figure 112021063914202-pat00003

또한, 상기의 수학식 1을 변형하면 다음의 수학식 2와 같이 3차원 공간에서의 직선 방정식으로 표현될 수 있다.In addition, by modifying Equation 1 above, it can be expressed as a linear equation in a three-dimensional space as shown in Equation 2 below.

[수학식 2][Equation 2]

Figure 112021063914202-pat00004
Figure 112021063914202-pat00004

이때, 국소적으로 지표면을 평면으로 간주할 수 있으므로 GPS의 위도, 경도, 고도를 3축에 대응되는 전역좌표계(global coordinate system)로 적용할 수 있다.In this case, since the earth's surface can be locally regarded as a plane, the latitude, longitude, and altitude of GPS can be applied as a global coordinate system corresponding to the three axes.

예를 들어, 차량(110)의 GPS 위치를 (X0, Y0, Z0)라고 하고, 진행방향을 (U, V, W)라고 하면, U, V, W는 각각 Z(l), X(l), Y(l)에 대응될 수 있으며, 전역좌표계와 이루는 각을 이용하여 좌표변환을 통해 전역좌표계에서의 직선 방정식으로 표현할 수 있다. 또한, 각각의 차량 좌표계(즉, 지역좌표계)에서 수행된 관측들은 통일된 전역좌표계에서의 다수 관측 결과로 변환될 수 있다.For example, if the GPS position of the vehicle 110 is (X 0 , Y 0 , Z 0 ) and the traveling direction is (U, V, W), U, V, W are each Z (l) , It can correspond to X (l) and Y (l) , and can be expressed as a linear equation in the global coordinate system through coordinate transformation using an angle formed with the global coordinate system. In addition, observations performed in each vehicle coordinate system (ie, local coordinate system) may be converted into multiple observation results in a unified global coordinate system.

보다 구체적으로, 상기의 수학식 2는 다음의 수학식 3과 같이 직선의 일반식으로 표현될 수 있다.More specifically, Equation 2 above can be expressed as a general expression of a straight line as in Equation 3 below.

[수학식 3][Equation 3]

Figure 112021063914202-pat00005
Figure 112021063914202-pat00005

또한, 상기의 수학식 3은 다음의 수학식 4와 같이 전역좌표계에서의 직선의 일반식으로 변환될 수 있다.In addition, Equation 3 above can be converted into a general expression of a straight line in the global coordinate system as in Equation 4 below.

[수학식 4][Equation 4]

Figure 112021063914202-pat00006
Figure 112021063914202-pat00006

여기에서, (X0, Y0, Z0)는 카메라 높이를 고려한 차량(110)의 위치에 해당할 수 있다. 상기의 수학식 4를 기초로 다중(n) 관측 각각의 직선의 방정식에 관한 다음의 수학식 5가 획득될 수 있다.Here, (X0, Y0, Z0) may correspond to the position of the vehicle 110 in consideration of the camera height. Based on Equation 4 above, the following Equation 5 regarding the equation of a straight line for each of the multiple (n) observations can be obtained.

[수학식 5][Equation 5]

Figure 112021063914202-pat00007
Figure 112021063914202-pat00007

도 14 및 15는 본 발명에 따른 데이터 선별 과정을 설명하는 도면이다.14 and 15 are diagrams for explaining a data selection process according to the present invention.

도 14를 참조하면, 배치 추정 장치(130)는 관측 조건 및 관측 특성에 따라 관측 데이터에 대한 선별 동작을 수행할 수 있다. 예를 들어, 그림 (a)에서 동일한 방향 벡터를 갖는 관측은 근접한 위치라면 사실상 동일한 관측에 해당할 수 있으며, 수치적 해법(numerical analysis)에서 행렬식(determinant)를 0으로 만들어 해(solution)을 불안정하게 하므로 제거될 필요가 있다.Referring to FIG. 14 , the arrangement estimating apparatus 130 may perform a selection operation on observed data according to observation conditions and observation characteristics. For example, in Fig. (a), observations with the same direction vector can correspond to virtually identical observations if they are located close to each other, and in numerical analysis, the determinant is set to 0 to make the solution unstable. so it needs to be removed.

그림 (b)에서 근접한 위치에서 상이한 방향벡터를 갖는 관측들 중에는 큰 오차를 갖는 관측이 포함되어 있을 수 있다. 그림 (c)에서 (1), (2)와 같이 관측점들이 떨어져 있고 방향벡터가 다른 경우가 바람직하며, 이 때 (3)과 같은 관측은 이후 과정에서 제거될 수 있다.In Figure (b), observations with large errors may be included among observations with different direction vectors at adjacent positions. In Figure (c), it is desirable that the observation points are separated and the direction vectors are different as shown in (1) and (2).

도 15를 참조하면, 그림 (a)는 선별되기 전의 모든 관측을 도시한 것이고, 그림 (b)는 관측지점 간의 거리가 기준값 이상이 되도록 선별한 것을 도시한 것이며, 그림 (c)는 추가적으로 관측 방향 벡터의 방향이 동일한 것을 제거한 것을 도시한 것이다.15, Figure (a) shows all observations before selection, Figure (b) shows selection so that the distance between observation points is greater than or equal to a reference value, Figure (c) is an additional observation direction It is shown that the vector direction is removed.

이렇게 선별된 관측들은 다음의 수학식 6과 같이 서로 간의 거리와 방향벡터 차이 조건을 충족해야 하며, 이렇게 선별된 관측의 수(N)는 최소기준(Nmin) 이상이어야 한다The observations selected in this way must satisfy the conditions for distance and direction vector difference between each other as shown in Equation 6 below, and the number of observations selected in this way (N) must be equal to or greater than the minimum standard (N min )

[수학식 6][Equation 6]

Figure 112021063914202-pat00008
Figure 112021063914202-pat00008

Figure 112021063914202-pat00009
Figure 112021063914202-pat00009

for any i, j in N, where N≥Nmin for any i, j in N, where N≥N min

도 16은 본 발명에 따른 위치 결정 방법을 설명하는 도면이다.16 is a view for explaining a positioning method according to the present invention.

도 16을 참조하면, 그림 (a)는 직선 외부의 한 점에서 직선까지의 거리를 나타낸 것으로, 거리 D는 다음의 수학식 7과 같은 벡터식으로 표현될 수 있다.Referring to FIG. 16 , the figure (a) shows the distance from a point outside the straight line to the straight line, and the distance D can be expressed as a vector expression as in Equation 7 below.

[수학식 7][Equation 7]

Figure 112021063914202-pat00010
Figure 112021063914202-pat00010

또한, 거리 D의 제곱은 X, Y, Z에 대한 2차식으로 다음의 수학식 8과 같이 표현될 수 있다.In addition, the square of the distance D can be expressed as a quadratic equation for X, Y, and Z as shown in Equation 8 below.

[수학식 8][Equation 8]

Figure 112021063914202-pat00011
Figure 112021063914202-pat00011

또한, 모든 관측 전체에 대한 거리 제곱의 합은 다음의 수학식 9와 같이 X, Y, Z에 대한 혼합 2차식으로 표현될 수 있다.Also, the sum of squared distances for all observations can be expressed as a mixed quadratic expression for X, Y, and Z as in Equation 9 below.

[수학식 9][Equation 9]

Figure 112021063914202-pat00012
Figure 112021063914202-pat00012

또한, 상기의 수학식 9가 최소가 되는 경우는 다음과 같이 X, Y, Z에 대한 편미분이 0이 되는 경우이다. 2차식의 미분은 1차식이 되므로, 그 결과는 X, Y, Z에 대한 선형 방정식으로 표현될 수 있고, 다음의 수학식 10과 같이 선형 대수의 수치해석적 방법을 적용하여 풀 수 있다.In addition, the case where the above Equation 9 becomes the minimum is the case where the partial derivatives with respect to X, Y, and Z become 0 as follows. Since the derivative of a quadratic equation becomes a linear equation, the result can be expressed as a linear equation for X, Y, and Z, and can be solved by applying a numerical method of linear algebra as shown in Equation 10 below.

[수학식 10][Equation 10]

Figure 112021063914202-pat00013
Figure 112021063914202-pat00013

다만, 어떤 관측은 차량의 고속 주행에 의한 시간 지연 오차, 급경로 변경, 주행 중의 충격(과속방지턱) 등으로 큰 오차를 내포하고 있을 수 있으므로, 다음의 수학식 11과 같은 관측 검증을 통해 제거될 수 있다. 이 과정에서 다른 관측들과 동질인 관측 데이터를 인라이어(inlier), 동떨어진 데이터를 아웃라이어(outlier)라고 한다. 아웃라이어는 추정된 객체 위치에서부터의 관측선까지의 거리가 기준 이상 큰 관측이며, 아웃라이어를 제외하고 다시 객체 위치를 산출하되, Nmin개의 관측이 모두 인라이어가 되면 객체의 위치가 결정될 수 있다.However, since some observations may contain large errors due to time delay errors due to high-speed driving of the vehicle, sudden route changes, shocks (speed bumps) during driving, etc. can In this process, observation data that is homogeneous with other observations is called an inlier, and data that is separated from other observations is called an outlier. An outlier is an observation in which the distance from the estimated object position to the observation line is greater than the standard, and the object position is calculated again except for the outlier. When all N min observations are inliers, the object position can be determined.

[수학식 11][Equation 11]

Figure 112021063914202-pat00014
Figure 112021063914202-pat00014

도 18은 본 발명에 따른 신호등 위치 결정 및 배치정보 판단 방법을 설명하는 도면이다.18 is a view for explaining a method of determining a location of a traffic light and determining arrangement information according to the present invention.

도 18을 참조하면, 배치 추정 장치(130)는 객체 위치 결정부(270)를 통해 관측 데이터에 대한 분석 결과로서 적어도 하나의 고정객체에 관한 객체 위치를 결정할 수 있다. 배치 추정 장치(130)는 식별된 고정객체가 신호등에 해당하는 경우에는 추가 관측을 통해 신호등의 배치정보를 획득할 수 있다.Referring to FIG. 18 , the arrangement estimating apparatus 130 may determine an object position with respect to at least one fixed object as a result of analysis of the observation data through the object position determiner 270 . When the identified fixed object corresponds to a traffic light, the arrangement estimating apparatus 130 may acquire arrangement information of the traffic light through additional observation.

즉, 배치 추정 장치(130)는 신호등 배치정보 결정부(290)를 통해 관측 데이터를 기초로 해당 신호등의 유형 및 램프 개수를 추정할 수 있다. 여기에서, 신호등의 유형은 신호등의 가로 및 세로의 크기를 기초로 가로가 더 큰 가로 신호등과 세로가 더 큰 세로 신호등을 포함할 수 있다. 또한, 램프의 개수는 신호등의 가로 및 세로의 비율에 따라 추정될 수 있다.That is, the arrangement estimating apparatus 130 may estimate the type of the corresponding traffic light and the number of lamps based on the observation data through the traffic light arrangement information determiner 290 . Here, the type of the traffic light may include a horizontal traffic light having a larger width and a vertical traffic light having a larger length based on the horizontal and vertical sizes of the traffic light. In addition, the number of lamps may be estimated according to the ratio of the width and length of the traffic light.

또한, 신호등 배치정보 결정부(290)는 관측 데이터에서 해당 신호등의 램프 별로 점등 상황을 검출하여 매칭할 수 있다. 즉, 신호등 배치정보 결정부(290)는 신호등의 램프에 대한 점등 상황이 검출된 경우 해당 점등 상황이 어떤 램프의 점등인지를 결정할 수 있다.In addition, the traffic light arrangement information determining unit 290 may detect and match the lighting conditions for each lamp of the corresponding traffic light from the observation data. That is, when the lighting condition of the lamp of the traffic light is detected, the traffic light arrangement information determining unit 290 may determine which lamp is turned on in the corresponding lighting condition.

또한, 신호등 배치정보 결정부(290)는 신호등의 모든 램프에 대해 점등 상황에 관한 매칭이 완료된 경우 해당 신호등의 램프 구성과 배치를 최종적으로 결정할 수 있다. 예를 들어, 도 18에서, N = 6이 되고 관측이 모두 유효하면 배치 추정 장치(130)는 신호등의 위치를 결정할 수 있다. 그러나, 추정된 램프 개수만큼 점등 상황에 대한 관측이 완료되지 않은 경우이므로 배치 추정 장치(130)는 3번째 램프의 색을 결정할 수 없다.In addition, the traffic light arrangement information determining unit 290 may finally determine the lamp configuration and arrangement of the traffic light when matching with respect to lighting conditions for all lamps of the traffic light is completed. For example, in FIG. 18 , when N = 6 and all observations are valid, the arrangement estimator 130 may determine the location of the traffic light. However, since the observation of the lighting condition by the estimated number of lamps is not completed, the arrangement estimating apparatus 130 cannot determine the color of the third lamp.

따라서, 배치 추정 장치(130)는 모든 램프에 대한 매칭이 완료될 때까지 동작을 반복할 수 있으며, 9번째 관측에서 3번째 램프의 점등 상황을 매칭하여 최종적으로 신호등의 형태(즉, 램프 구성과 배치)를 확정할 수 있다. 이후, 배치 추정 장치(130)는 주기적인 관측을 통해 신호등의 교체나 배치 변경 등을 검출할 수 있다.Accordingly, the arrangement estimator 130 may repeat the operation until matching for all lamps is completed, and finally match the lighting condition of the third lamp in the ninth observation to finally form a traffic light (that is, the lamp configuration and placement) can be confirmed. Thereafter, the arrangement estimating apparatus 130 may detect replacement of traffic lights or change of arrangement through periodic observation.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art can variously modify and change the present invention within the scope without departing from the spirit and scope of the present invention as set forth in the claims below. You will understand that it can be done.

100: 배치 추정 시스템
110: 차량 130: 배치 추정 장치
150: 데이터베이스
210: 데이터 수집부 230: 데이터 전처리부
250: 데이터 분석부 270: 객체 위치 결정부
290: 신호등 배치정보 결정부
410: 도로시설물
100: batch estimation system
110: vehicle 130: placement estimation device
150: database
210: data collection unit 230: data pre-processing unit
250: data analysis unit 270: object positioning unit
290: traffic light arrangement information determining unit
410: road facilities

Claims (8)

복수의 차량들 각각의 주행 과정에서 도로 인근의 고정객체에 관한 관측 데이터를 수집하는 단계;
상기 관측 데이터를 상기 고정객체 별로 정의된 분류계층에 따라 분류하는 단계;
상기 관측 데이터를 동일 분류계층 내에서 위치를 기준으로 클러스터링 하는 단계;
상기 관측 데이터를 관측 조건과 관측 특성에 따라 순차적으로 선별하는 단계;
상기 관측 데이터에 수치해석 모델을 적용하여 분석하는 단계;
상기 분석의 결과를 기초로 관측 신뢰도를 검증하는 단계;
상기 검증에 통과하면 적어도 하나의 상기 고정객체에 관한 객체 위치를 결정하는 단계;
고정객체가 신호등에 해당하는 경우 상기 관측 데이터를 기초로 해당 신호등의 유형 및 램프 개수를 추정하는 단계;
상기 관측 데이터에서 상기 해당 신호등의 램프 별로 점등 상황을 검출하여 매칭하는 단계; 및
상기 매칭에 성공한 경우 상기 해당 신호등의 램프 구성과 배치를 결정하는 단계;를 포함하되,
상기 분석하는 단계는 상기 고정객체의 위치좌표를 정의하고 상기 위치좌표를 기준으로 방향벡터와의 거리에 관한 벡터식을 생성하는 단계; 상기 벡터식을 상기 위치좌표에 관한 2차식으로 변환하고 상기 2차식을 상기 관측 데이터에 적용하여 상기 위치좌표에 관한 혼합 2차식을 생성하는 단계; 및 상기 혼합 2차식을 기초로 상기 위치좌표를 산출하는 단계를 포함하고,
상기 검증하는 단계는 상기 관측 데이터에서 상기 산출된 위치좌표까지의 거리가 검증기준을 초과하는 아웃라이어(outlier)를 검출하여 제거하는 단계를 포함하는 것을 특징으로 하는 다중 관측정보를 이용한 신호등 배치정보 추정 방법.
collecting observation data about a fixed object near a road in the driving process of each of the plurality of vehicles;
classifying the observation data according to a classification layer defined for each fixed object;
clustering the observation data based on a location within the same classification layer;
sequentially selecting the observation data according to observation conditions and observation characteristics;
analyzing the observation data by applying a numerical analysis model;
verifying observation reliability based on a result of the analysis;
determining an object position with respect to the at least one fixed object if the verification is passed;
estimating the type of the corresponding traffic light and the number of lamps based on the observation data when the fixed object corresponds to a traffic light;
detecting and matching the lighting conditions for each lamp of the corresponding traffic light from the observation data; and
When the matching is successful, determining the lamp configuration and arrangement of the corresponding traffic light;
The analyzing may include defining the positional coordinates of the fixed object and generating a vector expression for a distance from a direction vector based on the positional coordinates; converting the vector equation into a quadratic equation relating to the position coordinates and applying the quadratic equation to the observation data to generate a mixed quadratic equation relating to the position coordinates; and calculating the position coordinates based on the mixed quadratic formula,
The verifying step includes detecting and removing an outlier in which the distance from the observation data to the calculated location coordinate exceeds a verification criterion. method.
제1항에 있어서, 상기 수집하는 단계는
상기 복수의 차량들 각각에 설치되는 적어도 하나의 카메라를 통해 해당 차량의 전방 영상을 촬영하는 단계;
상기 전방 영상으로부터 상기 고정객체를 포함하는 적어도 하나의 이미지를 추출하는 단계; 및
상기 적어도 하나의 이미지, 해당 이미지에 부여되는 관측번호, 상기 해당 차량의 위치와 주행방향 및 시간을 포함하는 관측 데이터를 상기 복수의 차량들로부터 수신하는 단계를 포함하는 것을 특징으로 하는 다중 관측정보를 이용한 신호등 배치정보 추정 방법.
According to claim 1, wherein the collecting step
photographing a front image of the vehicle through at least one camera installed in each of the plurality of vehicles;
extracting at least one image including the fixed object from the front image; and
Multiple observation information comprising the step of receiving observation data including the at least one image, an observation number assigned to the image, and the location, driving direction, and time of the corresponding vehicle from the plurality of vehicles A method of estimating traffic light arrangement information.
제1항에 있어서, 상기 선별하는 단계는
상기 분류계층에 대한 일치도가 임계값 이하인 경우, 해당 관측 시점이 특정 시간 범위에 해당하는 경우 및 상기 해당 관측 시점의 날씨가 특정 조건을 충족하는 경우 중 적어도 하나의 관측 조건에 해당하면 상기 관측 데이터에서 제거하는 단계;
상기 관측 데이터에 대해 관측지점 간의 거리가 기 설정된 임계거리 미만인 경우를 제거하는 단계; 및
상기 관측 데이터에 대해 방향벡터 간의 각도가 기 설정된 임계각도 미만인 경우를 제거하는 단계를 포함하는 것을 특징으로 하는 다중 관측정보를 이용한 신호등 배치정보 추정 방법.
The method of claim 1, wherein the selecting comprises:
If the degree of agreement for the classification layer is less than or equal to a threshold value, when the corresponding observation point corresponds to a specific time range, and when the weather at the corresponding observation point meets the specific condition, at least one observation condition is obtained from the observation data. removing;
removing a case in which a distance between observation points for the observation data is less than a preset threshold distance; and
and removing a case in which an angle between direction vectors with respect to the observation data is less than a preset critical angle.
삭제delete 삭제delete 제1항에 있어서, 상기 객체 위치를 결정하는 단계는
상기 검증에 통과한 관측 데이터가 소정의 개수만큼 누적된 경우 상기 객체 위치로서 확정하는 단계를 포함하는 것을 특징으로 하는 다중 관측정보를 이용한 신호등 배치정보 추정 방법.
The method of claim 1, wherein determining the position of the object comprises:
and determining as the location of the object when a predetermined number of observation data that have passed the verification are accumulated.
제1항에 있어서, 상기 추정하는 단계는
상기 관측 데이터로부터 상기 해당 신호등에 관한 관심영역(ROI)를 검출하는 단계; 및
상기 관심영역의 가로 및 세로 간의 비교 및 비율에 따라 상기 유형 및 램프 개수를 각각 결정하는 단계를 포함하는 것을 특징으로 하는 다중 관측정보를 이용한 신호등 배치정보 추정 방법.
The method of claim 1, wherein the estimating comprises:
detecting a region of interest (ROI) for the corresponding traffic light from the observation data; and
and determining the type and the number of lamps, respectively, according to a comparison and a ratio between the width and length of the region of interest.
제1항에 있어서, 상기 램프 구성과 배치를 결정하는 단계는
상기 해당 신호등의 모든 램프에 대해 상기 점등 상황의 매칭이 완료된 경우 상기 매칭의 성공을 결정하는 단계를 포함하는 것을 특징으로 하는 다중 관측정보를 이용한 신호등 배치정보 추정 방법.
The method of claim 1, wherein determining the lamp configuration and arrangement comprises:
and determining the success of the matching when matching of the lighting conditions for all lamps of the corresponding traffic light is completed.
KR1020210071685A 2021-06-02 2021-06-02 Method for estimating traffic light arrangement information using multiple observation information KR102368262B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210071685A KR102368262B1 (en) 2021-06-02 2021-06-02 Method for estimating traffic light arrangement information using multiple observation information
PCT/KR2022/006636 WO2022255678A1 (en) 2021-06-02 2022-05-10 Method for estimating traffic light arrangement information by using multiple observation information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210071685A KR102368262B1 (en) 2021-06-02 2021-06-02 Method for estimating traffic light arrangement information using multiple observation information

Publications (1)

Publication Number Publication Date
KR102368262B1 true KR102368262B1 (en) 2022-03-03

Family

ID=80818697

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210071685A KR102368262B1 (en) 2021-06-02 2021-06-02 Method for estimating traffic light arrangement information using multiple observation information

Country Status (2)

Country Link
KR (1) KR102368262B1 (en)
WO (1) WO2022255678A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022255678A1 (en) * 2021-06-02 2022-12-08 (주)에이아이매틱스 Method for estimating traffic light arrangement information by using multiple observation information

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017009934A1 (en) * 2015-07-13 2017-01-19 日産自動車株式会社 Traffic light recognition device and traffic light recognition method
KR20170058640A (en) 2015-11-19 2017-05-29 주식회사 만도 Traffic signs recognition apparatus and method for providing limiting speed of the same
KR20180031892A (en) * 2016-09-20 2018-03-29 (주) 큐알온텍 Apparatus and method for controlling autonomous vehicle
KR101934325B1 (en) * 2014-12-10 2019-01-03 삼성에스디에스 주식회사 Method and apparatus for classifying objects
KR102103834B1 (en) * 2019-11-12 2020-04-23 한국도로공사 Object change detection system for high definition electronic map upgrade and method thereof

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102331000B1 (en) * 2019-10-01 2021-11-26 (주)오토노머스에이투지 Method and computing device for specifying traffic light of interest in autonomous driving system
KR102368262B1 (en) * 2021-06-02 2022-03-03 (주)에이아이매틱스 Method for estimating traffic light arrangement information using multiple observation information

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101934325B1 (en) * 2014-12-10 2019-01-03 삼성에스디에스 주식회사 Method and apparatus for classifying objects
WO2017009934A1 (en) * 2015-07-13 2017-01-19 日産自動車株式会社 Traffic light recognition device and traffic light recognition method
KR20170058640A (en) 2015-11-19 2017-05-29 주식회사 만도 Traffic signs recognition apparatus and method for providing limiting speed of the same
KR20180031892A (en) * 2016-09-20 2018-03-29 (주) 큐알온텍 Apparatus and method for controlling autonomous vehicle
KR102103834B1 (en) * 2019-11-12 2020-04-23 한국도로공사 Object change detection system for high definition electronic map upgrade and method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022255678A1 (en) * 2021-06-02 2022-12-08 (주)에이아이매틱스 Method for estimating traffic light arrangement information by using multiple observation information

Also Published As

Publication number Publication date
WO2022255678A1 (en) 2022-12-08

Similar Documents

Publication Publication Date Title
CN112292711B (en) Associating LIDAR data and image data
CN112396650B (en) Target ranging system and method based on fusion of image and laser radar
KR102267562B1 (en) Device and method for recognition of obstacles and parking slots for unmanned autonomous parking
CN111801711A (en) Image annotation
KR20190082065A (en) Method and apparatus for processing point cloud data
US20050232463A1 (en) Method and apparatus for detecting a presence prior to collision
Labayrade et al. In-vehicle obstacles detection and characterization by stereovision
CN110379168B (en) Traffic vehicle information acquisition method based on Mask R-CNN
US20210389133A1 (en) Systems and methods for deriving path-prior data using collected trajectories
CN108645375B (en) Rapid vehicle distance measurement optimization method for vehicle-mounted binocular system
CN111986128A (en) Off-center image fusion
KR20170104287A (en) Driving area recognition apparatus and method for recognizing driving area thereof
CN116685874A (en) Camera-laser radar fusion object detection system and method
EP2813973B1 (en) Method and system for processing video image
CN113330495A (en) Clustering event information for vehicle navigation
JP4940177B2 (en) Traffic flow measuring device
JP4937844B2 (en) Pedestrian detection device
EP3364336A1 (en) A method and apparatus for estimating a range of a moving object
CN116830164A (en) LiDAR decorrelated object detection system and method
KR102368262B1 (en) Method for estimating traffic light arrangement information using multiple observation information
EP3410345B1 (en) Information processing apparatus and non-transitory recording medium storing thereon a computer program
KR102414632B1 (en) Method for determining the location of a fixed object using multiple observation information
CN114118247A (en) Anchor-frame-free 3D target detection method based on multi-sensor fusion
KR102003387B1 (en) Method for detecting and locating traffic participants using bird&#39;s-eye view image, computer-readerble recording medium storing traffic participants detecting and locating program
JP7454685B2 (en) Detection of debris in vehicle travel paths

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant