KR20230032335A - Information analysis system using image and method thereof - Google Patents

Information analysis system using image and method thereof Download PDF

Info

Publication number
KR20230032335A
KR20230032335A KR1020210115076A KR20210115076A KR20230032335A KR 20230032335 A KR20230032335 A KR 20230032335A KR 1020210115076 A KR1020210115076 A KR 1020210115076A KR 20210115076 A KR20210115076 A KR 20210115076A KR 20230032335 A KR20230032335 A KR 20230032335A
Authority
KR
South Korea
Prior art keywords
vehicle
image
information
analysis system
data processing
Prior art date
Application number
KR1020210115076A
Other languages
Korean (ko)
Other versions
KR102595467B1 (en
Inventor
심지우
Original Assignee
렉스젠(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 렉스젠(주) filed Critical 렉스젠(주)
Priority to KR1020210115076A priority Critical patent/KR102595467B1/en
Publication of KR20230032335A publication Critical patent/KR20230032335A/en
Application granted granted Critical
Publication of KR102595467B1 publication Critical patent/KR102595467B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • G08G1/0175Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
    • G06Q50/40
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Abstract

An information analysis system using an image according to one embodiment disclosed herein may include a data processing unit configured to obtain identification information of a vehicle entering a reference area, adjust an irradiation angle of light by controlling an illumination unit based on the identification information of the vehicle, and determine whether the vehicle violates a traffic law by analyzing an image taken with light from the illumination unit when the vehicle passes through the reference area.

Description

영상을 이용한 정보 분석 시스템 및 그에 관한 방법{INFORMATION ANALYSIS SYSTEM USING IMAGE AND METHOD THEREOF}Information analysis system using image and method thereof {INFORMATION ANALYSIS SYSTEM USING IMAGE AND METHOD THEREOF}

본 문서에 개시된 실시예들은 영상을 이용한 정보 분석 시스템 및 그에 관한 방법에 관한 것이다.Embodiments disclosed in this document relate to an information analysis system using an image and a method therefor.

교통 정보의 분석을 위해 카메라를 통해 도로를 촬영한 영상을 분석하는 기술이 사용되고 있다. 예를 들면, 이러한 영상 분석 기술은 교통 신호 위반 차량, 과속 차량, 주차 위반 차량 등 각종 교통 법규를 위반한 차량의 영상을 촬영하고, 촬영된 영상에 기반하여 단속을 실시하도록 할 수 있다.For the analysis of traffic information, a technology for analyzing an image of a road captured by a camera is being used. For example, such image analysis technology may capture images of vehicles violating various traffic laws, such as traffic violation vehicles, speeding vehicles, and parking violation vehicles, and conduct enforcement based on the captured images.

한편, 도로에서 발생되는 교통 사고 또는 급정거 시에 안전 벨트의 착용 여부에 따라 사고에 따른 위험도가 극명하게 달라질 수 있어, 운전자 또는 탑승자의 안전 벨트 착용을 유도하는 것은 중요하다. 그러나, 오늘날에는 차량의 유리창의 코팅 등으로 인하여 단순히 카메라로 차량 영상을 촬영하여 안전 벨트 착용 여부를 판단하기에는 무리가 있다.On the other hand, since the degree of risk in an accident can be significantly different depending on whether a seat belt is fastened during a traffic accident or a sudden stop on the road, it is important to induce a driver or occupant to wear a seat belt. However, today, it is unreasonable to determine whether a seat belt is worn by simply taking a vehicle image with a camera due to the coating of a vehicle window or the like.

따라서, 영상 분석 기술에 기반하여 운전자와 탑승자의 안전 벨트 착용 여부를 보다 확실하고 용이하게 판단하는 기술이 요구된다.Accordingly, there is a need for a technology for more reliably and easily determining whether a driver and a passenger are wearing seat belts based on image analysis technology.

본 문서에 개시된 실시예들은 차량의 종류나 사양에 따라 서로 다른 전면 유리의 각도나 높이를 고려하여 차량 영상 촬영을 위한 조명의 광 조사 각도를 제어함으로써, 차량의 운전자와 탑승자의 안전 벨트 착용 여부를 보다 정확하고 용이하게 판단 가능한 차량 영상을 획득할 수 있는 정보 분석 시스템 및 그에 관한 방법을 제공하는 것을 일 목적으로 한다.Embodiments disclosed in this document control whether or not the driver and occupants of the vehicle are wearing seat belts by controlling the light irradiation angle of the light for capturing a vehicle image in consideration of the angle or height of different windshields according to the type or specification of the vehicle. An object of the present invention is to provide an information analysis system capable of acquiring a vehicle image that can be more accurately and easily determined and a method related thereto.

또한, 본 문서에 개시된 실시예들은 영상에서 안전벨트 미검지 시의 원인이 안전벨트 미착용인지, 시스템 오류인지, 아니면 환경적 요인(예: 태양의 위치, 차량의 전면 유리 코팅 필름 종류)에 의한 차량 영상 자체의 문제인지를 판단함으로써, 안전 벨트 착용 여부 판단을 위한 영상 분석 시 신뢰도를 확보할 수 있는 영상을 이용한 정보 분석 시스템 및 그에 관한 방법을 제공하는 것을 일 목적으로 한다.In addition, the embodiments disclosed in this document may be caused by not wearing a seat belt, a system error, or environmental factors (e.g., the position of the sun, the type of windshield coating film of the vehicle) when the seat belt is not detected in the image. An object of the present invention is to provide an information analysis system using an image that can secure reliability when analyzing an image for determining whether a seat belt is worn by determining whether the image itself is a problem, and a method related thereto.

본 문서에 개시된 실시예들의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재들로부터 당업자에게 명확하게 이해될 수 있을 것이다.Technical problems of the embodiments disclosed in this document are not limited to the above-mentioned technical problems, and other technical problems not mentioned above will be clearly understood by those skilled in the art from the description below.

본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템은 기준 영역에 진입하는 차량의 식별 정보를 획득하고, 상기 차량의 식별 정보에 기반하여 조명부를 제어함으로써 광의 조사 각도를 조정하고, 상기 차량이 상기 기준 영역을 통과할 때 상기 조명부의 광과 함께 촬영된 영상을 분석함으로써 상기 차량의 교통 법규 위반 여부를 판단하도록 설정된 데이터 처리부를 포함할 수 있다. An information analysis system using an image according to an embodiment disclosed in this document acquires identification information of a vehicle entering a reference area, adjusts an irradiation angle of light by controlling a lighting unit based on the identification information of the vehicle, and adjusts an irradiation angle of light to the vehicle. A data processing unit configured to determine whether the vehicle violates traffic laws by analyzing an image captured together with the light of the lighting unit when the vehicle passes through the reference area.

일 실시예에 따르면, 상기 데이터 처리부는 상기 차량의 식별 정보에 기반하여 상기 조명부에 포함되는 서로 다른 광 조사 각도를 갖는 복수의 광원 중 하나를 선택하도록 설정될 수 있다. According to an embodiment, the data processing unit may be configured to select one of a plurality of light sources included in the lighting unit and having different light irradiation angles based on the identification information of the vehicle.

일 실시예에 따르면, 상기 데이터 처리부는 상기 차량의 식별 정보와 매칭되는 상기 차량의 사양 정보를 획득하고, 상기 차량의 식별 정보에 기반하여 상기 조명부에 포함되는 서로 다른 광 조사 각도를 갖는 복수의 광원 중 하나를 선택하고, 상기 선택된 광원의 각도를 상기 차량의 사양 정보에 대응되도록 조정할 수 있다. According to an embodiment, the data processing unit obtains specification information of the vehicle that matches the vehicle identification information, and a plurality of light sources included in the lighting unit and having different light irradiation angles based on the vehicle identification information. One of them may be selected, and an angle of the selected light source may be adjusted to correspond to the specification information of the vehicle.

일 실시예에 따르면, 상기 차량의 식별 정보는 상기 차량의 차종 및 차량 번호 중 적어도 하나를 포함할 수 있다. According to an embodiment, the identification information of the vehicle may include at least one of a vehicle model and a license plate number of the vehicle.

일 실시예에 따르면, 상기 차량의 사양 정보는 상기 차량에 구비된 전면 유리의 각도에 관한 정보를 포함할 수 있다. According to an embodiment, the vehicle specification information may include information about an angle of a windshield provided in the vehicle.

일 실시예에 따르면, 상기 차량의 사양 정보는 상기 차량에 구비된 전면 유리의 높이에 관한 정보 또는 상기 차량의 크기에 관한 정보 중 적어도 하나를 포함할 수 있다. According to an embodiment, the vehicle specification information may include at least one of information about a height of a windshield provided in the vehicle and information about a size of the vehicle.

일 실시예에 따르면, 상기 데이터 처리부는 상기 차량이 상기 기준 영역을 통과하는 동안의 태양의 위치와 상기 차량으로 인해 생성된 그림자에 기반하여 상기 차량의 교통 법규 위반 여부를 판단 시 발생하는 오류의 원인을 판정할 수 있다. According to an embodiment, the data processing unit causes an error that occurs when determining whether the vehicle violates traffic laws based on the position of the sun while the vehicle passes the reference area and the shadow generated by the vehicle. can determine

일 실시예에 따르면, 영상을 이용한 정보 분석 시스템은 시간에 따른 태양의 위치 변화를 검출하는 센서부를 더 포함할 수 있다. According to one embodiment, the information analysis system using an image may further include a sensor unit that detects a change in position of the sun over time.

일 실시예에 따르면, 상기 데이터 처리부는 상기 차량의 영상을 이용하여 상기 차량에 마련된 필름의 종류를 판단하고, 상기 필름의 종류에 기반하여 오류의 원인을 판단할 수 있다. According to an embodiment, the data processing unit may determine the type of film provided in the vehicle using the image of the vehicle, and determine the cause of the error based on the type of film.

본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템의 동작 방법은 기준 영역에 진입하는 차량의 차량의 식별 정보를 획득하는 단계, 상기 차량의 식별 정보에 기반하여 조명부를 제어함으로써 광의 조사 각도를 조정하는 단계, 및 상기 차량이 상기 기준 영역을 통과할 때 상기 조명부의 광과 함께 촬영된 영상을 분석함으로써 상기 차량의 교통 법규 위반 여부를 판단하는 단계를 포함할 수 있다. A method of operating an information analysis system using an image according to an embodiment disclosed in this document includes obtaining vehicle identification information of a vehicle entering a reference area, and controlling a lighting unit based on the vehicle identification information to control an irradiation angle of light. and determining whether the vehicle violates traffic laws by analyzing an image captured together with the light of the lighting unit when the vehicle passes the reference area.

본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템 및 그에 관한 방법은 차량의 종류나 사양에 따라 서로 다른 전면 유리의 각도나 높이를 고려하여 차량 영상 촬영을 위한 조명의 광 조사 각도를 제어함으로써, 차량의 운전자와 탑승자의 안전 벨트 착용 여부를 보다 정확하고 용이하게 판단할 수 있다.An information analysis system and method using an image according to an embodiment disclosed in this document control the light irradiation angle of lighting for taking a vehicle image in consideration of the angle or height of different windshields according to the type or specification of the vehicle. By doing so, it is possible to more accurately and easily determine whether the driver and passengers of the vehicle are wearing seat belts.

또한, 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템 및 그에 관한 방법은 영상에서 안전벨트 미검지 시의 원인이 안전벨트 미착용인지, 시스템 오류인지, 아니면 환경적 요인에 의한 차량 영상 자체의 문제인지를 판단함으로써, 안전 벨트 착용 여부 판단을 위한 영상 분석 시 신뢰도를 확보할 수 있다.In addition, in the information analysis system and method using an image according to an embodiment disclosed in this document, the cause of seat belt non-detection in the image is whether the seat belt is not fastened, a system error, or the vehicle image itself due to environmental factors. Reliability can be secured when analyzing an image for determining whether a seat belt is worn or not by determining whether it is a problem of the seat belt.

또한, 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템 및 그에 관한 방법은 차량 및 보행자의 통행 정보, 교통 법규 위반 정보, 및 방범 정보 등을 수집함으로써 다양한 교통 관련 서비스를 제공할 수 있다. In addition, the information analysis system and method using an image according to an embodiment disclosed in this document can provide various traffic-related services by collecting traffic information of vehicles and pedestrians, traffic law violation information, and crime prevention information. .

도 1은 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템의 동작을 설명하기 위한 도면이다.
도 2는 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템의 구성을 나타내는 블록도이다.
도 3은 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템의 전체 동작을 나타내는 흐름도이다.
도 4는 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템의 오류 판정 동작을 나타내는 흐름도이다.
도 5는 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템에서 획득된 객체의 태양 위치 별 전면 유리 영상을 나타내는 도면이다.
도 6은 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템에서 획득된 객체의 필름 종류 별 전면 유리 영상을 나타내는 도면이다.
도 7은 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 방법을 나타내는 흐름도이다.
1 is a diagram for explaining the operation of an information analysis system using an image according to an embodiment disclosed in this document.
2 is a block diagram showing the configuration of an information analysis system using an image according to an embodiment disclosed in this document.
3 is a flowchart illustrating an entire operation of an information analysis system using an image according to an embodiment disclosed in this document.
4 is a flowchart illustrating an error determination operation of an information analysis system using an image according to an embodiment disclosed in this document.
5 is a diagram illustrating front glass images for each sun position of an object acquired by an information analysis system using images according to an embodiment disclosed in this document.
6 is a diagram showing front glass images for each type of film of an object acquired in an information analysis system using an image according to an embodiment disclosed in this document.
7 is a flowchart illustrating an information analysis method using an image according to an embodiment disclosed in this document.

이하, 첨부한 도면을 참조하여 본 문서에 개시된 다양한 실시 예들에 대해 상세히 설명하고자 한다. 본 문서에서 도면상의 동일한 구성 요소에 대해서는 동일한 참조 부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, various embodiments disclosed in this document will be described in detail with reference to the accompanying drawings. In this document, the same reference numerals are used for the same components in the drawings, and redundant descriptions of the same components are omitted.

본 문서에 개시되어 있는 다양한 실시 예들에 대해서, 특정한 구조적 내지 기능적 설명들은 단지 실시 예들을 설명하기 위한 목적으로 예시된 것으로, 본 문서에 개시된 다양한 실시 예들은 여러 가지 형태로 실시될 수 있으며 본 문서에 설명된 실시 예들에 한정되는 것으로 해석되어서는 아니 된다.For various embodiments disclosed in this document, specific structural or functional descriptions are merely illustrated for the purpose of describing the embodiments, and various embodiments disclosed in this document may be implemented in various forms, and It should not be construed as limited to the described embodiments.

다양한 실시 예에서 사용된 "제1", "제2", "첫째", 또는 "둘째" 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 해당 구성 요소들을 한정하지 않는다. 예를 들면, 본 문서에 개시된 실시예의 권리 범위를 벗어나지 않으면서 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성 요소로 바꾸어 명명될 수 있다.Expressions such as "first", "second", "first", or "second" used in various embodiments may modify various elements regardless of order and/or importance, and the elements Not limited. For example, a first component may be called a second component without departing from the scope of rights of the embodiments disclosed in this document, and similarly, the second component may also be renamed to the first component.

본 문서에서 사용된 용어들은 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 다른 실시 예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다.Terms used in this document are only used to describe a specific embodiment, and may not be intended to limit the scope of other embodiments. Singular expressions may include plural expressions unless the context clearly dictates otherwise.

기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 문서에 개시된 실시예들의 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 일반적으로 사용되는 사전에 정의된 용어들은 관련 기술의 문맥 상 가지는 의미와 동일 또는 유사한 의미를 가지는 것으로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 문서에 개시된 실시 예들을 배제하도록 해석될 수 없다.All terms used herein, including technical or scientific terms, may have the same meaning as commonly understood by a person of ordinary skill in the art of the embodiments disclosed in this document. Terms defined in commonly used dictionaries may be interpreted as having the same or similar meanings as those in the context of the related art, and unless explicitly defined in this document, they are not interpreted in ideal or excessively formal meanings. . In some cases, even terms defined in this document cannot be interpreted to exclude the embodiments disclosed in this document.

도 1은 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템의 동작을 설명하기 위한 도면이다.1 is a diagram for explaining the operation of an information analysis system using an image according to an embodiment disclosed in this document.

도 1을 참조하면, 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템(100)은 조명부(110), 데이터 처리부(140), 객체 검지부(160), 및 촬영부(170)를 포함할 수 있다. 조명부(110), 데이터 처리부(140), 객체 검지부(160), 및 촬영부(170)는 특정 지역(예: 교차로, 골목, 터널, 또는 고속도로) 단위로 설치되어 영상을 촬영 및 분석하는 '통행 정보 획득부'로도 참조될 수 있다. Referring to FIG. 1 , an information analysis system 100 using an image according to an embodiment disclosed in this document includes a lighting unit 110, a data processing unit 140, an object detection unit 160, and a photographing unit 170. can do. The lighting unit 110, the data processing unit 140, the object detection unit 160, and the photographing unit 170 are installed in units of specific areas (eg, intersections, alleys, tunnels, or highways) to capture and analyze images. It may also be referred to as an 'information acquisition unit'.

촬영부(170)는 영상을 촬영할 수 있는 카메라를 포함할 수 있다. 객체 검지부(160)는 예를 들어, 차량(예: 0b1) 또는 사람과 같은 객체를 검출하고, 객체의 이동을 추적함으로써 객체의 위치 또는 이동 거리를 측정할 수 있는 센서(예: 레이더(radio detection and ranging, RADAR), 라이다(light detection and ranging, LIDAR), 및 레이다(laser detection and ranging, LADAR) 중 적어도 하나)를 포함할 수 있다. 실시예들에 따라, 정보 분석 시스템(100)은 촬영부(170) 및 객체 검지부(160)를 상호 협력적으로 사용할 수 있다. 예를 들어, 정보 분석 시스템(100)은 객체의 이동 위치, 거리, 방향, 또는 속도를 보다 정확하게 검출하기 위하여 객체 검지부(160)를 우선적으로 사용할 수 있으며, 객체의 형태를 식별할 필요가 있는 경우에는 촬영부(170)를 이용할 수 있다. 실시예에 따르면, 촬영부(170) 및 객체 검지부(160)는 하나의 통합된 모듈로 구현될 수 있다. The photographing unit 170 may include a camera capable of capturing images. The object detecting unit 160 may include, for example, a sensor (eg, radar (radio detection) capable of measuring the location or moving distance of an object by detecting an object such as a vehicle (eg, 0b1) or a person and tracking the movement of the object). and ranging (RADAR), light detection and ranging (LIDAR), and laser detection and ranging (LADAR). According to embodiments, the information analysis system 100 may use the photographing unit 170 and the object detection unit 160 cooperatively. For example, the information analysis system 100 may preferentially use the object detection unit 160 to more accurately detect the moving position, distance, direction, or speed of the object, and if it is necessary to identify the shape of the object In this case, the photographing unit 170 may be used. According to the embodiment, the photographing unit 170 and the object detection unit 160 may be implemented as one integrated module.

데이터 처리부(140)는 촬영부(170) 또는 객체 검지부(160) 중 적어도 하나를 통해 통행 정보를 획득할 수 있다. '통행 정보'는 예를 들어 도로 영상을 포함할 수 있다. 또한, 통행 정보는 차량 영상, 차량의 수, 차량의 주행 속도, 차량의 주행 방향, 차량의 주행 차로, 차량의 이동 거리, 차량의 통행량, 차량의 대기 길이, 차량의 점유율, 보행자 영상, 보행자의 수, 보행 속도, 또는 보행 방향 중 적어도 하나를 더 포함할 수 있다. 또한, 통행 정보는 차량의 차종, 종류, 색상, 크기, 주행 차로, 차량번호, 또는 보행자의 외형 중 적어도 하나를 포함하는 식별 정보를 포함할 수 있다. The data processing unit 140 may obtain passage information through at least one of the photographing unit 170 and the object detection unit 160 . 'Traffic information' may include, for example, a road image. In addition, the traffic information includes vehicle image, number of vehicles, vehicle driving speed, vehicle driving direction, vehicle driving lane, vehicle moving distance, vehicle traffic volume, vehicle waiting length, vehicle occupancy rate, pedestrian image, and pedestrian traffic information. It may further include at least one of number, gait speed, or gait direction. In addition, the traffic information may include identification information including at least one of a vehicle type, type, color, size, driving lane, license plate number, or pedestrian appearance.

통행 정보 외에도, 데이터 처리부(140)는 촬영부(170)를 통해 행위 정보 또는 방범 정보 중 적어도 하나를 획득할 수 있다. '행위 정보'는 속도 위반, 신호 위반, 역주행, 주행 차로 위반, 끼어들기, 차선 위반, 정지선 위반, 노후 경유차 운행제한 위반, 중량통행제한, 안전벨트 미착용, 불법주정차, 보행자의 신호 위반, 또는 무단 횡단과 같은 교통 법규 위반 행위나, 적재불량 또는 화물차 휴식시간 위반과 같이 운전자의 계도가 요구되는 행위를 의미할 수 있다. '방범 정보'는 생활 방범 정보 또는 교통 방범 정보 중 적어도 하나를 포함할 수 있다. 이외에도, 데이터 처리부(140)는 통행 정보를 이용하여 차량의 정지, 차량 사고, 보행자/야생동물의 출현, 낙하물, 로드킬, 산사태, 안개, 또는 포트홀과 같은 이벤트를 검출할 수 있다. In addition to traffic information, the data processing unit 140 may obtain at least one of behavior information and crime prevention information through the photographing unit 170 . 'Act information' includes speed violations, signal violations, reversal, driving lane violations, cutting in, lane violations, stop line violations, obsolete diesel vehicle operating restrictions violations, heavy traffic restrictions, not wearing seat belts, illegal parking and stopping, pedestrian signal violations, or unauthorized It may mean an act that violates traffic laws, such as crossing, or an act that requires guidance from the driver, such as poor loading or violation of a truck break. 'Security information' may include at least one of life crime prevention information and traffic crime prevention information. In addition, the data processing unit 140 may detect events such as vehicle stop, vehicle accident, pedestrian/wild animal appearance, falling object, roadkill, landslide, fog, or pothole using traffic information.

도 1에는 도시되지 않았지만, 데이터 처리부(140)는 촬영부(170) 및 객체 검지부(160) 외에도 적어도 하나의 센서로부터 획득된 데이터를 통해서 이벤트를 검출할 수 있다. 예를 들어, 데이터 처리부(140)는 도로 위의 충격을 감지하기 위한 가속도 센서, 도로 인접 비탈면에서 산사태를 감지하기 위한 측위 센서, 온/습도와 같은 기상 변화를 감지하기 위한 온/습도 센서, 로드킬을 감지하기 위한 동작 감지 센서, 또는 음향 센서 중 적어도 하나로부터 수신된 데이터에 기반하여 이벤트를 검출할 수 있다. Although not shown in FIG. 1 , the data processing unit 140 may detect an event through data obtained from at least one sensor in addition to the photographing unit 170 and the object detection unit 160 . For example, the data processing unit 140 may include an acceleration sensor for detecting an impact on the road, a positioning sensor for detecting a landslide on a slope adjacent to the road, a temperature/humidity sensor for detecting weather changes such as temperature/humidity, and a load An event may be detected based on data received from at least one of a motion sensor for detecting a kill and an acoustic sensor.

데이터 처리부(140)는 딥 러닝(deep learning) 또는 머신 러닝(machine learning)과 같은 인공지능(artificial intelligence, AI) 기반 영상 분석/처리 알고리즘을 적용함으로써 통행 정보, 행위 정보, 방범 정보, 또는 이벤트 정보 중 적어도 하나를 획득할 수 있다. 일 실시예에서, 데이터 처리부(140)는 촬영부(170)에서 획득된 영상 분석 또는 객체 검지부(160)를 통해 지정된 방향(F)으로 이동하는 객체(Ob1)의 기준 영역(AR)에 대한 진입/통과 여부를 검출할 수 있다. 데이터 처리부(140)는 객체(Ob1)가 기준 영역(AR)으로 진입하는 것(즉, 도 1의 L1을 지나는 시점)을 객체 검지부(160)를 통해 검지하면, 촬영부(170)를 통해 객체(Ob1)의 통행 정보를 획득할 수 있다. 예를 들어, 데이터 처리부(140)는 객체(Ob1)의 영상, 식별 정보, 또는 주행 정보(예: 주행 속도, 차량의 주행 방향, 차량의 주행 차로, 차량의 이동 거리, 차량의 통행량, 차량의 대기 길이, 차량의 점유율) 중 적어도 하나를 획득할 수 있다. 또한, 본 문서에 개시된 일 실시예에 따른 데이터 처리부(140)는 객체(Ob1)의 식별 정보와 매칭되는 객체(Ob1)의 사양 정보를 획득할 수 있다. 예를 들어, 객체(Ob1)의 사양 정보는 객체(Ob1)의 크기 정보(예를 들면, 객체(Ob1)의 길이, 높이, 폭 등)와 객체(Ob1)의 전면 유리의 각도 정보를 포함할 수 있다. 추가적으로, 객체(0b1)의 사양 정보는 객체(Ob1)의 전면 유리의 높이 정보를 더 포함할 수 있다. 이 때, 객체(Ob1)의 사양 정보는 영상을 이용한 정보 분석 시스템(100)의 데이터베이스에 저장되어 있거나, 외부의 서버(예: 운영 장치(50))로부터 수신될 수 있다. The data processing unit 140 applies artificial intelligence (AI)-based image analysis/processing algorithms such as deep learning or machine learning to provide traffic information, behavior information, crime prevention information, or event information. At least one of them can be obtained. In one embodiment, the data processing unit 140 analyzes the image acquired by the photographing unit 170 or the object Ob1 moving in the designated direction F through the object detection unit 160 enters the reference area AR. /can detect whether it has passed or not. When the data processing unit 140 detects, through the object detection unit 160, that the object Ob1 enters the reference area AR (that is, when it passes through L1 in FIG. 1), the object Ob1 passes through the object capturing unit 170. The traffic information of (Ob1) can be obtained. For example, the data processing unit 140 may use the image of the object Ob1, identification information, or driving information (eg, driving speed, driving direction of the vehicle, driving lane of the vehicle, moving distance of the vehicle, traffic volume of the vehicle, vehicle At least one of waiting length and vehicle occupancy) may be obtained. In addition, the data processing unit 140 according to an embodiment disclosed in this document may obtain specification information of the object Ob1 that matches the identification information of the object Ob1. For example, the specification information of the object Ob1 may include size information of the object Ob1 (eg, length, height, width, etc. of the object Ob1) and angle information of the windshield of the object Ob1. can Additionally, the specification information of the object Ob1 may further include height information of the front glass of the object Ob1. At this time, the specification information of the object Ob1 may be stored in the database of the information analysis system 100 using an image or may be received from an external server (eg, the operating device 50).

조명부(110)는 객체(Ob1)에 광을 조사할 수 있다. 조명부(110)는 촬영부(170)의 일부로 구현되거나, 또는 촬영부(170)와 별도의 장치로 구현될 수 있다. 촬영부(170)는 영상을 촬영할 때 조명부(110)가 광을 조사하도록 제어할 수 있다. 영상 촬영시 조사된 광으로 인해 촬영부(170)는 야간에도 객체(예: 차량)의 영상을 촬영할 수 있으며, 영상 촬영 시 차량의 전면 유리(또는, 전면 유리에 부착된 차량 코팅 필름)에 대한 투과율이 증가할 수 있다. 투과율이 증가하면 촬영부(170)는 차량 내부의 영상을 촬영할 수 있다. 도 1에서는 조명부(110)가 하나의 광원을 구비하는 것으로 도시하였으나, 조명부(110)는 서로 다른 위치에 서로 다른 각도로 설치된 복수의 광원을 포함할 수 있다. 조명부(110)는 데이터 처리부(140)로부터 수신된 신호에 기반하여 조명부(110)의 광의 조사 각도를 조정할 수 있는 조명 구동부(또는, 조명 제어부)를 포함할 수 있다. The lighting unit 110 may radiate light to the object Ob1. The lighting unit 110 may be implemented as a part of the photographing unit 170 or may be implemented as a device separate from the photographing unit 170 . The photographing unit 170 may control the lighting unit 110 to emit light when capturing an image. Due to the light irradiated during image capturing, the photographing unit 170 can capture an image of an object (eg, a vehicle) even at night. Transmittance may increase. When the transmittance increases, the photographing unit 170 may capture an image of the inside of the vehicle. Although the lighting unit 110 is illustrated as having one light source in FIG. 1 , the lighting unit 110 may include a plurality of light sources installed at different positions and at different angles. The lighting unit 110 may include a lighting driving unit (or lighting control unit) capable of adjusting an irradiation angle of light of the lighting unit 110 based on a signal received from the data processing unit 140 .

객체(0b1)가 기준 영역(AR)을 통과하면(또는, L2를 지나면), 데이터 처리부(140)는 조명부(110)를 통해 광이 조사된 객체(0b1)의 영상을 통해 안전벨트 미착용과 같은 객체(0b1)의 교통 법규 위반 행위를 검출할 수 있다. 이때, 데이터 처리부(140)는 객체(0b1)의 식별 정보(예를 들면, 대형(버스)/소형차(승용차) 등의 차종)에 기반하여 조명부(110)를 제어함으로써 광 조사 각도를 조정할 수 있으며, 추가적으로 객체(Ob1)의 사양 정보에 기반하여 조명부(110)를 제어함으로써 광 조사 각도를 보다 미세하게 조정할 수 있다. 예를 들어, 데이터 처리부(140)는 객체(Ob1)의 식별 정보에 맞는 광원(조명부)을 선택하고, 사양 정보에 따라서 선택된 광원의 각도를 조정하도록 할 수 있다. 이 때, 조명부(110)의 조명 제어부는 데이터 처리부(140)로부터 수신된 신호에 기반하여 객체(0b1)의 높이와 전면 유리의 각도 등에 대응되도록 조명부(110)의 각도를 조정할 수 있다. 이를 통해, 데이터 처리부(140)는 객체(0b1)가 기준 영역(AR)을 통과하는 시점(즉, 도 1의 L2를 지나는 시점)에 조명부(110)가 객체(0b1)의 전면 유리, 즉, 운전자와 탑승자에 대해 광이 조사될 수 있도록 각도를 제어할 수 있다. 촬영부(170)는 조명부(110)에 의해 객체(0b1)로 광이 조사되면, 객체(0b1)의 영상을 촬영할 수 있다. 따라서, 사용자(예: 운영 장치(50)의 운영자)는 촬영된 객체(0b1)의 영상에 기반하여 객체(0b1)의 운전자와 탑승자의 안전 벨트 착용 여부를 판단할 수 있다. 그 외에도, 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템(100)은 촬영부(170)에 의해 촬영된 객체(0b1)의 영상에 기반하여 객체(0b1)의 과속이나 신호 위반 여부 등을 함께 단속하도록 할 수 있다.When the object Ob1 passes through the reference area AR (or passes through L2), the data processing unit 140 transmits an image of the object Ob1 to which light is irradiated through the lighting unit 110, such as not wearing a seat belt. It is possible to detect an act of violating traffic laws of the object 0b1. At this time, the data processor 140 may adjust the light irradiation angle by controlling the lighting unit 110 based on the identification information of the object 0b1 (for example, a vehicle type such as a large (bus)/small car (passenger car)). , The light irradiation angle may be more finely adjusted by additionally controlling the lighting unit 110 based on the specification information of the object Ob1. For example, the data processing unit 140 may select a light source (lighting unit) suitable for the identification information of the object Ob1 and adjust the angle of the selected light source according to the specification information. At this time, the lighting control unit of the lighting unit 110 may adjust the angle of the lighting unit 110 to correspond to the height of the object Ob1 and the angle of the front glass based on the signal received from the data processing unit 140 . Through this, the data processing unit 140 controls the lighting unit 110 to change the front glass of the object Ob1 when the object Ob1 passes through the reference area AR (that is, when it passes through L2 in FIG. 1 ). Angles may be controlled so that light may be irradiated to the driver and passengers. The photographing unit 170 may capture an image of the object Ob1 when light is irradiated to the object Ob1 by the lighting unit 110 . Accordingly, the user (eg, the operator of the operating device 50) may determine whether the driver and passengers of the object Ob1 are wearing seat belts based on the captured image of the object Ob1. In addition, the information analysis system 100 using an image according to an embodiment disclosed in this document determines whether the object Ob1 is speeding or violates a signal based on the image of the object Ob1 captured by the photographing unit 170. The back can be cracked together.

또한, 본 문서에 개시된 일 실시예에 따른 데이터 처리부(140)는 영상을 통하여 교통 법규 위반을 판단할 때 발생 가능한 오류의 원인을 검출할 수 있다. 이 경우, 데이터 처리부(140)는 센서부(예를 들면, 솔라 트래커)와 그림자의 길이 및 방향에 기반하여 태양의 정확한 위치를 측정한 후, 태양의 위치에 따른 오류를 판정할 수 있다. 또한, 데이터 처리부(140)는 영상을 통해 객체(0b1)에 마련된 필름의 종류를 판단하고, 이에 기반하여 필름의 종류에 따른 오류를 판정할 수 있다.In addition, the data processing unit 140 according to an embodiment disclosed in this document may detect the cause of an error that may occur when determining a traffic law violation through an image. In this case, the data processing unit 140 may determine an error according to the position of the sun after measuring the exact position of the sun based on the length and direction of the sensor unit (eg, solar tracker) and the shadow. In addition, the data processing unit 140 may determine the type of film provided in the object Ob1 through the image, and based on this, determine an error according to the type of film.

일 실시예에서, 영상을 이용한 정보 분석 시스템(100)은 운영 장치(50)를 더 포함할 수 있다. 운영 장치(50)(예: 관제 센터)는 지방자치단체, 도로공사, 시설공단, 또는 경찰청과 같은 공공기관에 의하여 운영될 수 있다. 운영 장치(50)는 데이터 처리부(140)를 통해 획득된 정보를 데이터 베이스에 저장 및 관리하고, 저장된 정보를 이용하여 운영 장치(50)의 사용자(예: 관제 요원)가 실시간으로 도로 상황을 관제할 수 있는 인터페이스를 출력할 수 있다. 또한, 운영 장치(50)는 데이터 처리부(140)의 부족한 하드웨어 성능을 보완할 수 있다. 예를 들어, 운영 장치(50)의 데이터 처리부는 데이터 처리부(140) 보다 고성능의 영상 처리를 구현할 수 있는 하드웨어(예: GPU)를 포함할 수 있다. 운영 장치(50)의 데이터 처리부는 도로 상황(예: 통행 정보, 방범 정보, 또는 이벤트 정보) 분석을 포함하여 데이터 처리부(140)의 기능과 동일한 기능을 수행할 수 있다. 이 경우, 통행 정보 획득부에 포함된 데이터 처리부(140)는 제거 또는 비활성화되는 것이 가능하다. 운영 장치(50)는 분석된 도로 상황에 기반하여 신호 또는 조명부를 제어하거나 차량에게 다른 경로를 제공하도록 데이터 처리부(140)에게 명령을 전달할 수 있다. In one embodiment, the information analysis system 100 using an image may further include an operating device 50 . The operating device 50 (eg, a control center) may be operated by a public organization such as a local government, road construction, facilities corporation, or the National Police Agency. The operating device 50 stores and manages the information obtained through the data processing unit 140 in a database, and uses the stored information to allow a user (eg, a control agent) of the operating device 50 to control road conditions in real time. You can output an interface that can do this. In addition, the operating device 50 may compensate for insufficient hardware performance of the data processing unit 140 . For example, the data processing unit of the operating device 50 may include hardware (eg, a GPU) capable of implementing higher-performance image processing than the data processing unit 140 . The data processing unit of the operating device 50 may perform the same functions as those of the data processing unit 140 including analyzing road conditions (eg, traffic information, crime prevention information, or event information). In this case, the data processor 140 included in the passage information acquisition unit may be removed or deactivated. The operating device 50 may transmit a command to the data processor 140 to control a signal or lighting unit or to provide a different route to the vehicle based on the analyzed road conditions.

도 2는 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템의 구성을 나타내는 블록도이다. 이하에 기재된 구성들은 하드웨어 장치로 구현되거나, 또는 명령어, 프로그램과 같은 소프트웨어로 구현될 수 있다. 도 2를 참조하면, 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템(100)은 조명부(110), 데이터 처리부(140), 객체 검지부(160), 촬영부(170) 및 센서부(180)를 포함할 수 있다. 이하에서 도 1과 명칭 및 참조번호가 동일한 구성은 도 1에 기재된 구성과 기능이 동일하거나 유사할 수 있다. 2 is a block diagram showing the configuration of an information analysis system using an image according to an embodiment disclosed in this document. Components described below may be implemented as a hardware device or implemented as software such as instructions or programs. Referring to FIG. 2 , an information analysis system 100 using an image according to an embodiment disclosed in this document includes a lighting unit 110, a data processing unit 140, an object detection unit 160, a photographing unit 170, and a sensor unit. (180). Hereinafter, components having the same names and reference numerals as those of FIG. 1 may have the same or similar functions as the components described in FIG. 1 .

조명부(110)는 기준 영역을 통과하는 객체로 광을 조사할 수 있다. 이 때, 조명부(110)는 틸트(tilt) 구조로 구성될 수 있으며, 하나의 광원, 또는 서로 다른 위치에 설치되어 서로 다른 각도로 상기 객체에 광을 조사하는 복수의 광원을 포함할 수 있다. The lighting unit 110 may radiate light to an object passing through the reference area. In this case, the lighting unit 110 may have a tilt structure and may include one light source or a plurality of light sources installed at different locations to emit light to the object at different angles.

데이터 처리부(140)는 기준 영역에 진입한 객체의 통행 정보를 획득할 수 있다. 이 경우, 데이터 처리부(140)는 객체의 식별 정보 및 식별 정보에 매칭되는 객체의 사양 정보 중 적어도 하나를 획득할 수 있다. 이 때, 데이터 처리부(140)는 영상을 이용한 정보 분석 시스템(100)에 마련된 데이터베이스(미도시)에 저장된 사양 정보를 획득하거나, 외부 서버(예: 운영 장치(50))로부터 객체의 식별 정보와 매칭되는 사양 정보를 수신할 수 있다. 예를 들어, 객체의 사양 정보는 객체의 크기에 관한 정보(예를 들면, 객체의 길이, 높이, 폭 등)와 객체에 구비된 전면 유리의 각도에 관한 정보 등을 포함할 수 있다.The data processing unit 140 may obtain passage information of an object entering the reference area. In this case, the data processing unit 140 may obtain at least one of object identification information and object specification information matching the identification information. At this time, the data processing unit 140 obtains specification information stored in a database (not shown) prepared in the information analysis system 100 using an image, or obtains object identification information and data from an external server (eg, the operating device 50). Matching specification information may be received. For example, the specification information of the object may include information about the size of the object (eg, length, height, width, etc. of the object) and information about the angle of a front glass provided in the object.

데이터 처리부(140)는 기준 영역을 통과하는 객체의 영상을 획득하고, 획득된 영상에 기반하여 객체의 교통 법규 위반 여부를 판단할 수 있다. 이 경우, 데이터 처리부(140)는 객체의 영상에 기반하여 객체의 신호 위반 여부, 과속 여부, 안전 벨트 착용 위반 여부 등을 판단할 수 있다. 데이터 처리부(140)는 조명부(110)가 광을 조사할 때 광의 조사 각도가 차량의 차종이나 사양 정보에 적합하도록 조명부(110)의 광의 조사 각도를 제어할 수 있다. The data processing unit 140 may obtain an image of an object passing through the reference area, and determine whether the object violates traffic laws based on the obtained image. In this case, the data processing unit 140 may determine whether the object violates a signal, speeding, or wearing a seat belt based on the image of the object. When the lighting unit 110 emits light, the data processing unit 140 may control the light irradiation angle of the lighting unit 110 so that the light irradiation angle is suitable for the vehicle model or specification information.

한편, 조명부(110)가 복수의 광원을 포함하는 경우. 데이터 처리부(140)는 객체의 식별 정보에 기반하여 복수의 광원 중 하나를 선택할 수 있다. 예를 들면, 복수의 광원은 각각 대형 차량을 위한 광원과 소형 차량을 위한 광원을 포함할 수 있으며, 전면 유리에 대한 수직 광 입사 각도는 대형 차량과 소형 차량이 서로 다르므로 데이터 처리부(140)는 차종에 대응하는 광원을 선택할 수 있다. 동일한 차종이라도 차량의 사양에 따라서 전면 유리의 각도 또는 높이가 다를 수 있으므로, 실시예에서 데이터 처리부(140)는 객체의 식별 정보에 기반하여 선택된 광원의 각도를 사양 정보를 이용하여 틸트 방식으로 보다 미세하게 조정할 수 있다. Meanwhile, when the lighting unit 110 includes a plurality of light sources. The data processing unit 140 may select one of a plurality of light sources based on object identification information. For example, each of the plurality of light sources may include a light source for a large vehicle and a light source for a small vehicle, and since a vertical light incident angle with respect to a windshield is different between a large vehicle and a small vehicle, the data processing unit 140 A light source corresponding to the vehicle type can be selected. Since the angle or height of the windshield may be different depending on the specifications of the vehicle even for the same type of vehicle, in the embodiment, the data processing unit 140 adjusts the angle of the light source selected based on the identification information of the object in a tilt manner using the specification information. can be adjusted accordingly.

데이터 처리부(140)는 객체가 기준 영역을 통과하는 동안의 태양의 위치와 객체로 인해 생성된 그림자에 기반하여 교통 법규 위반 여부를 판단할 때 발생하는 오류의 원인을 판정할 수 있다. 이 경우, 데이터 처리부(140)는 센서부(180)에 의해 측정된 태양의 위치와 영상에서의 객체 또는 객체에 탑승한 운전자나 탑승자의 그림자의 길이와 방향을 함께 고려하여 정확한 태양의 위치를 산출할 수 있다. 예를 들면, 데이터 처리부(140)는 획득된 객체의 영상이 역광 또는 직광의 영향에 의해 오류가 발생하였는지 여부를 판정할 수 있다. 또한, 데이터 처리부(140)는 객체의 영상을 이용하여 객체에 마련된 필름의 종류를 판단할 수 있다. 이 때, 데이터 처리부(140)는 필름의 종류에 기반하여 오류의 원인을 판단할 수 있다. 예를 들면, 데이터 처리부(140)는 객체의 영상에 기반하여 객체에 마련된 필름이 반사형 필름인지 또는 흡수형 필름인지 여부를 판단할 수 있다. 이처럼, 데이터 처리부(140)는 태양의 위치에 따른 요인이나 객체에 마련된 필름의 종류에 따른 요인 등을 고려하여 영상 분석 오류가 발생한 원인을 판정할 수 있다. 따라서, 영상을 이용한 정보 분석 시스템(100)의 정확도와 신뢰성을 확보할 수 있다.The data processing unit 140 may determine the cause of an error occurring when determining whether a traffic law is violated based on the position of the sun while the object passes through the reference area and the shadow generated by the object. In this case, the data processing unit 140 calculates the exact position of the sun by considering the position of the sun measured by the sensor unit 180 and the length and direction of the object in the image or the shadow of the driver or passenger riding on the object. can do. For example, the data processing unit 140 may determine whether an error occurs in the obtained image of the object due to the influence of backlight or direct light. Also, the data processing unit 140 may determine the type of film provided on the object using the image of the object. At this time, the data processing unit 140 may determine the cause of the error based on the type of film. For example, the data processor 140 may determine whether the film provided on the object is a reflective film or an absorption film based on the image of the object. As such, the data processing unit 140 may determine the cause of the image analysis error by considering factors according to the position of the sun or factors according to the type of film provided on the object. Therefore, it is possible to secure the accuracy and reliability of the information analysis system 100 using an image.

객체 검지부(160)는 기준 영역을 진입하는 객체를 검지할 수 있다. 예를 들면, 객체 검지부(160)는 레이더나 라이다일 수 있다. 또한, 객체 검지부(160)는 하나 또는 복수 개일 수 있다.The object detection unit 160 may detect an object entering the reference area. For example, the object detection unit 160 may be a radar or lidar. Also, the number of object detection units 160 may be one or a plurality.

촬영부(170)는 기준 영역에 진입하거나 기준 영역을 통과하는 객체를 촬영할 수 있다. 이 때, 촬영부(170)는 객체가 기준 영역에 진입하는 시점과 통과하는 시점에 객체의 영상을 촬영할 수 있다. 또한, 촬영부(170)에는 촬영을 위한 광원(예: 조명부(110))이 구비될 수 있다. 예를 들면, 촬영부(170)는 카메라일 수 있다. 데이터 처리부(140)에 의해 차종에 대응하는 광 조사 각도로 설치된 광원이 선택되면, 촬영부(170)는 선택된 광원을 통해 광이 조사되도록 조명부(110)를 제어할 수 있다. 또한, 촬영부(170)는 데이터 처리부(140)에 의하여 선택 및 미세 조정된 광원을 통해 광이 조사되도록 조명부(110)를 제어할 수 있다. The photographing unit 170 may capture an object entering or passing through the reference area. At this time, the photographing unit 170 may capture an image of the object at the time of entering and passing through the reference area. In addition, the photographing unit 170 may include a light source (eg, the lighting unit 110) for photographing. For example, the photographing unit 170 may be a camera. When a light source installed at a light irradiation angle corresponding to a vehicle model is selected by the data processing unit 140, the photographing unit 170 may control the lighting unit 110 to emit light through the selected light source. Also, the photographing unit 170 may control the lighting unit 110 to emit light through the light source selected and finely adjusted by the data processing unit 140 .

센서부(180)는 시간에 따른 태양의 위치 변화를 검출할 수 있다. 예를 들면, 센서부(180)는 태양의 위치를 추적하는 솔라 트래커일 수 있다. 이 경우, 센서부(180)는 매 시간마다 CdS(cadmium sulfide)의 센싱값을 저장함으로써 태양의 위치를 예측 가능하도록 할 수 있다.The sensor unit 180 may detect a change in position of the sun over time. For example, the sensor unit 180 may be a solar tracker that tracks the position of the sun. In this case, the sensor unit 180 can predict the position of the sun by storing the sensed value of cadmium sulfide (CdS) every hour.

이와 같이, 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템(100)은 차량의 사양에 따라 조명의 각도를 제어함으로써, 차량의 운전자와 탑승자의 안전 벨트 착용 여부를 보다 정확하고 용이하게 판단할 수 있다.As such, the information analysis system 100 using an image according to an embodiment disclosed in this document controls the angle of lighting according to the specifications of the vehicle, thereby more accurately and easily determining whether the driver and occupants of the vehicle are wearing seat belts. can judge

또한, 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템(100)은 태양의 위치와 차량 코팅 필름의 종류 등에 기반하여 영상 분석 오류를 판정함으로써, 안전 벨트 착용 위반에 관한 영상 분석 시 신뢰도를 확보할 수 있다.In addition, the information analysis system 100 using an image according to an embodiment disclosed in this document determines an image analysis error based on the position of the sun and the type of vehicle coating film, thereby increasing reliability when analyzing an image related to a violation of wearing a seat belt. can be obtained.

도 3은 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템의 전체 동작을 나타내는 흐름도이다.3 is a flowchart illustrating an entire operation of an information analysis system using an image according to an embodiment disclosed in this document.

도 3을 참조하면, 데이터 처리부(140)는 먼저 객체 검지부(160)를 통해 기준 영역에 대한 객체의 진입을 검지할 수 있다(S101). 예를 들면, 객체는 차량일 수 있다. 또한, 데이터 처리부(140)는 객체 진입시 촬영부(170)를 통해 객체의 식별 정보를 검출할 수 있다(S102). Referring to FIG. 3 , the data processing unit 140 may first detect the entry of an object into the reference area through the object detection unit 160 (S101). For example, the object may be a vehicle. In addition, the data processing unit 140 may detect identification information of the object through the photographing unit 170 when the object enters (S102).

그리고, 데이터 처리부(140)는 검출된 객체의 식별 정보를 사전에 저장된 객체의 사양 정보와 매칭할 수 있다(S103). 예를 들어, 데이터 처리부(140)는 영상을 통해 검출된 객체의 차종 또는 차량 번호에 대응되는 차량의 사양 정보(예를 들면, 차량의 길이, 높이, 폭, 전면 유리의 각도)를 획득할 수 있다.Then, the data processing unit 140 may match the identification information of the detected object with previously stored object specification information (S103). For example, the data processing unit 140 may obtain vehicle specification information (eg, the length, height, width, and angle of the windshield of the vehicle) corresponding to the model or vehicle number of the object detected through the image. there is.

다음으로, 데이터 처리부(140)는 차량의 식별 정보 또는 사양 정보에 대응되도록 조명부(110)의 각도를 조정할 수 있다(S104). 예를 들어 조명부(110)가 복수의 광원으로 구성되어 있는 경우에 데이터 처리부(140)는 식별 정보(예: 차종)에 기반하여 복수의 광원 중 하나의 광원을 선택한 후에, 사양 정보에 기반하여 선택된 광원의 각도를 제어할 수 있다. 다른 실시에서, 데이터 처리부(140)는 객체가 기준 영역을 통과한 이후에 조명부(110)의 각도를 조정할 수 있다. Next, the data processor 140 may adjust the angle of the lighting unit 110 to correspond to vehicle identification information or specification information (S104). For example, when the lighting unit 110 is composed of a plurality of light sources, the data processing unit 140 selects one light source from among the plurality of light sources based on identification information (eg, vehicle model), and then selects the selected light source based on specification information. You can control the angle of the light source. In another implementation, the data processing unit 140 may adjust the angle of the lighting unit 110 after the object passes through the reference area.

데이터 처리부(140)는 객체 검지부(160)를 통해 객체가 기준 영역을 통과하는 것을 검지할 수 있다(S105). 이 때, 데이터 처리부(140)는 객체의 통과 시점에 촬영된 객체의 영상에 기반하여 객체의 식별 정보를 재차 검출할 수 있다. 데이터 처리부(140)에 의해 차종에 대응하는 광 조사 각도로 설치된 광원이 선택되면, 촬영부(170)는 선택된 광원을 통해 광이 조사되도록 조명부(110)를 제어할 수 있다. 또한, 촬영부(170)는 데이터 처리부(140)에 의하여 선택 및 미세 조정된 광원을 통해 광이 조사되도록 조명부(110)를 제어할 수 있다. The data processing unit 140 may detect that an object passes through the reference area through the object detection unit 160 (S105). At this time, the data processing unit 140 may detect identification information of the object again based on the image of the object captured at the point of time when the object passes. When a light source installed at a light irradiation angle corresponding to a vehicle model is selected by the data processing unit 140, the photographing unit 170 may control the lighting unit 110 to emit light through the selected light source. Also, the photographing unit 170 may control the lighting unit 110 to emit light through the light source selected and finely adjusted by the data processing unit 140 .

데이터 처리부(140)는 객체의 영상을 분석할 수 있다(S106). 이 경우, 데이터 처리부(140)는 영상을 통해 객체의 과속, 신호 위반, 안전 벨트 착용 여부를 분석하여 해당 객체의 교통 법규 위반 여부를 판단할 수 있다(S107).The data processing unit 140 may analyze the image of the object (S106). In this case, the data processing unit 140 may determine whether the object violates traffic laws by analyzing whether the object is speeding, violating a signal, or wearing a seat belt through an image (S107).

한편, 교통 법규 위반 여부가 판단되지 않으면, 데이터 처리부(140)는 오류 판정을 수행할 수 있다(S108). 예를 들어 영상을 통해 안전 벨트가 검지되지 않은 경우에, 데이터 처리부(140)는 운전자가 실제 안전 벨트를 착용하지 않은 것인지, 안전 벨트가 특정 요인에 의하여 검지되지 않은 것인지를 확인할 필요가 있다. 이 경우, 데이터 처리부(140)는 안전 벨트가 미 검지되면 탑승자가 검지되는지를 확인하고, 탑승자가 검지되지 않으면 환경적 요인이 존재하는 것으로 결정할 수 있다. 환경적 요인은 예를 들어, 태양의 위치에 따른 요인이나 객체의 필름 종류에 따른 요인 등을 포함할 수 있다. On the other hand, if it is not determined whether traffic laws have been violated, the data processing unit 140 may perform error determination (S108). For example, when a seat belt is not detected through an image, the data processing unit 140 needs to confirm whether the driver is not actually wearing a seat belt or whether the seat belt is not detected due to a specific factor. In this case, the data processing unit 140 may determine whether an occupant is detected if the seat belt is not detected, and determine that an environmental factor exists if the occupant is not detected. Environmental factors may include, for example, a factor according to the position of the sun or a factor according to the type of film of an object.

데이터 처리부(140)는 교통 법규 위반 여부 판단 결과에 따른 데이터를 생성할 수 있다(S109). 예를 들어 전면 유리가 포함된 영상 분석을 통해 안전벨트 미착용이 검지되면(S107 동작의 'Yes'), 데이터 처리부(140)는 해당 위반 정보(안전벨트 미착용)와 위반 정보에 대응하는 차량의 식별 정보(예: 차종 또는 차량 번호 중 적어도 하나)를 포함하는 단속 데이터를 생성할 수 있다. 다른 예를 들어 안전벨트 착용 여부가 검지되지 않으면(S107 동작의 'No'), 데이터 처리부(140)는 S108 동작을 통해 판정된 오류에 관한 데이터를 생성할 수 있다. The data processing unit 140 may generate data according to the result of determining whether traffic laws are violated (S109). For example, when seatbelt non-wearing is detected through image analysis including a windshield ('Yes' in operation S107), the data processing unit 140 identifies the violation information (seatbelt not wearing) and the vehicle corresponding to the violation information. Enforcement data including information (eg, at least one of a vehicle model and a license plate number) may be generated. For another example, if whether or not the seat belt is worn is not detected ('No' in operation S107), the data processing unit 140 may generate data related to the determined error through operation S108.

데이터 처리부(140)는 생성된 데이터를 운영 장치(50)로 전송할 수 있다. 운영 장치(50)의 사용자(또는 운영자)는 데이터 처리부(140)로부터 수신된 데이터에 기반하여 차량의 단속 유무를 알거나 또는 영상 분석 과정에서 나타난 오류 내역을 확인할 수 있다. The data processing unit 140 may transmit the generated data to the operating device 50 . A user (or an operator) of the operating device 50 may determine whether or not a vehicle has been regulated based on the data received from the data processing unit 140 or may check details of errors appearing in the video analysis process.

도 4는 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템의 오류 판정 동작을 나타내는 흐름도이다. 4 is a flowchart illustrating an error determination operation of an information analysis system using an image according to an embodiment disclosed in this document.

도 4를 참조하면, 본 문서에 개시된 일 실시예에 따른 데이터 처리부(140)는 오류 판정 시 센서부(180)를 이용하여 태양의 위치를 추적할 수 있다(S201). 이 때, 센서부(180)는 시간대 별로 태양의 위치 측정치를 저장할 수 있다. Referring to FIG. 4 , the data processing unit 140 according to an embodiment disclosed in this document may track the position of the sun using the sensor unit 180 upon determining an error (S201). In this case, the sensor unit 180 may store the measurement value of the position of the sun for each time zone.

또한, 데이터 처리부(140)는 영상에 나타난 그림자의 길이 및 방향에 기반하여 태양의 위치를 검출할 수 있다(S202). 이 경우, 데이터 처리부(140)는 영상의 객체(예를 들면, 차량)나 객체의 운전자나 탑승자의 그림자의 길이와 방향을 통해 태양의 위치를 예측할 수 있다. 이처럼, 데이터 처리부(140)는 센서부(180)에 의한 태양의 위치 측정치와 영상을 통한 그림자 분석에 기반하여 태양의 위치에 의한 요인(예를 들면, 역광, 직광)을 정확하게 검출할 수 있다.Also, the data processing unit 140 may detect the position of the sun based on the length and direction of the shadow appearing in the image (S202). In this case, the data processing unit 140 may predict the position of the sun through the length and direction of an object (eg, a vehicle) in the image or a shadow of a driver or occupant of the object. As such, the data processing unit 140 may accurately detect a factor (eg, backlight, direct light) caused by the position of the sun based on the sun position measurement value by the sensor unit 180 and the shadow analysis through the image.

그리고, 데이터 처리부(140)는 객체의 전면 유리 영상에 기반하여 객체에 마련된 필름의 종류를 판단할 수 있다(S203). 예를 들어, 데이터 처리부(140)는 객체의 영상에서 전면 유리가 빛을 모두 반사시키면 반사형 필름이고, 빛을 모두 흡수하는 경우 흡수형 필름으로 판단할 수 있다.Then, the data processing unit 140 may determine the type of film provided on the object based on the front glass image of the object (S203). For example, the data processing unit 140 may determine that the front glass in the image of the object is a reflective film if all light is reflected, and if all light is absorbed, it is an absorbing film.

다음으로, 데이터 처리부(140)는 태양의 위치에 의한 요인과 객체의 필름 종류에 의한 요인을 고려하여 영상 분석 시 발생한 오류를 판정할 수 있다(S204). 따라서, 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템(100)은 안전벨트 검출에 관한 환경적인 요인을 판단하여 시스템의 정확도 및 신뢰성을 확보하기 위한 오류 판단을 수행할 수 있다.Next, the data processing unit 140 may determine an error generated during image analysis by considering the factor due to the position of the sun and the factor due to the film type of the object (S204). Accordingly, the information analysis system 100 using an image according to an embodiment disclosed in this document may determine an environmental factor related to seat belt detection and perform error determination to secure accuracy and reliability of the system.

도 5는 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템에서 획득된 객체의 태양 위치 별 전면 유리 영상을 나타내는 도면이다. 또한, 도 6은 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템에서 획득된 객체의 필름 종류 별 전면 유리 영상을 나타내는 도면이다.5 is a diagram showing front glass images for each sun position of an object acquired by an information analysis system using images according to an embodiment disclosed in this document. Also, FIG. 6 is a diagram showing front glass images for each type of film of an object acquired in an information analysis system using images according to an embodiment disclosed in this document.

도 5의 (a) 및 (b)는 각각 역광(예를 들면, 태양광이 촬영부(170)의 맞은 편에서 들어오는 경우)과 직광(예를 들면, 태양광이 촬영부(170)의 후면에서 들어오는 경우)의 영상을 나타낸다. 또한, 도 6의 (a) 및 (b)는 각각 반사형 필름과 흡수형 필름의 영상을 나타낸다.5 (a) and (b) show backlight (for example, sunlight coming from the opposite side of the photographing unit 170) and direct light (eg, sunlight coming from the rear of the photographing unit 170), respectively. In case of input from ), it shows the video. In addition, (a) and (b) of FIG. 6 show images of a reflective film and an absorption film, respectively.

도 5의 (a) 및 (b)를 참조하면, 센서부(180)(예를 들면, 솔라 트래커)는 매시간 마다 CdS의 센싱값을 저장할 수 있다. 이처럼, 데이터 처리부(140)는 해당 객체가 기준 영역을 지나는 시점에 대해 센서부(180)에 의해 저장된 센싱값에 기반하여 태양의 위치를 예측하고, 해당 시점의 객체의 영상에서 객체와 운전자 또는 탑승자의 그림자의 길이 및 방향을 추가적으로 검출하여 정확한 태양의 위치를 획득할 수 있다. 이를 통해, 태양의 위치에 따른 오류를 판정하여 영상 분석이 불가능한 원인(예를 들면, 역광 또는 직광)을 파악할 수 있다.Referring to (a) and (b) of FIG. 5 , the sensor unit 180 (eg, a solar tracker) may store a sensing value of CdS every hour. In this way, the data processing unit 140 predicts the position of the sun based on the sensed value stored by the sensor unit 180 at the time when the corresponding object passes the reference area, and the object and the driver or occupant in the image of the object at that time. The exact position of the sun can be obtained by additionally detecting the length and direction of the shadow. Through this, it is possible to determine an error according to the position of the sun and determine the reason why image analysis is impossible (eg, backlight or direct light).

즉, 데이터 처리부(140)는 도 5의 (a) 및 (b)의 영상처럼 윤곽이나 내부가 투과하기는 하지만, 내부가 정확하게 보이지 않는 영상의 경우 역광 또는 직광으로 인한 오류로 판정할 수 있다. 또한, 데이터 처리부(140)는 태양의 위치에 따른 오류를 판정한 후에 판정된 영상을 후처리하여 오류 판정을 위한 학습을 수행할 수 있다. 데이터 처리부(140)는 이와 같이 학습된 영상에 기반하여 태양 위치에 따른 오류 판정을 수행할 수 있다That is, the data processing unit 140 may determine an error due to backlight or direct light in the case of an image in which the outline or the inside is transmitted but the inside is not accurately seen, as in the images in (a) and (b) of FIG. 5 . In addition, the data processing unit 140 may perform learning for error determination by post-processing the determined image after determining an error according to the position of the sun. The data processing unit 140 may perform error determination according to the position of the sun based on the learned image.

도 6의 (a) 및 (b)를 참조하면, 데이터 처리부(140)는 획득된 영상으로부터 객체(예를 들면, 차량)에 마련된 필름의 종류를 판정할 수 있다. 예를 들면, 차량의 필름의 경우 통상 반사형 필름과 흡수형 필름의 2가지 종류가 있으며, 이들 필름은 각각 효과가 상이하게 나타나는 특징이 있다. 즉, 도 6의 (a)에 도시한 것과 같이 반사형 필름의 경우 빛을 모두 반사시켜 차량의 전면 유리의 영상에 배경이 영향을 주고, 도 6의 (b)에 도시한 것과 같이 흡수형 필름의 경우 빛을 흡수시켜 차량의 전면 유리의 영상에 흑색으로 영향을 줄 수 있다.Referring to (a) and (b) of FIG. 6 , the data processing unit 140 may determine the type of film provided on the object (eg, vehicle) from the obtained image. For example, in the case of a film for a vehicle, there are usually two types of a reflective film and an absorptive film, and these films each have different effects. That is, as shown in (a) of FIG. 6, in the case of the reflective film, all light is reflected so that the background affects the image of the windshield of the vehicle, and as shown in (b) of FIG. 6, the absorption type film In the case of , it can absorb light and affect the image of the front glass of the vehicle as black.

이처럼, 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템(100)은 센서부(180)와 영상의 그림자 분석에 기반하여 태양의 위치를 파악하고, 차량에 마련된 필름의 종류를 검출하여 운전자와 탑승자의 안전 벨트 착용 여부에 관한 영상 분석 시 오류의 원인을 정확하게 분석하고 신뢰성을 확보할 수 있다.As such, the information analysis system 100 using an image according to an embodiment disclosed in this document determines the position of the sun based on the sensor unit 180 and the shadow analysis of the image, detects the type of film provided in the vehicle, It is possible to accurately analyze the cause of errors and secure reliability when analyzing images on whether drivers and passengers are wearing seat belts.

도 7은 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 방법을 나타내는 흐름도이다.7 is a flowchart illustrating an information analysis method using an image according to an embodiment disclosed in this document.

도 7을 참조하면, 정보 분석 시스템(100)은 기준 영역에 진입하는 차량의 식별 정보를 획득할 수 있다(S310). 또한, 정보 분석 시스템(100)은 식별 정보와 매칭되는 사양 정보를 더 획득할 수 있다. Referring to FIG. 7 , the information analysis system 100 may acquire identification information of a vehicle entering a reference area (S310). In addition, the information analysis system 100 may further obtain specification information matching the identification information.

또한, 정보 분석 시스템(100)은 차량의 식별 정보에 기반하여 조명부(110)를 제어함으로써 광의 조사 각도를 조정할 수 있다(S320). 또한, 정보 분석 시스템(100)은 객체의 사양 정보에 대응되도록 조명부(110)를 제어함으로써 광의 조사 각도를 조정할 수 있다. 이를 통해, 조명부(110)는 기준 영역을 통과하는 차량의 전면 유리로 정확하게 광을 조사할 수 있다.In addition, the information analysis system 100 may adjust the irradiation angle of light by controlling the lighting unit 110 based on the identification information of the vehicle (S320). In addition, the information analysis system 100 may adjust the irradiation angle of light by controlling the lighting unit 110 to correspond to the specification information of the object. Through this, the lighting unit 110 can accurately radiate light to the windshield of the vehicle passing through the reference area.

한편, 단계 S320에 있어서, 조명부(110)가 복수의 광원을 포함하는 경우. 정보 분석 시스템(예: 데이터 처리부(140))은 차량의 식별 정보에 기반하여 복수의 광원 중 하나를 선택하고, 선택된 광원의 각도를 차량의 사양 정보에 대응되도록 조정할 수 있다. 예를 들면, 복수의 광원은 각각 대형 차량과 소형 차량의 전면 유리에 대한 광 입사 각도가 수직이 되도록 설치될 수 있다. 즉, 단계 S320에서 정보 분석 시스템(100)은 획득된 식별 정보에 따라 광원을 선택한 후, 선택된 광원의 각도를 사양 정보에 대응되도록 미세 조정할 수 있다.Meanwhile, in step S320, when the lighting unit 110 includes a plurality of light sources. The information analysis system (eg, the data processing unit 140) may select one of a plurality of light sources based on vehicle identification information and adjust an angle of the selected light source to correspond to vehicle specification information. For example, the plurality of light sources may be installed so that light incident angles to the windshields of large vehicles and small vehicles are perpendicular to each other. That is, in step S320, the information analysis system 100 may select a light source according to the obtained identification information and then finely adjust the angle of the selected light source to correspond to the specification information.

다음으로, 정보 분석 시스템(100)은 차량이 기준 영역을 통과할 때 조명부(110)의 광과 함께 촬영된 영상을 분석함으로써 차량의 교통 법규 위반 여부를 판단할 수 있다. Next, the information analysis system 100 may determine whether the vehicle violates traffic laws by analyzing an image captured together with the light of the lighting unit 110 when the vehicle passes the reference area.

한편, 도 7에는 나타내지 않았으나, 본 문서에 개시된 일 실시예에 따른 정보 분석 시스템(100)은 교통 법규 위반의 판단 과정에서 발생하는 오류의 원인을 판정할 수 있다. 이 경우, 정보 분석 시스템(100)은 차량이 기준 영역을 통과하는 동안의 태양의 위치와 차량으로 인해 생성된 그림자와 차량의 영상을 이용하여 차량에 마련된 필름의 종류에 기반하여 오류의 원인을 판정할 수 있다. 이에 관해서는 도 5 및 6에서 기술하였으므로, 자세한 설명은 생략한다.Meanwhile, although not shown in FIG. 7 , the information analysis system 100 according to an embodiment disclosed in this document may determine the cause of an error occurring in the process of determining a traffic law violation. In this case, the information analysis system 100 determines the cause of the error based on the type of film provided in the vehicle using the image of the vehicle and the shadow generated by the vehicle and the location of the sun while the vehicle passes through the reference area. can do. Since this has been described in FIGS. 5 and 6, a detailed description thereof will be omitted.

이와 같이, 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 방법은 차량의 차종에 따라 조명의 각도를 제어함으로써, 차량의 운전자와 탑승자의 안전 벨트 착용 여부를 보다 정확하고 용이하게 판단할 수 있다.As such, the information analysis method using an image according to an embodiment disclosed in this document can more accurately and easily determine whether the driver and passengers of the vehicle are wearing seat belts by controlling the angle of lighting according to the vehicle type. there is.

또한, 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 방법은 태양의 위치와 차량 코팅 필름의 종류 등에 기반하여 오류를 판정함으로써, 안전 벨트 착용 위반에 관한 영상 분석 시 신뢰도를 확보할 수 있다.In addition, the information analysis method using an image according to an embodiment disclosed in this document determines an error based on the position of the sun and the type of coating film of a vehicle, thereby securing reliability when analyzing an image related to a violation of wearing a seat belt. .

이상에서, 본 문서에 개시된 실시 예를 구성하는 모든 구성 요소들이 하나로 결합하거나 결합하여 동작하는 것으로 설명되었다고 해서, 본 문서에 개시된 실시예들이 반드시 이러한 실시 예에 한정되는 것은 아니다. 즉, 본 문서에 개시된 실시예들의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. In the above, even if all components constituting the embodiments disclosed in this document have been described as being combined or operated as one, the embodiments disclosed in this document are not necessarily limited to these embodiments. That is, within the scope of the objectives of the embodiments disclosed in this document, all of the components may be selectively combined with one or more to operate.

또한, 이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재할 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 문서에 개시된 실시예들이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미와 일치하는 것으로 해석되어야 하며, 본 문서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In addition, terms such as "comprise", "comprise" or "having" described above mean that the corresponding component may be present unless otherwise stated, and thus exclude other components. It should be construed as being able to further include other components. All terms, including technical or scientific terms, have the same meaning as commonly understood by a person of ordinary skill in the art to which the embodiments disclosed in this document belong, unless defined otherwise. Commonly used terms, such as terms defined in a dictionary, should be interpreted as consistent with the contextual meaning of the related art, and unless explicitly defined in this document, they are not interpreted in an ideal or excessively formal meaning.

이상의 설명은 본 문서에 개시된 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 문서에 개시된 실시예들이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 문서에 개시된 실시예들의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 문서에 개시된 실시 예들은 본 문서에 개시된 실시예들의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 문서에 개시된 기술 사상의 범위가 한정되는 것은 아니다. 본 문서에 개시되 기술사상의 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 문서의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.The above description is only an illustrative example of the technical idea disclosed in this document, and those skilled in the art to which the embodiments disclosed in this document belong will be within the scope of the essential characteristics of the embodiments disclosed in this document. Many modifications and variations will be possible. Therefore, the embodiments disclosed in this document are not intended to limit the technical spirit of the embodiments disclosed in this document, but to explain, and the scope of the technical spirit disclosed in this document is not limited by these embodiments. The scope of protection of technical ideas disclosed in this document should be interpreted according to the scope of claims below, and all technical ideas within an equivalent scope should be construed as being included in the scope of rights of this document.

Claims (15)

기준 영역에 진입하는 차량의 식별 정보를 획득하고,
상기 차량의 식별 정보에 기반하여 조명부를 제어함으로써 광의 조사 각도를 조정하고,
상기 차량이 상기 기준 영역을 통과할 때 상기 조명부의 광과 함께 촬영된 영상을 분석함으로써 상기 차량의 교통 법규 위반 여부를 판단하도록 설정된 데이터 처리부;를 포함하는 영상을 이용한 정보 분석 시스템.
Acquiring identification information of a vehicle entering a reference area;
Adjusting an irradiation angle of light by controlling a lighting unit based on the identification information of the vehicle,
A data processing unit configured to determine whether the vehicle violates traffic laws by analyzing an image captured together with the light of the lighting unit when the vehicle passes the reference area.
청구항 1에 있어서, 상기 데이터 처리부는,
상기 차량의 식별 정보에 기반하여 상기 조명부에 포함되는 서로 다른 광 조사 각도를 갖는 복수의 광원 중 하나를 선택하도록 설정된, 영상을 이용한 정보 분석 시스템.
The method according to claim 1, wherein the data processing unit,
Information analysis system using an image, set to select one of a plurality of light sources having different light irradiation angles included in the lighting unit based on the identification information of the vehicle.
청구항 1에 있어서, 상기 데이터 처리부는,
상기 차량의 식별 정보와 매칭되는 상기 차량의 사양 정보를 획득하고,
상기 차량의 식별 정보에 기반하여 상기 조명부에 포함되는 서로 다른 광 조사 각도를 갖는 복수의 광원 중 하나를 선택하고,
상기 선택된 광원의 각도를 상기 차량의 사양 정보에 대응되도록 조정하는 영상을 이용한 정보 분석 시스템.
The method according to claim 1, wherein the data processing unit,
Obtaining specification information of the vehicle that matches identification information of the vehicle;
Selecting one of a plurality of light sources included in the lighting unit and having different light irradiation angles based on the identification information of the vehicle;
An information analysis system using an image for adjusting an angle of the selected light source to correspond to the specification information of the vehicle.
청구항 2 또는 3에 있어서,
상기 차량의 식별 정보는 상기 차량의 차종 및 차량 번호 중 적어도 하나를 포함하는 영상을 이용한 정보 분석 시스템.
According to claim 2 or 3,
The identification information of the vehicle is an information analysis system using an image including at least one of a vehicle model and a vehicle number of the vehicle.
청구항 4에 있어서,
상기 차량의 사양 정보는 상기 차량에 구비된 전면 유리의 각도에 관한 정보를 포함하는 영상을 이용한 정보 분석 시스템.
The method of claim 4,
The information analysis system using an image, wherein the vehicle specification information includes information about an angle of a windshield provided in the vehicle.
청구항 4에 있어서,
상기 차량의 사양 정보는 상기 차량에 구비된 전면 유리의 높이에 관한 정보 또는 상기 차량의 크기에 관한 정보 중 적어도 하나를 포함하는 영상을 이용한 정보 분석 시스템.
The method of claim 4,
The information analysis system using an image, wherein the vehicle specification information includes at least one of information about a height of a windshield provided in the vehicle and information about a size of the vehicle.
청구항 1에 있어서, 상기 데이터 처리부는,
상기 차량이 상기 기준 영역을 통과하는 동안의 태양의 위치와 상기 차량으로 인해 생성된 그림자에 기반하여 상기 차량의 교통 법규 위반 여부를 판단 시 발생하는 오류의 원인을 판정하는 영상을 이용한 정보 분석 시스템.
The method according to claim 1, wherein the data processing unit,
An information analysis system using an image for determining a cause of an error occurring when determining whether the vehicle violates traffic laws based on the position of the sun while the vehicle passes the reference area and the shadow generated by the vehicle.
청구항 7에 있어서,
시간에 따른 태양의 위치 변화를 검출하는 센서부;를 더 포함하는 영상을 이용한 정보 분석 시스템.
The method of claim 7,
An information analysis system using an image further comprising a sensor unit for detecting a change in position of the sun over time.
청구항 1에 있어서, 상기 데이터 처리부는,
상기 차량의 영상을 이용하여 상기 차량에 마련된 필름의 종류를 판단하고, 상기 필름의 종류에 기반하여 오류의 원인을 판단하는 영상을 이용한 정보 분석 시스템.
The method according to claim 1, wherein the data processing unit,
An information analysis system using an image for determining the type of film provided in the vehicle using the image of the vehicle and determining the cause of the error based on the type of the film.
청구항 1에 있어서,
상기 기준 영역에 진입하는 차량을 검지하는 객체 검지부;를 더 포함하는 영상을 이용한 정보 분석 시스템.
The method of claim 1,
An information analysis system using an image further comprising an object detection unit for detecting a vehicle entering the reference area.
청구항 1에 있어서,
상기 영상을 촬영하는 촬영부;를 더 포함하는 영상을 이용한 정보 분석 시스템.
The method of claim 1,
Information analysis system using an image further comprising a; photographing unit for capturing the image.
청구항 11에 있어서, 상기 촬영부는,
상기 데이터 처리부에 의하여 각도가 조정된 상기 조명부가 광을 조사하도록 상기 조명부를 제어하는, 영상을 이용한 정보 분석 시스템.
The method according to claim 11, wherein the photographing unit,
An information analysis system using an image that controls the lighting unit so that the lighting unit, the angle of which is adjusted by the data processing unit, emits light.
청구항 11에 있어서, 상기 데이터 처리부는,
상기 촬영부를 통해 통행 정보, 행위 정보, 또는 방범 정보 중 적어도 하나를 획득하도록 설정된 영상을 이용한 정보 분석 시스템.
The method according to claim 11, wherein the data processing unit,
An information analysis system using an image set to obtain at least one of traffic information, behavior information, or crime prevention information through the photographing unit.
청구항 13에 있어서,
상기 촬영부 및 상기 데이터 처리부를 통해 획득된 정보를 통해 도로 상황을 관제하도록 설정된 운영 장치;를 더 포함하는 영상을 이용한 정보 분석 시스템.
The method of claim 13,
An operating device configured to control road conditions through information obtained through the photographing unit and the data processing unit; information analysis system using an image further comprising.
영상을 이용한 정보 분석 시스템의 동작 방법에 있어서,
기준 영역에 진입하는 차량의 차량의 식별 정보를 획득하는 단계;
상기 차량의 식별 정보에 기반하여 조명부를 제어함으로써 광의 조사 각도를 조정하는 단계; 및
상기 차량이 상기 기준 영역을 통과할 때 상기 조명부의 광과 함께 촬영된 영상을 분석함으로써 상기 차량의 교통 법규 위반 여부를 판단하는 단계;를 포함하는 정보 분석 시스템의 동작 방법.
In the method of operating an information analysis system using an image,
obtaining vehicle identification information of a vehicle entering a reference area;
adjusting an irradiation angle of light by controlling a lighting unit based on the identification information of the vehicle; and
A method of operating an information analysis system comprising: determining whether the vehicle violates traffic laws by analyzing an image captured together with the light of the lighting unit when the vehicle passes the reference area.
KR1020210115076A 2021-08-30 2021-08-30 Information analysis system using image and method thereof KR102595467B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210115076A KR102595467B1 (en) 2021-08-30 2021-08-30 Information analysis system using image and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210115076A KR102595467B1 (en) 2021-08-30 2021-08-30 Information analysis system using image and method thereof

Publications (2)

Publication Number Publication Date
KR20230032335A true KR20230032335A (en) 2023-03-07
KR102595467B1 KR102595467B1 (en) 2023-10-31

Family

ID=85513118

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210115076A KR102595467B1 (en) 2021-08-30 2021-08-30 Information analysis system using image and method thereof

Country Status (1)

Country Link
KR (1) KR102595467B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101146581B1 (en) * 2011-11-11 2012-06-14 아이티에스엔지니어링 주식회사 Car number recognize system
KR101169951B1 (en) * 2012-03-29 2012-08-06 디비정보통신 주식회사 Camera for fixed weighing measuring device
KR101957759B1 (en) * 2018-10-12 2019-03-14 렉스젠(주) System for detecting safety belt and method thereof
KR102155753B1 (en) * 2020-02-28 2020-09-14 트라웍스(주) Two-way traffic information collecting system and method thereof
JP6897758B2 (en) * 2017-03-30 2021-07-07 日本電気株式会社 Imaging system, imaging method and imaging control program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101146581B1 (en) * 2011-11-11 2012-06-14 아이티에스엔지니어링 주식회사 Car number recognize system
KR101169951B1 (en) * 2012-03-29 2012-08-06 디비정보통신 주식회사 Camera for fixed weighing measuring device
JP6897758B2 (en) * 2017-03-30 2021-07-07 日本電気株式会社 Imaging system, imaging method and imaging control program
KR101957759B1 (en) * 2018-10-12 2019-03-14 렉스젠(주) System for detecting safety belt and method thereof
KR102155753B1 (en) * 2020-02-28 2020-09-14 트라웍스(주) Two-way traffic information collecting system and method thereof

Also Published As

Publication number Publication date
KR102595467B1 (en) 2023-10-31

Similar Documents

Publication Publication Date Title
US8294595B1 (en) Speed detector for moving vehicles
US11914041B2 (en) Detection device and detection system
US20110103647A1 (en) Device and Method for Classifying Vehicles
KR101875922B1 (en) Apparatus for controlling autonomous emergency braking system and method thereof
JP7466396B2 (en) Vehicle control device
JP7024610B2 (en) Detection device and detection system
KR102197449B1 (en) Enforcement system for enforcement a certain section in the section enforcement point
US11034293B2 (en) System for generating warnings for road users
JP7153717B2 (en) Vehicle controller and vehicle
KR102429312B1 (en) Enforcement device and method thereof
JP2019207654A (en) Detection device and detection system
KR102459906B1 (en) System for detecting passengers in vehicle using dual band infrared camera, and method for the same
Li et al. Microscopic simulation-based high occupancy vehicle lane safety and operation assessment: a case study
KR102380638B1 (en) Apparatus, system or method for monitoring vehicle traffic
KR102595467B1 (en) Information analysis system using image and method thereof
CN114495510A (en) Expressway Internet of things driving safety management system and method
KR102510896B1 (en) Signal control system based on image analysis
KR20210123863A (en) Vehicle detection system
Umare et al. Smart Solution for Traffic Control
CN113574576A (en) Method and device for detecting traffic violations by falling below an allowable distance between a rear vehicle and a front vehicle
Daley et al. Detection of vehicle occupants in HOV lanes: exploration of image sensing for detection of vehicle occupants
KR102420821B1 (en) System for analyzing image using resolution conversion method thereof
KR20140117116A (en) Detection apparatus and Method of axles tampering truck using image processing
KR102542175B1 (en) System for analyzing information using video and method thereof
Hsu Verification and Validation of Machine Learning Applications in Advanced Driving Assistance Systems and Automated Driving Systems

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant