KR102595467B1 - Information analysis system using image and method thereof - Google Patents

Information analysis system using image and method thereof Download PDF

Info

Publication number
KR102595467B1
KR102595467B1 KR1020210115076A KR20210115076A KR102595467B1 KR 102595467 B1 KR102595467 B1 KR 102595467B1 KR 1020210115076 A KR1020210115076 A KR 1020210115076A KR 20210115076 A KR20210115076 A KR 20210115076A KR 102595467 B1 KR102595467 B1 KR 102595467B1
Authority
KR
South Korea
Prior art keywords
vehicle
information
analysis system
data processing
processing unit
Prior art date
Application number
KR1020210115076A
Other languages
Korean (ko)
Other versions
KR20230032335A (en
Inventor
심지우
Original Assignee
렉스젠(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 렉스젠(주) filed Critical 렉스젠(주)
Priority to KR1020210115076A priority Critical patent/KR102595467B1/en
Publication of KR20230032335A publication Critical patent/KR20230032335A/en
Application granted granted Critical
Publication of KR102595467B1 publication Critical patent/KR102595467B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • G08G1/0175Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
    • G06Q50/40
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Abstract

본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템은 기준 영역에 진입하는 차량의 식별 정보를 획득하고, 상기 차량의 식별 정보에 기반하여 조명부를 제어함으로써 광의 조사 각도를 조정하고, 상기 차량이 상기 기준 영역을 통과할 때 상기 조명부의 광과 함께 촬영된 영상을 분석함으로써 상기 차량의 교통 법규 위반 여부를 판단하도록 설정된 데이터 처리부를 포함할 수 있다. The information analysis system using images according to an embodiment disclosed in this document acquires identification information of a vehicle entering a reference area, adjusts the irradiation angle of light by controlling the lighting unit based on the identification information of the vehicle, and adjusts the irradiation angle of the light to the vehicle. It may include a data processing unit configured to determine whether the vehicle violates traffic laws by analyzing an image captured together with the light of the lighting unit when passing the reference area.

Figure R1020210115076
Figure R1020210115076

Description

영상을 이용한 정보 분석 시스템 및 그에 관한 방법{INFORMATION ANALYSIS SYSTEM USING IMAGE AND METHOD THEREOF}Information analysis system using images and methods related thereto{INFORMATION ANALYSIS SYSTEM USING IMAGE AND METHOD THEREOF}

본 문서에 개시된 실시예들은 영상을 이용한 정보 분석 시스템 및 그에 관한 방법에 관한 것이다.Embodiments disclosed in this document relate to an information analysis system and method using images.

교통 정보의 분석을 위해 카메라를 통해 도로를 촬영한 영상을 분석하는 기술이 사용되고 있다. 예를 들면, 이러한 영상 분석 기술은 교통 신호 위반 차량, 과속 차량, 주차 위반 차량 등 각종 교통 법규를 위반한 차량의 영상을 촬영하고, 촬영된 영상에 기반하여 단속을 실시하도록 할 수 있다.To analyze traffic information, technology is being used to analyze images taken of roads through cameras. For example, this video analysis technology can capture images of vehicles that violate various traffic laws, such as vehicles that violate traffic signals, speeding vehicles, and vehicles that violate parking, and conduct crackdowns based on the captured images.

한편, 도로에서 발생되는 교통 사고 또는 급정거 시에 안전 벨트의 착용 여부에 따라 사고에 따른 위험도가 극명하게 달라질 수 있어, 운전자 또는 탑승자의 안전 벨트 착용을 유도하는 것은 중요하다. 그러나, 오늘날에는 차량의 유리창의 코팅 등으로 인하여 단순히 카메라로 차량 영상을 촬영하여 안전 벨트 착용 여부를 판단하기에는 무리가 있다.Meanwhile, in the event of a traffic accident or sudden stop on the road, the risk of an accident can vary significantly depending on whether a seat belt is worn, so it is important to encourage drivers or passengers to wear seat belts. However, today, due to coatings on vehicle windows, etc., it is difficult to determine whether a seat belt is worn by simply capturing images of the vehicle with a camera.

따라서, 영상 분석 기술에 기반하여 운전자와 탑승자의 안전 벨트 착용 여부를 보다 확실하고 용이하게 판단하는 기술이 요구된다.Therefore, there is a need for technology to more reliably and easily determine whether drivers and passengers are wearing seat belts based on image analysis technology.

본 문서에 개시된 실시예들은 차량의 종류나 사양에 따라 서로 다른 전면 유리의 각도나 높이를 고려하여 차량 영상 촬영을 위한 조명의 광 조사 각도를 제어함으로써, 차량의 운전자와 탑승자의 안전 벨트 착용 여부를 보다 정확하고 용이하게 판단 가능한 차량 영상을 획득할 수 있는 정보 분석 시스템 및 그에 관한 방법을 제공하는 것을 일 목적으로 한다.Embodiments disclosed in this document determine whether the driver and passengers of the vehicle are wearing seat belts by controlling the light irradiation angle of the lighting for vehicle image taking in consideration of the angle or height of the windshield depending on the type or specifications of the vehicle. The purpose is to provide an information analysis system and method for obtaining vehicle images that can be judged more accurately and easily.

또한, 본 문서에 개시된 실시예들은 영상에서 안전벨트 미검지 시의 원인이 안전벨트 미착용인지, 시스템 오류인지, 아니면 환경적 요인(예: 태양의 위치, 차량의 전면 유리 코팅 필름 종류)에 의한 차량 영상 자체의 문제인지를 판단함으로써, 안전 벨트 착용 여부 판단을 위한 영상 분석 시 신뢰도를 확보할 수 있는 영상을 이용한 정보 분석 시스템 및 그에 관한 방법을 제공하는 것을 일 목적으로 한다.In addition, the embodiments disclosed in this document determine whether the cause of the seat belt not being detected in the image is not wearing a seat belt, a system error, or environmental factors (e.g., the position of the sun, type of coating film on the windshield of the vehicle). The purpose is to provide an information analysis system and method using video that can secure reliability when analyzing video to determine whether or not a seat belt should be worn by determining whether the problem is with the video itself.

본 문서에 개시된 실시예들의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재들로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical problems of the embodiments disclosed in this document are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the description below.

본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템은 기준 영역에 진입하는 차량의 식별 정보를 획득하고, 상기 차량의 식별 정보에 기반하여 조명부를 제어함으로써 광의 조사 각도를 조정하고, 상기 차량이 상기 기준 영역을 통과할 때 상기 조명부의 광과 함께 촬영된 영상을 분석함으로써 상기 차량의 교통 법규 위반 여부를 판단하도록 설정된 데이터 처리부를 포함할 수 있다. The information analysis system using images according to an embodiment disclosed in this document acquires identification information of a vehicle entering a reference area, adjusts the irradiation angle of light by controlling the lighting unit based on the identification information of the vehicle, and adjusts the irradiation angle of the light to the vehicle. It may include a data processing unit configured to determine whether the vehicle violates traffic laws by analyzing an image captured together with the light of the lighting unit when passing the reference area.

일 실시예에 따르면, 상기 데이터 처리부는 상기 차량의 식별 정보에 기반하여 상기 조명부에 포함되는 서로 다른 광 조사 각도를 갖는 복수의 광원 중 하나를 선택하도록 설정될 수 있다. According to one embodiment, the data processing unit may be set to select one of a plurality of light sources having different light irradiation angles included in the lighting unit based on identification information of the vehicle.

일 실시예에 따르면, 상기 데이터 처리부는 상기 차량의 식별 정보와 매칭되는 상기 차량의 사양 정보를 획득하고, 상기 차량의 식별 정보에 기반하여 상기 조명부에 포함되는 서로 다른 광 조사 각도를 갖는 복수의 광원 중 하나를 선택하고, 상기 선택된 광원의 각도를 상기 차량의 사양 정보에 대응되도록 조정할 수 있다. According to one embodiment, the data processing unit obtains specification information of the vehicle that matches the identification information of the vehicle, and based on the identification information of the vehicle, a plurality of light sources with different light irradiation angles included in the lighting unit You can select one of the options and adjust the angle of the selected light source to correspond to the specification information of the vehicle.

일 실시예에 따르면, 상기 차량의 식별 정보는 상기 차량의 차종 및 차량 번호 중 적어도 하나를 포함할 수 있다. According to one embodiment, the identification information of the vehicle may include at least one of the vehicle model and vehicle number of the vehicle.

일 실시예에 따르면, 상기 차량의 사양 정보는 상기 차량에 구비된 전면 유리의 각도에 관한 정보를 포함할 수 있다. According to one embodiment, the specification information of the vehicle may include information about the angle of the windshield provided in the vehicle.

일 실시예에 따르면, 상기 차량의 사양 정보는 상기 차량에 구비된 전면 유리의 높이에 관한 정보 또는 상기 차량의 크기에 관한 정보 중 적어도 하나를 포함할 수 있다. According to one embodiment, the specification information of the vehicle may include at least one of information about the height of a windshield provided in the vehicle or information about the size of the vehicle.

일 실시예에 따르면, 상기 데이터 처리부는 상기 차량이 상기 기준 영역을 통과하는 동안의 태양의 위치와 상기 차량으로 인해 생성된 그림자에 기반하여 상기 차량의 교통 법규 위반 여부를 판단 시 발생하는 오류의 원인을 판정할 수 있다. According to one embodiment, the data processing unit causes errors that occur when determining whether the vehicle violates traffic laws based on the position of the sun while the vehicle passes the reference area and the shadow created by the vehicle. can be judged.

일 실시예에 따르면, 영상을 이용한 정보 분석 시스템은 시간에 따른 태양의 위치 변화를 검출하는 센서부를 더 포함할 수 있다. According to one embodiment, the information analysis system using images may further include a sensor unit that detects a change in the position of the sun over time.

일 실시예에 따르면, 상기 데이터 처리부는 상기 차량의 영상을 이용하여 상기 차량에 마련된 필름의 종류를 판단하고, 상기 필름의 종류에 기반하여 오류의 원인을 판단할 수 있다. According to one embodiment, the data processing unit may determine the type of film provided in the vehicle using the image of the vehicle and determine the cause of the error based on the type of film.

본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템의 동작 방법은 기준 영역에 진입하는 차량의 차량의 식별 정보를 획득하는 단계, 상기 차량의 식별 정보에 기반하여 조명부를 제어함으로써 광의 조사 각도를 조정하는 단계, 및 상기 차량이 상기 기준 영역을 통과할 때 상기 조명부의 광과 함께 촬영된 영상을 분석함으로써 상기 차량의 교통 법규 위반 여부를 판단하는 단계를 포함할 수 있다. A method of operating an information analysis system using an image according to an embodiment disclosed in this document includes the steps of obtaining vehicle identification information of a vehicle entering a reference area, and controlling the lighting unit based on the vehicle identification information to determine the light irradiation angle. It may include the step of adjusting and determining whether the vehicle violates traffic laws by analyzing an image taken together with the light of the lighting unit when the vehicle passes the reference area.

본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템 및 그에 관한 방법은 차량의 종류나 사양에 따라 서로 다른 전면 유리의 각도나 높이를 고려하여 차량 영상 촬영을 위한 조명의 광 조사 각도를 제어함으로써, 차량의 운전자와 탑승자의 안전 벨트 착용 여부를 보다 정확하고 용이하게 판단할 수 있다.The information analysis system and related method using images according to an embodiment disclosed in this document controls the light irradiation angle of the lighting for vehicle image shooting by considering the angle or height of the windshield that is different depending on the type or specification of the vehicle. By doing so, it is possible to more accurately and easily determine whether the driver and passengers of the vehicle are wearing seat belts.

또한, 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템 및 그에 관한 방법은 영상에서 안전벨트 미검지 시의 원인이 안전벨트 미착용인지, 시스템 오류인지, 아니면 환경적 요인에 의한 차량 영상 자체의 문제인지를 판단함으로써, 안전 벨트 착용 여부 판단을 위한 영상 분석 시 신뢰도를 확보할 수 있다.In addition, the information analysis system and related method using images according to an embodiment disclosed in this document determine whether the cause of seat belt failure in the image is not wearing a seat belt, a system error, or the vehicle image itself due to environmental factors. By determining whether it is a problem, reliability can be secured when analyzing images to determine whether a seat belt is worn.

또한, 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템 및 그에 관한 방법은 차량 및 보행자의 통행 정보, 교통 법규 위반 정보, 및 방범 정보 등을 수집함으로써 다양한 교통 관련 서비스를 제공할 수 있다. In addition, the information analysis system and method using video according to an embodiment disclosed in this document can provide various traffic-related services by collecting vehicle and pedestrian traffic information, traffic law violation information, and crime prevention information. .

도 1은 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템의 동작을 설명하기 위한 도면이다.
도 2는 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템의 구성을 나타내는 블록도이다.
도 3은 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템의 전체 동작을 나타내는 흐름도이다.
도 4는 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템의 오류 판정 동작을 나타내는 흐름도이다.
도 5는 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템에서 획득된 객체의 태양 위치 별 전면 유리 영상을 나타내는 도면이다.
도 6은 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템에서 획득된 객체의 필름 종류 별 전면 유리 영상을 나타내는 도면이다.
도 7은 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 방법을 나타내는 흐름도이다.
1 is a diagram for explaining the operation of an information analysis system using images according to an embodiment disclosed in this document.
Figure 2 is a block diagram showing the configuration of an information analysis system using images according to an embodiment disclosed in this document.
Figure 3 is a flowchart showing the overall operation of the information analysis system using images according to an embodiment disclosed in this document.
Figure 4 is a flowchart showing an error determination operation of an information analysis system using images according to an embodiment disclosed in this document.
FIG. 5 is a diagram illustrating front glass images for each sun position of an object obtained in an information analysis system using images according to an embodiment disclosed in this document.
Figure 6 is a diagram showing front glass images for each film type of an object acquired in an information analysis system using images according to an embodiment disclosed in this document.
Figure 7 is a flowchart showing an information analysis method using images according to an embodiment disclosed in this document.

이하, 첨부한 도면을 참조하여 본 문서에 개시된 다양한 실시 예들에 대해 상세히 설명하고자 한다. 본 문서에서 도면상의 동일한 구성 요소에 대해서는 동일한 참조 부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, various embodiments disclosed in this document will be described in detail with reference to the attached drawings. In this document, the same reference numerals are used for the same components in the drawings, and duplicate descriptions for the same components are omitted.

본 문서에 개시되어 있는 다양한 실시 예들에 대해서, 특정한 구조적 내지 기능적 설명들은 단지 실시 예들을 설명하기 위한 목적으로 예시된 것으로, 본 문서에 개시된 다양한 실시 예들은 여러 가지 형태로 실시될 수 있으며 본 문서에 설명된 실시 예들에 한정되는 것으로 해석되어서는 아니 된다.With respect to the various embodiments disclosed in this document, specific structural and functional descriptions are merely illustrative for the purpose of explaining the embodiments, and the various embodiments disclosed in this document may be implemented in various forms. It should not be construed as limited to the described embodiments.

다양한 실시 예에서 사용된 "제1", "제2", "첫째", 또는 "둘째" 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 해당 구성 요소들을 한정하지 않는다. 예를 들면, 본 문서에 개시된 실시예의 권리 범위를 벗어나지 않으면서 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성 요소로 바꾸어 명명될 수 있다.Expressions such as “first,” “second,” “first,” or “second” used in various embodiments may modify various elements regardless of order and/or importance, and refer to the elements as It is not limited. For example, a first component may be renamed a second component without departing from the scope of the embodiments disclosed in this document, and similarly, the second component may also be renamed to the first component.

본 문서에서 사용된 용어들은 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 다른 실시 예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다.Terms used in this document are merely used to describe specific embodiments and may not be intended to limit the scope of other embodiments. Singular expressions may include plural expressions, unless the context clearly indicates otherwise.

기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 문서에 개시된 실시예들의 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 일반적으로 사용되는 사전에 정의된 용어들은 관련 기술의 문맥 상 가지는 의미와 동일 또는 유사한 의미를 가지는 것으로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 문서에 개시된 실시 예들을 배제하도록 해석될 수 없다.All terms used herein, including technical or scientific terms, may have the same meaning as generally understood by a person of ordinary skill in the technical field of the embodiments disclosed in this document. Terms defined in commonly used dictionaries can be interpreted as having the same or similar meaning as the meaning they have in the context of related technology, and unless clearly defined in this document, they are not interpreted in an ideal or excessively formal sense. . In some cases, even terms defined in this document cannot be interpreted to exclude embodiments disclosed in this document.

도 1은 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템의 동작을 설명하기 위한 도면이다.1 is a diagram for explaining the operation of an information analysis system using images according to an embodiment disclosed in this document.

도 1을 참조하면, 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템(100)은 조명부(110), 데이터 처리부(140), 객체 검지부(160), 및 촬영부(170)를 포함할 수 있다. 조명부(110), 데이터 처리부(140), 객체 검지부(160), 및 촬영부(170)는 특정 지역(예: 교차로, 골목, 터널, 또는 고속도로) 단위로 설치되어 영상을 촬영 및 분석하는 '통행 정보 획득부'로도 참조될 수 있다. Referring to FIG. 1, the information analysis system 100 using images according to an embodiment disclosed in this document includes a lighting unit 110, a data processing unit 140, an object detection unit 160, and a photographing unit 170. can do. The lighting unit 110, data processing unit 140, object detection unit 160, and imaging unit 170 are installed in specific areas (e.g., intersections, alleys, tunnels, or highways) to capture and analyze images. It may also be referred to as the ‘information acquisition department’.

촬영부(170)는 영상을 촬영할 수 있는 카메라를 포함할 수 있다. 객체 검지부(160)는 예를 들어, 차량(예: 0b1) 또는 사람과 같은 객체를 검출하고, 객체의 이동을 추적함으로써 객체의 위치 또는 이동 거리를 측정할 수 있는 센서(예: 레이더(radio detection and ranging, RADAR), 라이다(light detection and ranging, LIDAR), 및 레이다(laser detection and ranging, LADAR) 중 적어도 하나)를 포함할 수 있다. 실시예들에 따라, 정보 분석 시스템(100)은 촬영부(170) 및 객체 검지부(160)를 상호 협력적으로 사용할 수 있다. 예를 들어, 정보 분석 시스템(100)은 객체의 이동 위치, 거리, 방향, 또는 속도를 보다 정확하게 검출하기 위하여 객체 검지부(160)를 우선적으로 사용할 수 있으며, 객체의 형태를 식별할 필요가 있는 경우에는 촬영부(170)를 이용할 수 있다. 실시예에 따르면, 촬영부(170) 및 객체 검지부(160)는 하나의 통합된 모듈로 구현될 수 있다. The photographing unit 170 may include a camera capable of capturing images. The object detection unit 160 is a sensor (e.g., radar (radio detection)) that detects an object, such as a vehicle (e.g., 0b1) or a person, and measures the position or movement distance of the object by tracking the movement of the object. and ranging (RADAR), light detection and ranging (LIDAR), and laser detection and ranging (LADAR). Depending on embodiments, the information analysis system 100 may use the photographing unit 170 and the object detection unit 160 cooperatively. For example, the information analysis system 100 may preferentially use the object detection unit 160 to more accurately detect the moving position, distance, direction, or speed of an object, and when it is necessary to identify the shape of the object. The imaging unit 170 can be used. According to an embodiment, the photographing unit 170 and the object detection unit 160 may be implemented as one integrated module.

데이터 처리부(140)는 촬영부(170) 또는 객체 검지부(160) 중 적어도 하나를 통해 통행 정보를 획득할 수 있다. '통행 정보'는 예를 들어 도로 영상을 포함할 수 있다. 또한, 통행 정보는 차량 영상, 차량의 수, 차량의 주행 속도, 차량의 주행 방향, 차량의 주행 차로, 차량의 이동 거리, 차량의 통행량, 차량의 대기 길이, 차량의 점유율, 보행자 영상, 보행자의 수, 보행 속도, 또는 보행 방향 중 적어도 하나를 더 포함할 수 있다. 또한, 통행 정보는 차량의 차종, 종류, 색상, 크기, 주행 차로, 차량번호, 또는 보행자의 외형 중 적어도 하나를 포함하는 식별 정보를 포함할 수 있다. The data processing unit 140 may obtain traffic information through at least one of the photographing unit 170 or the object detection unit 160. ‘Traffic information’ may include, for example, road images. In addition, traffic information includes vehicle images, number of vehicles, vehicle's driving speed, vehicle's driving direction, vehicle's driving lane, vehicle's travel distance, vehicle's traffic volume, vehicle's waiting length, vehicle's occupancy rate, pedestrian image, pedestrian's It may further include at least one of number, walking speed, or walking direction. Additionally, the passage information may include identification information including at least one of the vehicle model, type, color, size, driving lane, license plate number, or appearance of a pedestrian.

통행 정보 외에도, 데이터 처리부(140)는 촬영부(170)를 통해 행위 정보 또는 방범 정보 중 적어도 하나를 획득할 수 있다. '행위 정보'는 속도 위반, 신호 위반, 역주행, 주행 차로 위반, 끼어들기, 차선 위반, 정지선 위반, 노후 경유차 운행제한 위반, 중량통행제한, 안전벨트 미착용, 불법주정차, 보행자의 신호 위반, 또는 무단 횡단과 같은 교통 법규 위반 행위나, 적재불량 또는 화물차 휴식시간 위반과 같이 운전자의 계도가 요구되는 행위를 의미할 수 있다. '방범 정보'는 생활 방범 정보 또는 교통 방범 정보 중 적어도 하나를 포함할 수 있다. 이외에도, 데이터 처리부(140)는 통행 정보를 이용하여 차량의 정지, 차량 사고, 보행자/야생동물의 출현, 낙하물, 로드킬, 산사태, 안개, 또는 포트홀과 같은 이벤트를 검출할 수 있다. In addition to traffic information, the data processing unit 140 may obtain at least one of behavior information or crime prevention information through the photographing unit 170. 'Behavior information' includes speeding violations, red light violations, driving on the wrong side of the road, lane violations, cutting in, lane violations, stop line violations, violation of old diesel vehicle operation restrictions, weight restrictions, failure to wear seat belts, illegal parking, pedestrian violation of traffic signals, or unauthorized use. This may mean an act that violates traffic laws, such as crossing, or an act that requires guidance from the driver, such as improper loading or violation of truck rest periods. ‘Crime prevention information’ may include at least one of life crime prevention information or traffic crime prevention information. In addition, the data processing unit 140 can use traffic information to detect events such as vehicle stopping, vehicle accidents, appearance of pedestrians/wild animals, falling objects, road kill, landslides, fog, or potholes.

도 1에는 도시되지 않았지만, 데이터 처리부(140)는 촬영부(170) 및 객체 검지부(160) 외에도 적어도 하나의 센서로부터 획득된 데이터를 통해서 이벤트를 검출할 수 있다. 예를 들어, 데이터 처리부(140)는 도로 위의 충격을 감지하기 위한 가속도 센서, 도로 인접 비탈면에서 산사태를 감지하기 위한 측위 센서, 온/습도와 같은 기상 변화를 감지하기 위한 온/습도 센서, 로드킬을 감지하기 위한 동작 감지 센서, 또는 음향 센서 중 적어도 하나로부터 수신된 데이터에 기반하여 이벤트를 검출할 수 있다. Although not shown in FIG. 1, the data processing unit 140 may detect an event through data acquired from at least one sensor in addition to the photographing unit 170 and the object detection unit 160. For example, the data processing unit 140 includes an acceleration sensor for detecting impacts on the road, a positioning sensor for detecting landslides on slopes adjacent to the road, a temperature/humidity sensor for detecting weather changes such as temperature/humidity, and a load sensor. An event may be detected based on data received from at least one of a motion detection sensor for detecting a kill or an acoustic sensor.

데이터 처리부(140)는 딥 러닝(deep learning) 또는 머신 러닝(machine learning)과 같은 인공지능(artificial intelligence, AI) 기반 영상 분석/처리 알고리즘을 적용함으로써 통행 정보, 행위 정보, 방범 정보, 또는 이벤트 정보 중 적어도 하나를 획득할 수 있다. 일 실시예에서, 데이터 처리부(140)는 촬영부(170)에서 획득된 영상 분석 또는 객체 검지부(160)를 통해 지정된 방향(F)으로 이동하는 객체(Ob1)의 기준 영역(AR)에 대한 진입/통과 여부를 검출할 수 있다. 데이터 처리부(140)는 객체(Ob1)가 기준 영역(AR)으로 진입하는 것(즉, 도 1의 L1을 지나는 시점)을 객체 검지부(160)를 통해 검지하면, 촬영부(170)를 통해 객체(Ob1)의 통행 정보를 획득할 수 있다. 예를 들어, 데이터 처리부(140)는 객체(Ob1)의 영상, 식별 정보, 또는 주행 정보(예: 주행 속도, 차량의 주행 방향, 차량의 주행 차로, 차량의 이동 거리, 차량의 통행량, 차량의 대기 길이, 차량의 점유율) 중 적어도 하나를 획득할 수 있다. 또한, 본 문서에 개시된 일 실시예에 따른 데이터 처리부(140)는 객체(Ob1)의 식별 정보와 매칭되는 객체(Ob1)의 사양 정보를 획득할 수 있다. 예를 들어, 객체(Ob1)의 사양 정보는 객체(Ob1)의 크기 정보(예를 들면, 객체(Ob1)의 길이, 높이, 폭 등)와 객체(Ob1)의 전면 유리의 각도 정보를 포함할 수 있다. 추가적으로, 객체(0b1)의 사양 정보는 객체(Ob1)의 전면 유리의 높이 정보를 더 포함할 수 있다. 이 때, 객체(Ob1)의 사양 정보는 영상을 이용한 정보 분석 시스템(100)의 데이터베이스에 저장되어 있거나, 외부의 서버(예: 운영 장치(50))로부터 수신될 수 있다. The data processing unit 140 applies an artificial intelligence (AI)-based image analysis/processing algorithm such as deep learning or machine learning to generate traffic information, behavior information, crime prevention information, or event information. You can obtain at least one of the following. In one embodiment, the data processing unit 140 analyzes the image acquired by the photographing unit 170 or enters the reference area (AR) of the object (Ob1) moving in the specified direction (F) through the object detection unit (160). /Can detect whether it passes or not. When the data processing unit 140 detects that the object Ob1 enters the reference area AR (i.e., the point at which it passes L1 in FIG. 1) through the object detection unit 160, the data processing unit 140 detects the object through the photographing unit 170. Traffic information of (Ob1) can be obtained. For example, the data processing unit 140 may use an image of the object Ob1, identification information, or driving information (e.g., driving speed, driving direction of the vehicle, driving lane of the vehicle, distance traveled by the vehicle, traffic volume of the vehicle, At least one of waiting length and vehicle occupancy rate can be obtained. Additionally, the data processing unit 140 according to an embodiment disclosed in this document may obtain specification information of the object Ob1 that matches the identification information of the object Ob1. For example, the specification information of the object Ob1 may include size information of the object Ob1 (e.g., length, height, width, etc. of the object Ob1) and angle information of the front glass of the object Ob1. You can. Additionally, the specification information of the object 0b1 may further include height information of the front glass of the object Ob1. At this time, the specification information of the object Ob1 may be stored in the database of the information analysis system 100 using images or may be received from an external server (eg, operating device 50).

조명부(110)는 객체(Ob1)에 광을 조사할 수 있다. 조명부(110)는 촬영부(170)의 일부로 구현되거나, 또는 촬영부(170)와 별도의 장치로 구현될 수 있다. 촬영부(170)는 영상을 촬영할 때 조명부(110)가 광을 조사하도록 제어할 수 있다. 영상 촬영시 조사된 광으로 인해 촬영부(170)는 야간에도 객체(예: 차량)의 영상을 촬영할 수 있으며, 영상 촬영 시 차량의 전면 유리(또는, 전면 유리에 부착된 차량 코팅 필름)에 대한 투과율이 증가할 수 있다. 투과율이 증가하면 촬영부(170)는 차량 내부의 영상을 촬영할 수 있다. 도 1에서는 조명부(110)가 하나의 광원을 구비하는 것으로 도시하였으나, 조명부(110)는 서로 다른 위치에 서로 다른 각도로 설치된 복수의 광원을 포함할 수 있다. 조명부(110)는 데이터 처리부(140)로부터 수신된 신호에 기반하여 조명부(110)의 광의 조사 각도를 조정할 수 있는 조명 구동부(또는, 조명 제어부)를 포함할 수 있다. The lighting unit 110 may irradiate light to the object Ob1. The lighting unit 110 may be implemented as part of the photographing unit 170 or may be implemented as a separate device from the photographing unit 170. The photographing unit 170 can control the lighting unit 110 to emit light when capturing an image. Due to the light emitted during image capture, the photographing unit 170 can capture images of an object (e.g., a vehicle) even at night, and when capturing images, the vehicle's windshield (or vehicle coating film attached to the windshield) can be filmed. Transmittance may increase. When the transmittance increases, the photographing unit 170 can capture images inside the vehicle. In FIG. 1, the lighting unit 110 is shown as having a single light source, but the lighting unit 110 may include a plurality of light sources installed at different angles in different positions. The lighting unit 110 may include a lighting driver (or lighting control unit) that can adjust the irradiation angle of light of the lighting unit 110 based on a signal received from the data processing unit 140.

객체(0b1)가 기준 영역(AR)을 통과하면(또는, L2를 지나면), 데이터 처리부(140)는 조명부(110)를 통해 광이 조사된 객체(0b1)의 영상을 통해 안전벨트 미착용과 같은 객체(0b1)의 교통 법규 위반 행위를 검출할 수 있다. 이때, 데이터 처리부(140)는 객체(0b1)의 식별 정보(예를 들면, 대형(버스)/소형차(승용차) 등의 차종)에 기반하여 조명부(110)를 제어함으로써 광 조사 각도를 조정할 수 있으며, 추가적으로 객체(Ob1)의 사양 정보에 기반하여 조명부(110)를 제어함으로써 광 조사 각도를 보다 미세하게 조정할 수 있다. 예를 들어, 데이터 처리부(140)는 객체(Ob1)의 식별 정보에 맞는 광원(조명부)을 선택하고, 사양 정보에 따라서 선택된 광원의 각도를 조정하도록 할 수 있다. 이 때, 조명부(110)의 조명 제어부는 데이터 처리부(140)로부터 수신된 신호에 기반하여 객체(0b1)의 높이와 전면 유리의 각도 등에 대응되도록 조명부(110)의 각도를 조정할 수 있다. 이를 통해, 데이터 처리부(140)는 객체(0b1)가 기준 영역(AR)을 통과하는 시점(즉, 도 1의 L2를 지나는 시점)에 조명부(110)가 객체(0b1)의 전면 유리, 즉, 운전자와 탑승자에 대해 광이 조사될 수 있도록 각도를 제어할 수 있다. 촬영부(170)는 조명부(110)에 의해 객체(0b1)로 광이 조사되면, 객체(0b1)의 영상을 촬영할 수 있다. 따라서, 사용자(예: 운영 장치(50)의 운영자)는 촬영된 객체(0b1)의 영상에 기반하여 객체(0b1)의 운전자와 탑승자의 안전 벨트 착용 여부를 판단할 수 있다. 그 외에도, 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템(100)은 촬영부(170)에 의해 촬영된 객체(0b1)의 영상에 기반하여 객체(0b1)의 과속이나 신호 위반 여부 등을 함께 단속하도록 할 수 있다.When the object 0b1 passes the reference area AR (or passes L2), the data processing unit 140 displays the image of the object 0b1 illuminated by light through the lighting unit 110, such as not wearing a seat belt. Traffic law violation behavior of the object (0b1) can be detected. At this time, the data processing unit 140 can adjust the light irradiation angle by controlling the lighting unit 110 based on the identification information of the object 0b1 (e.g., vehicle type such as large (bus)/small car (passenger car)). , Additionally, the light irradiation angle can be more finely adjusted by controlling the lighting unit 110 based on the specification information of the object Ob1. For example, the data processing unit 140 may select a light source (lighting unit) that matches the identification information of the object Ob1 and adjust the angle of the selected light source according to specification information. At this time, the lighting control unit of the lighting unit 110 may adjust the angle of the lighting unit 110 to correspond to the height of the object 0b1 and the angle of the front glass based on the signal received from the data processing unit 140. Through this, the data processing unit 140 causes the lighting unit 110 to illuminate the front glass of the object 0b1 at the point when the object 0b1 passes through the reference area AR (i.e., when it passes L2 in FIG. 1), i.e. The angle can be controlled so that light is irradiated to the driver and passengers. When light is irradiated to the object 0b1 by the lighting unit 110, the photographing unit 170 can capture an image of the object 0b1. Accordingly, a user (eg, an operator of the operating device 50) can determine whether the driver and passenger of the object 0b1 are wearing seat belts based on the captured image of the object 0b1. In addition, the information analysis system 100 using an image according to an embodiment disclosed in this document determines whether the object 0b1 is speeding or violates a signal based on the image of the object 0b1 captured by the photographing unit 170. You can control them together.

또한, 본 문서에 개시된 일 실시예에 따른 데이터 처리부(140)는 영상을 통하여 교통 법규 위반을 판단할 때 발생 가능한 오류의 원인을 검출할 수 있다. 이 경우, 데이터 처리부(140)는 센서부(예를 들면, 솔라 트래커)와 그림자의 길이 및 방향에 기반하여 태양의 정확한 위치를 측정한 후, 태양의 위치에 따른 오류를 판정할 수 있다. 또한, 데이터 처리부(140)는 영상을 통해 객체(0b1)에 마련된 필름의 종류를 판단하고, 이에 기반하여 필름의 종류에 따른 오류를 판정할 수 있다.Additionally, the data processing unit 140 according to an embodiment disclosed in this document can detect the cause of errors that may occur when determining traffic law violations through images. In this case, the data processing unit 140 may measure the exact position of the sun based on the sensor unit (eg, solar tracker) and the length and direction of the shadow, and then determine an error according to the sun's position. Additionally, the data processing unit 140 may determine the type of film provided in the object 0b1 through the image and determine an error according to the type of film based on this.

일 실시예에서, 영상을 이용한 정보 분석 시스템(100)은 운영 장치(50)를 더 포함할 수 있다. 운영 장치(50)(예: 관제 센터)는 지방자치단체, 도로공사, 시설공단, 또는 경찰청과 같은 공공기관에 의하여 운영될 수 있다. 운영 장치(50)는 데이터 처리부(140)를 통해 획득된 정보를 데이터 베이스에 저장 및 관리하고, 저장된 정보를 이용하여 운영 장치(50)의 사용자(예: 관제 요원)가 실시간으로 도로 상황을 관제할 수 있는 인터페이스를 출력할 수 있다. 또한, 운영 장치(50)는 데이터 처리부(140)의 부족한 하드웨어 성능을 보완할 수 있다. 예를 들어, 운영 장치(50)의 데이터 처리부는 데이터 처리부(140) 보다 고성능의 영상 처리를 구현할 수 있는 하드웨어(예: GPU)를 포함할 수 있다. 운영 장치(50)의 데이터 처리부는 도로 상황(예: 통행 정보, 방범 정보, 또는 이벤트 정보) 분석을 포함하여 데이터 처리부(140)의 기능과 동일한 기능을 수행할 수 있다. 이 경우, 통행 정보 획득부에 포함된 데이터 처리부(140)는 제거 또는 비활성화되는 것이 가능하다. 운영 장치(50)는 분석된 도로 상황에 기반하여 신호 또는 조명부를 제어하거나 차량에게 다른 경로를 제공하도록 데이터 처리부(140)에게 명령을 전달할 수 있다. In one embodiment, the information analysis system 100 using images may further include an operating device 50. The operating device 50 (e.g., control center) may be operated by a public institution such as a local government, road construction company, facility corporation, or police agency. The operating device 50 stores and manages the information acquired through the data processing unit 140 in a database, and the user (e.g., traffic control agent) of the operating device 50 controls the road situation in real time using the stored information. You can output the interface that can be used. Additionally, the operating device 50 can compensate for the insufficient hardware performance of the data processing unit 140. For example, the data processing unit of the operating device 50 may include hardware (eg, GPU) that can implement image processing at a higher performance than the data processing unit 140. The data processing unit of the operating device 50 may perform the same functions as the data processing unit 140, including analysis of road conditions (e.g., traffic information, crime prevention information, or event information). In this case, the data processing unit 140 included in the traffic information acquisition unit can be removed or deactivated. The operating device 50 may transmit a command to the data processing unit 140 to control signals or lighting units or provide a different route to the vehicle based on the analyzed road situation.

도 2는 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템의 구성을 나타내는 블록도이다. 이하에 기재된 구성들은 하드웨어 장치로 구현되거나, 또는 명령어, 프로그램과 같은 소프트웨어로 구현될 수 있다. 도 2를 참조하면, 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템(100)은 조명부(110), 데이터 처리부(140), 객체 검지부(160), 촬영부(170) 및 센서부(180)를 포함할 수 있다. 이하에서 도 1과 명칭 및 참조번호가 동일한 구성은 도 1에 기재된 구성과 기능이 동일하거나 유사할 수 있다. Figure 2 is a block diagram showing the configuration of an information analysis system using images according to an embodiment disclosed in this document. The configurations described below may be implemented as hardware devices, or may be implemented as software such as instructions and programs. Referring to FIG. 2, the information analysis system 100 using images according to an embodiment disclosed in this document includes a lighting unit 110, a data processing unit 140, an object detection unit 160, a photographing unit 170, and a sensor unit. It may include (180). Hereinafter, components having the same names and reference numbers as those in FIG. 1 may have the same or similar functions as the components described in FIG. 1.

조명부(110)는 기준 영역을 통과하는 객체로 광을 조사할 수 있다. 이 때, 조명부(110)는 틸트(tilt) 구조로 구성될 수 있으며, 하나의 광원, 또는 서로 다른 위치에 설치되어 서로 다른 각도로 상기 객체에 광을 조사하는 복수의 광원을 포함할 수 있다. The lighting unit 110 may irradiate light to an object passing through the reference area. At this time, the lighting unit 110 may be configured in a tilt structure and may include a single light source or a plurality of light sources installed at different locations and irradiating light to the object at different angles.

데이터 처리부(140)는 기준 영역에 진입한 객체의 통행 정보를 획득할 수 있다. 이 경우, 데이터 처리부(140)는 객체의 식별 정보 및 식별 정보에 매칭되는 객체의 사양 정보 중 적어도 하나를 획득할 수 있다. 이 때, 데이터 처리부(140)는 영상을 이용한 정보 분석 시스템(100)에 마련된 데이터베이스(미도시)에 저장된 사양 정보를 획득하거나, 외부 서버(예: 운영 장치(50))로부터 객체의 식별 정보와 매칭되는 사양 정보를 수신할 수 있다. 예를 들어, 객체의 사양 정보는 객체의 크기에 관한 정보(예를 들면, 객체의 길이, 높이, 폭 등)와 객체에 구비된 전면 유리의 각도에 관한 정보 등을 포함할 수 있다.The data processing unit 140 may obtain passage information of an object entering the reference area. In this case, the data processing unit 140 may obtain at least one of object identification information and object specification information matching the identification information. At this time, the data processing unit 140 obtains specification information stored in a database (not shown) provided in the information analysis system 100 using images, or obtains object identification information and object identification information from an external server (e.g., operating device 50). You can receive matching specification information. For example, the object specification information may include information about the size of the object (eg, length, height, width, etc.) of the object and information about the angle of the front glass provided on the object.

데이터 처리부(140)는 기준 영역을 통과하는 객체의 영상을 획득하고, 획득된 영상에 기반하여 객체의 교통 법규 위반 여부를 판단할 수 있다. 이 경우, 데이터 처리부(140)는 객체의 영상에 기반하여 객체의 신호 위반 여부, 과속 여부, 안전 벨트 착용 위반 여부 등을 판단할 수 있다. 데이터 처리부(140)는 조명부(110)가 광을 조사할 때 광의 조사 각도가 차량의 차종이나 사양 정보에 적합하도록 조명부(110)의 광의 조사 각도를 제어할 수 있다. The data processing unit 140 may acquire an image of an object passing through a reference area and determine whether the object violates traffic laws based on the acquired image. In this case, the data processing unit 140 may determine whether the object violates a signal, speeds, or violates the wearing of a seat belt based on the image of the object. When the lighting unit 110 irradiates light, the data processing unit 140 may control the light irradiation angle of the lighting unit 110 so that the light irradiation angle is appropriate for the vehicle model or specification information.

한편, 조명부(110)가 복수의 광원을 포함하는 경우. 데이터 처리부(140)는 객체의 식별 정보에 기반하여 복수의 광원 중 하나를 선택할 수 있다. 예를 들면, 복수의 광원은 각각 대형 차량을 위한 광원과 소형 차량을 위한 광원을 포함할 수 있으며, 전면 유리에 대한 수직 광 입사 각도는 대형 차량과 소형 차량이 서로 다르므로 데이터 처리부(140)는 차종에 대응하는 광원을 선택할 수 있다. 동일한 차종이라도 차량의 사양에 따라서 전면 유리의 각도 또는 높이가 다를 수 있으므로, 실시예에서 데이터 처리부(140)는 객체의 식별 정보에 기반하여 선택된 광원의 각도를 사양 정보를 이용하여 틸트 방식으로 보다 미세하게 조정할 수 있다. Meanwhile, when the lighting unit 110 includes a plurality of light sources. The data processing unit 140 may select one of a plurality of light sources based on object identification information. For example, the plurality of light sources may include a light source for a large vehicle and a light source for a small vehicle, and since the vertical light incident angle on the windshield is different for a large vehicle and a small vehicle, the data processing unit 140 You can select a light source that matches your vehicle model. Even for the same vehicle type, the angle or height of the windshield may be different depending on the vehicle specifications, so in the embodiment, the data processing unit 140 uses the specification information to adjust the angle of the light source selected based on the object identification information in a more detailed manner by tilting it. can be adjusted accordingly.

데이터 처리부(140)는 객체가 기준 영역을 통과하는 동안의 태양의 위치와 객체로 인해 생성된 그림자에 기반하여 교통 법규 위반 여부를 판단할 때 발생하는 오류의 원인을 판정할 수 있다. 이 경우, 데이터 처리부(140)는 센서부(180)에 의해 측정된 태양의 위치와 영상에서의 객체 또는 객체에 탑승한 운전자나 탑승자의 그림자의 길이와 방향을 함께 고려하여 정확한 태양의 위치를 산출할 수 있다. 예를 들면, 데이터 처리부(140)는 획득된 객체의 영상이 역광 또는 직광의 영향에 의해 오류가 발생하였는지 여부를 판정할 수 있다. 또한, 데이터 처리부(140)는 객체의 영상을 이용하여 객체에 마련된 필름의 종류를 판단할 수 있다. 이 때, 데이터 처리부(140)는 필름의 종류에 기반하여 오류의 원인을 판단할 수 있다. 예를 들면, 데이터 처리부(140)는 객체의 영상에 기반하여 객체에 마련된 필름이 반사형 필름인지 또는 흡수형 필름인지 여부를 판단할 수 있다. 이처럼, 데이터 처리부(140)는 태양의 위치에 따른 요인이나 객체에 마련된 필름의 종류에 따른 요인 등을 고려하여 영상 분석 오류가 발생한 원인을 판정할 수 있다. 따라서, 영상을 이용한 정보 분석 시스템(100)의 정확도와 신뢰성을 확보할 수 있다.The data processing unit 140 may determine the cause of an error that occurs when determining whether a traffic law is violated based on the position of the sun while the object passes through the reference area and the shadow created by the object. In this case, the data processing unit 140 calculates the exact position of the sun by considering the position of the sun measured by the sensor unit 180 and the length and direction of the shadow of the object or the driver or passenger riding the object in the image. can do. For example, the data processing unit 140 may determine whether an error has occurred in the acquired image of the object due to the influence of backlight or direct light. Additionally, the data processing unit 140 may determine the type of film provided on the object using the image of the object. At this time, the data processing unit 140 may determine the cause of the error based on the type of film. For example, the data processing unit 140 may determine whether the film provided on the object is a reflective film or an absorptive film based on the image of the object. In this way, the data processing unit 140 can determine the cause of an image analysis error by considering factors such as factors depending on the position of the sun or the type of film provided on the object. Therefore, the accuracy and reliability of the information analysis system 100 using images can be secured.

객체 검지부(160)는 기준 영역을 진입하는 객체를 검지할 수 있다. 예를 들면, 객체 검지부(160)는 레이더나 라이다일 수 있다. 또한, 객체 검지부(160)는 하나 또는 복수 개일 수 있다.The object detection unit 160 can detect an object entering the reference area. For example, the object detection unit 160 may be radar or lidar. Additionally, there may be one or more object detection units 160.

촬영부(170)는 기준 영역에 진입하거나 기준 영역을 통과하는 객체를 촬영할 수 있다. 이 때, 촬영부(170)는 객체가 기준 영역에 진입하는 시점과 통과하는 시점에 객체의 영상을 촬영할 수 있다. 또한, 촬영부(170)에는 촬영을 위한 광원(예: 조명부(110))이 구비될 수 있다. 예를 들면, 촬영부(170)는 카메라일 수 있다. 데이터 처리부(140)에 의해 차종에 대응하는 광 조사 각도로 설치된 광원이 선택되면, 촬영부(170)는 선택된 광원을 통해 광이 조사되도록 조명부(110)를 제어할 수 있다. 또한, 촬영부(170)는 데이터 처리부(140)에 의하여 선택 및 미세 조정된 광원을 통해 광이 조사되도록 조명부(110)를 제어할 수 있다. The photographing unit 170 may photograph an object entering or passing through the reference area. At this time, the photographing unit 170 may capture images of the object at the time when the object enters and when it passes through the reference area. Additionally, the photographing unit 170 may be equipped with a light source (eg, lighting unit 110) for photographing. For example, the photographing unit 170 may be a camera. When a light source installed at a light irradiation angle corresponding to the vehicle type is selected by the data processing unit 140, the photographing unit 170 may control the lighting unit 110 to emit light through the selected light source. Additionally, the photographing unit 170 may control the lighting unit 110 to emit light through a light source selected and finely adjusted by the data processing unit 140.

센서부(180)는 시간에 따른 태양의 위치 변화를 검출할 수 있다. 예를 들면, 센서부(180)는 태양의 위치를 추적하는 솔라 트래커일 수 있다. 이 경우, 센서부(180)는 매 시간마다 CdS(cadmium sulfide)의 센싱값을 저장함으로써 태양의 위치를 예측 가능하도록 할 수 있다.The sensor unit 180 can detect changes in the sun's position over time. For example, the sensor unit 180 may be a solar tracker that tracks the position of the sun. In this case, the sensor unit 180 can predict the position of the sun by storing the sensing value of CdS (cadmium sulfide) every hour.

이와 같이, 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템(100)은 차량의 사양에 따라 조명의 각도를 제어함으로써, 차량의 운전자와 탑승자의 안전 벨트 착용 여부를 보다 정확하고 용이하게 판단할 수 있다.In this way, the information analysis system 100 using images according to an embodiment disclosed in this document controls the angle of lighting according to the specifications of the vehicle, thereby more accurately and easily determining whether the driver and passengers of the vehicle are wearing seat belts. You can judge.

또한, 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템(100)은 태양의 위치와 차량 코팅 필름의 종류 등에 기반하여 영상 분석 오류를 판정함으로써, 안전 벨트 착용 위반에 관한 영상 분석 시 신뢰도를 확보할 수 있다.In addition, the information analysis system 100 using images according to an embodiment disclosed in this document determines image analysis errors based on the position of the sun and the type of vehicle coating film, thereby providing reliability when analyzing images regarding violation of seat belt wearing. can be secured.

도 3은 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템의 전체 동작을 나타내는 흐름도이다.Figure 3 is a flowchart showing the overall operation of the information analysis system using images according to an embodiment disclosed in this document.

도 3을 참조하면, 데이터 처리부(140)는 먼저 객체 검지부(160)를 통해 기준 영역에 대한 객체의 진입을 검지할 수 있다(S101). 예를 들면, 객체는 차량일 수 있다. 또한, 데이터 처리부(140)는 객체 진입시 촬영부(170)를 통해 객체의 식별 정보를 검출할 수 있다(S102). Referring to FIG. 3, the data processing unit 140 may first detect the entry of an object into the reference area through the object detection unit 160 (S101). For example, the object may be a vehicle. Additionally, the data processing unit 140 may detect identification information of the object through the photographing unit 170 when the object enters (S102).

그리고, 데이터 처리부(140)는 검출된 객체의 식별 정보를 사전에 저장된 객체의 사양 정보와 매칭할 수 있다(S103). 예를 들어, 데이터 처리부(140)는 영상을 통해 검출된 객체의 차종 또는 차량 번호에 대응되는 차량의 사양 정보(예를 들면, 차량의 길이, 높이, 폭, 전면 유리의 각도)를 획득할 수 있다.Then, the data processing unit 140 may match the identification information of the detected object with the specification information of the object stored in advance (S103). For example, the data processing unit 140 may obtain vehicle specification information (e.g., length, height, width of the vehicle, angle of the windshield) corresponding to the vehicle model or vehicle number of the object detected through the image. there is.

다음으로, 데이터 처리부(140)는 차량의 식별 정보 또는 사양 정보에 대응되도록 조명부(110)의 각도를 조정할 수 있다(S104). 예를 들어 조명부(110)가 복수의 광원으로 구성되어 있는 경우에 데이터 처리부(140)는 식별 정보(예: 차종)에 기반하여 복수의 광원 중 하나의 광원을 선택한 후에, 사양 정보에 기반하여 선택된 광원의 각도를 제어할 수 있다. 다른 실시에서, 데이터 처리부(140)는 객체가 기준 영역을 통과한 이후에 조명부(110)의 각도를 조정할 수 있다. Next, the data processing unit 140 may adjust the angle of the lighting unit 110 to correspond to the vehicle identification information or specification information (S104). For example, when the lighting unit 110 is composed of a plurality of light sources, the data processing unit 140 selects one light source among the plurality of light sources based on identification information (e.g., vehicle model) and then selects the light source based on the specification information. You can control the angle of the light source. In another implementation, the data processing unit 140 may adjust the angle of the lighting unit 110 after the object passes the reference area.

데이터 처리부(140)는 객체 검지부(160)를 통해 객체가 기준 영역을 통과하는 것을 검지할 수 있다(S105). 이 때, 데이터 처리부(140)는 객체의 통과 시점에 촬영된 객체의 영상에 기반하여 객체의 식별 정보를 재차 검출할 수 있다. 데이터 처리부(140)에 의해 차종에 대응하는 광 조사 각도로 설치된 광원이 선택되면, 촬영부(170)는 선택된 광원을 통해 광이 조사되도록 조명부(110)를 제어할 수 있다. 또한, 촬영부(170)는 데이터 처리부(140)에 의하여 선택 및 미세 조정된 광원을 통해 광이 조사되도록 조명부(110)를 제어할 수 있다. The data processing unit 140 may detect that an object passes the reference area through the object detection unit 160 (S105). At this time, the data processing unit 140 may detect the object's identification information again based on the image of the object captured at the time of passage of the object. When a light source installed at a light irradiation angle corresponding to the vehicle type is selected by the data processing unit 140, the photographing unit 170 may control the lighting unit 110 to emit light through the selected light source. Additionally, the photographing unit 170 may control the lighting unit 110 to emit light through a light source selected and finely adjusted by the data processing unit 140.

데이터 처리부(140)는 객체의 영상을 분석할 수 있다(S106). 이 경우, 데이터 처리부(140)는 영상을 통해 객체의 과속, 신호 위반, 안전 벨트 착용 여부를 분석하여 해당 객체의 교통 법규 위반 여부를 판단할 수 있다(S107).The data processing unit 140 may analyze the image of the object (S106). In this case, the data processing unit 140 can determine whether the object violates traffic laws by analyzing whether the object is speeding, violating a traffic signal, or wearing a seat belt through the image (S107).

한편, 교통 법규 위반 여부가 판단되지 않으면, 데이터 처리부(140)는 오류 판정을 수행할 수 있다(S108). 예를 들어 영상을 통해 안전 벨트가 검지되지 않은 경우에, 데이터 처리부(140)는 운전자가 실제 안전 벨트를 착용하지 않은 것인지, 안전 벨트가 특정 요인에 의하여 검지되지 않은 것인지를 확인할 필요가 있다. 이 경우, 데이터 처리부(140)는 안전 벨트가 미 검지되면 탑승자가 검지되는지를 확인하고, 탑승자가 검지되지 않으면 환경적 요인이 존재하는 것으로 결정할 수 있다. 환경적 요인은 예를 들어, 태양의 위치에 따른 요인이나 객체의 필름 종류에 따른 요인 등을 포함할 수 있다. Meanwhile, if it is not determined whether traffic regulations are violated, the data processing unit 140 may perform an error determination (S108). For example, when a seat belt is not detected through an image, the data processing unit 140 needs to check whether the driver is not actually wearing a seat belt or whether the seat belt is not detected due to a specific factor. In this case, the data processing unit 140 may check whether the occupant is detected if the seat belt is not detected, and may determine that an environmental factor exists if the occupant is not detected. Environmental factors may include, for example, factors depending on the position of the sun or factors depending on the type of film of the object.

데이터 처리부(140)는 교통 법규 위반 여부 판단 결과에 따른 데이터를 생성할 수 있다(S109). 예를 들어 전면 유리가 포함된 영상 분석을 통해 안전벨트 미착용이 검지되면(S107 동작의 'Yes'), 데이터 처리부(140)는 해당 위반 정보(안전벨트 미착용)와 위반 정보에 대응하는 차량의 식별 정보(예: 차종 또는 차량 번호 중 적어도 하나)를 포함하는 단속 데이터를 생성할 수 있다. 다른 예를 들어 안전벨트 착용 여부가 검지되지 않으면(S107 동작의 'No'), 데이터 처리부(140)는 S108 동작을 통해 판정된 오류에 관한 데이터를 생성할 수 있다. The data processing unit 140 may generate data according to the result of determining whether traffic laws are violated (S109). For example, when non-wearing of a seat belt is detected through video analysis including the windshield ('Yes' in operation S107), the data processing unit 140 identifies the relevant violation information (seat belt not being worn) and the vehicle corresponding to the violation information. Enforcement data containing information (e.g., at least one of vehicle model or vehicle number) may be generated. For another example, if it is not detected whether the seat belt is worn ('No' in operation S107), the data processing unit 140 may generate data regarding the determined error through operation S108.

데이터 처리부(140)는 생성된 데이터를 운영 장치(50)로 전송할 수 있다. 운영 장치(50)의 사용자(또는 운영자)는 데이터 처리부(140)로부터 수신된 데이터에 기반하여 차량의 단속 유무를 알거나 또는 영상 분석 과정에서 나타난 오류 내역을 확인할 수 있다. The data processing unit 140 may transmit the generated data to the operating device 50. The user (or operator) of the operating device 50 can know whether a vehicle is controlled based on the data received from the data processing unit 140 or check the details of errors that appear during the video analysis process.

도 4는 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템의 오류 판정 동작을 나타내는 흐름도이다. Figure 4 is a flowchart showing an error determination operation of an information analysis system using images according to an embodiment disclosed in this document.

도 4를 참조하면, 본 문서에 개시된 일 실시예에 따른 데이터 처리부(140)는 오류 판정 시 센서부(180)를 이용하여 태양의 위치를 추적할 수 있다(S201). 이 때, 센서부(180)는 시간대 별로 태양의 위치 측정치를 저장할 수 있다. Referring to FIG. 4, the data processing unit 140 according to an embodiment disclosed in this document may track the position of the sun using the sensor unit 180 when determining an error (S201). At this time, the sensor unit 180 may store the sun's position measurements for each time zone.

또한, 데이터 처리부(140)는 영상에 나타난 그림자의 길이 및 방향에 기반하여 태양의 위치를 검출할 수 있다(S202). 이 경우, 데이터 처리부(140)는 영상의 객체(예를 들면, 차량)나 객체의 운전자나 탑승자의 그림자의 길이와 방향을 통해 태양의 위치를 예측할 수 있다. 이처럼, 데이터 처리부(140)는 센서부(180)에 의한 태양의 위치 측정치와 영상을 통한 그림자 분석에 기반하여 태양의 위치에 의한 요인(예를 들면, 역광, 직광)을 정확하게 검출할 수 있다.Additionally, the data processing unit 140 may detect the position of the sun based on the length and direction of the shadow appearing in the image (S202). In this case, the data processing unit 140 can predict the position of the sun based on the length and direction of the shadow of an object (eg, a vehicle) in the image or the shadow of the object's driver or passenger. In this way, the data processing unit 140 can accurately detect factors due to the sun's position (eg, backlight, direct light) based on the sun's position measurement by the sensor unit 180 and shadow analysis through the image.

그리고, 데이터 처리부(140)는 객체의 전면 유리 영상에 기반하여 객체에 마련된 필름의 종류를 판단할 수 있다(S203). 예를 들어, 데이터 처리부(140)는 객체의 영상에서 전면 유리가 빛을 모두 반사시키면 반사형 필름이고, 빛을 모두 흡수하는 경우 흡수형 필름으로 판단할 수 있다.Additionally, the data processing unit 140 may determine the type of film provided on the object based on the front glass image of the object (S203). For example, the data processing unit 140 may determine that in an image of an object, if the front glass reflects all the light, it is a reflective film, and if it absorbs all the light, it can be determined that it is an absorptive film.

다음으로, 데이터 처리부(140)는 태양의 위치에 의한 요인과 객체의 필름 종류에 의한 요인을 고려하여 영상 분석 시 발생한 오류를 판정할 수 있다(S204). 따라서, 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템(100)은 안전벨트 검출에 관한 환경적인 요인을 판단하여 시스템의 정확도 및 신뢰성을 확보하기 위한 오류 판단을 수행할 수 있다.Next, the data processing unit 140 may determine errors that occurred during image analysis by considering factors due to the position of the sun and factors due to the type of film of the object (S204). Therefore, the information analysis system 100 using images according to an embodiment disclosed in this document can determine environmental factors related to seat belt detection and perform error determination to secure accuracy and reliability of the system.

도 5는 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템에서 획득된 객체의 태양 위치 별 전면 유리 영상을 나타내는 도면이다. 또한, 도 6은 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템에서 획득된 객체의 필름 종류 별 전면 유리 영상을 나타내는 도면이다.FIG. 5 is a diagram illustrating front glass images for each sun position of an object obtained in an information analysis system using images according to an embodiment disclosed in this document. In addition, Figure 6 is a diagram showing front glass images for each film type of an object acquired in an information analysis system using images according to an embodiment disclosed in this document.

도 5의 (a) 및 (b)는 각각 역광(예를 들면, 태양광이 촬영부(170)의 맞은 편에서 들어오는 경우)과 직광(예를 들면, 태양광이 촬영부(170)의 후면에서 들어오는 경우)의 영상을 나타낸다. 또한, 도 6의 (a) 및 (b)는 각각 반사형 필름과 흡수형 필름의 영상을 나타낸다.5 (a) and (b) respectively show backlight (for example, when sunlight enters from the opposite side of the photographing unit 170) and direct light (for example, when sunlight enters the rear of the photographing unit 170). (if coming from). Additionally, Figures 6 (a) and (b) show images of a reflective film and an absorptive film, respectively.

도 5의 (a) 및 (b)를 참조하면, 센서부(180)(예를 들면, 솔라 트래커)는 매시간 마다 CdS의 센싱값을 저장할 수 있다. 이처럼, 데이터 처리부(140)는 해당 객체가 기준 영역을 지나는 시점에 대해 센서부(180)에 의해 저장된 센싱값에 기반하여 태양의 위치를 예측하고, 해당 시점의 객체의 영상에서 객체와 운전자 또는 탑승자의 그림자의 길이 및 방향을 추가적으로 검출하여 정확한 태양의 위치를 획득할 수 있다. 이를 통해, 태양의 위치에 따른 오류를 판정하여 영상 분석이 불가능한 원인(예를 들면, 역광 또는 직광)을 파악할 수 있다.Referring to Figures 5 (a) and (b), the sensor unit 180 (eg, solar tracker) may store the CdS sensing value every hour. In this way, the data processing unit 140 predicts the position of the sun based on the sensing value stored by the sensor unit 180 for the time when the object passes the reference area, and identifies the object and the driver or passenger in the image of the object at that time. The exact position of the sun can be obtained by additionally detecting the length and direction of the shadow. Through this, it is possible to determine errors according to the position of the sun and identify the cause (for example, backlight or direct light) that makes image analysis impossible.

즉, 데이터 처리부(140)는 도 5의 (a) 및 (b)의 영상처럼 윤곽이나 내부가 투과하기는 하지만, 내부가 정확하게 보이지 않는 영상의 경우 역광 또는 직광으로 인한 오류로 판정할 수 있다. 또한, 데이터 처리부(140)는 태양의 위치에 따른 오류를 판정한 후에 판정된 영상을 후처리하여 오류 판정을 위한 학습을 수행할 수 있다. 데이터 처리부(140)는 이와 같이 학습된 영상에 기반하여 태양 위치에 따른 오류 판정을 수행할 수 있다That is, the data processing unit 140 may determine an error due to backlight or direct light in the case of an image in which the outline or interior is transparent but the interior is not clearly visible, such as the images in (a) and (b) of Figures 5. Additionally, the data processing unit 140 may perform learning for error determination by post-processing the determined image after determining an error according to the position of the sun. The data processing unit 140 may perform error determination according to the sun position based on the learned image.

도 6의 (a) 및 (b)를 참조하면, 데이터 처리부(140)는 획득된 영상으로부터 객체(예를 들면, 차량)에 마련된 필름의 종류를 판정할 수 있다. 예를 들면, 차량의 필름의 경우 통상 반사형 필름과 흡수형 필름의 2가지 종류가 있으며, 이들 필름은 각각 효과가 상이하게 나타나는 특징이 있다. 즉, 도 6의 (a)에 도시한 것과 같이 반사형 필름의 경우 빛을 모두 반사시켜 차량의 전면 유리의 영상에 배경이 영향을 주고, 도 6의 (b)에 도시한 것과 같이 흡수형 필름의 경우 빛을 흡수시켜 차량의 전면 유리의 영상에 흑색으로 영향을 줄 수 있다.Referring to (a) and (b) of FIGS. 6, the data processing unit 140 may determine the type of film provided on the object (eg, vehicle) from the acquired image. For example, in the case of vehicle films, there are usually two types: reflective films and absorbent films, and these films each have different effects. In other words, as shown in (a) of Figure 6, in the case of a reflective film, all light is reflected and the background affects the image of the windshield of the vehicle, and as shown in (b) of Figure 6, the absorptive film In this case, light can be absorbed, causing the image on the vehicle's windshield to appear black.

이처럼, 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 시스템(100)은 센서부(180)와 영상의 그림자 분석에 기반하여 태양의 위치를 파악하고, 차량에 마련된 필름의 종류를 검출하여 운전자와 탑승자의 안전 벨트 착용 여부에 관한 영상 분석 시 오류의 원인을 정확하게 분석하고 신뢰성을 확보할 수 있다.In this way, the information analysis system 100 using an image according to an embodiment disclosed in this document determines the position of the sun based on the sensor unit 180 and the shadow analysis of the image, and detects the type of film provided in the vehicle. When analyzing images of whether the driver and passengers are wearing seat belts, the cause of the error can be accurately analyzed and reliability can be secured.

도 7은 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 방법을 나타내는 흐름도이다.Figure 7 is a flowchart showing an information analysis method using images according to an embodiment disclosed in this document.

도 7을 참조하면, 정보 분석 시스템(100)은 기준 영역에 진입하는 차량의 식별 정보를 획득할 수 있다(S310). 또한, 정보 분석 시스템(100)은 식별 정보와 매칭되는 사양 정보를 더 획득할 수 있다. Referring to FIG. 7, the information analysis system 100 may obtain identification information of a vehicle entering the reference area (S310). Additionally, the information analysis system 100 may further obtain specification information matching the identification information.

또한, 정보 분석 시스템(100)은 차량의 식별 정보에 기반하여 조명부(110)를 제어함으로써 광의 조사 각도를 조정할 수 있다(S320). 또한, 정보 분석 시스템(100)은 객체의 사양 정보에 대응되도록 조명부(110)를 제어함으로써 광의 조사 각도를 조정할 수 있다. 이를 통해, 조명부(110)는 기준 영역을 통과하는 차량의 전면 유리로 정확하게 광을 조사할 수 있다.Additionally, the information analysis system 100 can adjust the irradiation angle of light by controlling the lighting unit 110 based on the vehicle identification information (S320). Additionally, the information analysis system 100 can adjust the irradiation angle of light by controlling the lighting unit 110 to correspond to the specification information of the object. Through this, the lighting unit 110 can accurately irradiate light to the windshield of a vehicle passing through the reference area.

한편, 단계 S320에 있어서, 조명부(110)가 복수의 광원을 포함하는 경우. 정보 분석 시스템(예: 데이터 처리부(140))은 차량의 식별 정보에 기반하여 복수의 광원 중 하나를 선택하고, 선택된 광원의 각도를 차량의 사양 정보에 대응되도록 조정할 수 있다. 예를 들면, 복수의 광원은 각각 대형 차량과 소형 차량의 전면 유리에 대한 광 입사 각도가 수직이 되도록 설치될 수 있다. 즉, 단계 S320에서 정보 분석 시스템(100)은 획득된 식별 정보에 따라 광원을 선택한 후, 선택된 광원의 각도를 사양 정보에 대응되도록 미세 조정할 수 있다.Meanwhile, in step S320, when the lighting unit 110 includes a plurality of light sources. The information analysis system (e.g., data processing unit 140) may select one of a plurality of light sources based on the vehicle identification information and adjust the angle of the selected light source to correspond to the vehicle specification information. For example, the plurality of light sources may be installed so that the light incident angles on the windshields of the large vehicle and the small vehicle are vertical, respectively. That is, in step S320, the information analysis system 100 selects a light source according to the obtained identification information and then finely adjusts the angle of the selected light source to correspond to the specification information.

다음으로, 정보 분석 시스템(100)은 차량이 기준 영역을 통과할 때 조명부(110)의 광과 함께 촬영된 영상을 분석함으로써 차량의 교통 법규 위반 여부를 판단할 수 있다. Next, the information analysis system 100 can determine whether the vehicle violates traffic laws by analyzing the image captured along with the light from the lighting unit 110 when the vehicle passes the reference area.

한편, 도 7에는 나타내지 않았으나, 본 문서에 개시된 일 실시예에 따른 정보 분석 시스템(100)은 교통 법규 위반의 판단 과정에서 발생하는 오류의 원인을 판정할 수 있다. 이 경우, 정보 분석 시스템(100)은 차량이 기준 영역을 통과하는 동안의 태양의 위치와 차량으로 인해 생성된 그림자와 차량의 영상을 이용하여 차량에 마련된 필름의 종류에 기반하여 오류의 원인을 판정할 수 있다. 이에 관해서는 도 5 및 6에서 기술하였으므로, 자세한 설명은 생략한다.Meanwhile, although not shown in FIG. 7, the information analysis system 100 according to an embodiment disclosed in this document can determine the cause of errors that occur in the process of determining traffic law violations. In this case, the information analysis system 100 determines the cause of the error based on the type of film provided on the vehicle using the position of the sun while the vehicle passes through the reference area, the shadow created by the vehicle, and the image of the vehicle. can do. Since this is described in FIGS. 5 and 6, detailed description will be omitted.

이와 같이, 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 방법은 차량의 차종에 따라 조명의 각도를 제어함으로써, 차량의 운전자와 탑승자의 안전 벨트 착용 여부를 보다 정확하고 용이하게 판단할 수 있다.As such, the information analysis method using images according to an embodiment disclosed in this document can more accurately and easily determine whether the driver and passengers of the vehicle are wearing seat belts by controlling the angle of lighting according to the vehicle type. there is.

또한, 본 문서에 개시된 일 실시예에 따른 영상을 이용한 정보 분석 방법은 태양의 위치와 차량 코팅 필름의 종류 등에 기반하여 오류를 판정함으로써, 안전 벨트 착용 위반에 관한 영상 분석 시 신뢰도를 확보할 수 있다.In addition, the information analysis method using images according to an embodiment disclosed in this document determines errors based on the position of the sun and the type of vehicle coating film, thereby securing reliability when analyzing images related to seat belt violations. .

이상에서, 본 문서에 개시된 실시 예를 구성하는 모든 구성 요소들이 하나로 결합하거나 결합하여 동작하는 것으로 설명되었다고 해서, 본 문서에 개시된 실시예들이 반드시 이러한 실시 예에 한정되는 것은 아니다. 즉, 본 문서에 개시된 실시예들의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. In the above, just because all the components constituting the embodiments disclosed in this document are described as being combined or operated in combination, the embodiments disclosed in this document are not necessarily limited to these embodiments. That is, as long as it is within the scope of the purpose of the embodiments disclosed in this document, all of the components may be operated by selectively combining one or more of them.

또한, 이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재할 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 문서에 개시된 실시예들이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미와 일치하는 것으로 해석되어야 하며, 본 문서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In addition, terms such as “include,” “comprise,” or “have” described above mean that the corresponding component may be present, unless specifically stated to the contrary, and thus do not exclude other components. Rather, it should be interpreted as being able to include other components. All terms, including technical or scientific terms, have the same meaning as generally understood by a person of ordinary skill in the technical field to which the embodiments disclosed in this document belong, unless otherwise defined. Commonly used terms, such as terms defined in dictionaries, should be interpreted as consistent with the contextual meaning of the relevant technology, and should not be interpreted in an idealized or overly formal sense unless explicitly defined in this document.

이상의 설명은 본 문서에 개시된 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 문서에 개시된 실시예들이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 문서에 개시된 실시예들의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 문서에 개시된 실시 예들은 본 문서에 개시된 실시예들의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 문서에 개시된 기술 사상의 범위가 한정되는 것은 아니다. 본 문서에 개시되 기술사상의 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 문서의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely an illustrative explanation of the technical idea disclosed in this document, and those skilled in the art in the technical field to which the embodiments disclosed in this document belong will understand without departing from the essential characteristics of the embodiments disclosed in this document. Various modifications and variations will be possible. Accordingly, the embodiments disclosed in this document are not intended to limit the technical idea of the embodiments disclosed in this document, but rather to explain them, and the scope of the technical idea disclosed in this document is not limited by these embodiments. The scope of protection of the technical ideas disclosed in this document shall be interpreted in accordance with the claims below, and all technical ideas within the equivalent scope shall be interpreted as being included in the scope of rights of this document.

Claims (15)

기준 영역에 진입하는 차량의 식별 정보를 획득하고,
상기 차량의 식별 정보와 매칭되는 상기 차량의 사양 정보를 획득하고,
상기 차량의 식별 정보에 기반하여 조명부를 제어함으로써 광의 조사 각도를 상기 차량의 사양 정보에 대응되도록 조정하고, 상기 차량이 상기 기준 영역을 통과할 때 상기 조명부의 광과 함께 촬영된 영상을 분석함으로써 상기 차량의 교통 법규 위반 여부를 판단하도록 설정된 데이터 처리부;를 포함하고,
상기 차량의 사양 정보는 상기 차량에 구비된 전면 유리의 각도에 관한 정보를 포함하는, 영상을 이용한 정보 분석 시스템.
Obtain identification information of the vehicle entering the reference area,
Obtaining specification information of the vehicle that matches identification information of the vehicle,
By controlling the lighting unit based on the identification information of the vehicle, the irradiation angle of light is adjusted to correspond to the specification information of the vehicle, and by analyzing the image captured with the light of the lighting unit when the vehicle passes the reference area, It includes a data processing unit set to determine whether the vehicle violates traffic laws,
An information analysis system using images, wherein the vehicle specification information includes information about the angle of the windshield provided in the vehicle.
청구항 1에 있어서, 상기 데이터 처리부는,
상기 차량의 식별 정보에 기반하여 상기 조명부에 포함되는 서로 다른 광 조사 각도를 갖는 복수의 광원 중 하나를 선택하도록 설정된, 영상을 이용한 정보 분석 시스템.
The method of claim 1, wherein the data processing unit,
An information analysis system using images, configured to select one of a plurality of light sources with different light irradiation angles included in the lighting unit based on the identification information of the vehicle.
청구항 1에 있어서, 상기 데이터 처리부는,
상기 차량의 식별 정보에 기반하여 상기 조명부에 포함되는 서로 다른 광 조사 각도를 갖는 복수의 광원 중 하나를 선택하고,
상기 선택된 광원의 각도를 상기 차량의 사양 정보에 대응되도록 조정하는 영상을 이용한 정보 분석 시스템.
The method of claim 1, wherein the data processing unit,
Selecting one of a plurality of light sources with different light irradiation angles included in the lighting unit based on the identification information of the vehicle,
An information analysis system using images that adjusts the angle of the selected light source to correspond to the specification information of the vehicle.
청구항 2 또는 3에 있어서,
상기 차량의 식별 정보는 상기 차량의 차종 및 차량 번호 중 적어도 하나를 포함하는 영상을 이용한 정보 분석 시스템.
In claim 2 or 3,
An information analysis system using an image in which the identification information of the vehicle includes at least one of the vehicle model and vehicle number.
삭제delete 청구항 4에 있어서,
상기 차량의 사양 정보는 상기 차량에 구비된 전면 유리의 높이에 관한 정보 또는 상기 차량의 크기에 관한 정보 중 적어도 하나를 포함하는 영상을 이용한 정보 분석 시스템.
In claim 4,
An information analysis system using images wherein the specification information of the vehicle includes at least one of information about the height of the windshield provided in the vehicle or information about the size of the vehicle.
청구항 1에 있어서, 상기 데이터 처리부는,
상기 차량이 상기 기준 영역을 통과하는 동안의 태양의 위치와 상기 차량으로 인해 생성된 그림자에 기반하여 상기 차량의 교통 법규 위반 여부를 판단 시 발생하는 오류의 원인을 판정하는 영상을 이용한 정보 분석 시스템.
The method of claim 1, wherein the data processing unit,
An information analysis system using images that determines the cause of errors that occur when determining whether the vehicle violates traffic laws based on the position of the sun while the vehicle passes the reference area and the shadow created by the vehicle.
청구항 7에 있어서,
시간에 따른 태양의 위치 변화를 검출하는 센서부;를 더 포함하는 영상을 이용한 정보 분석 시스템.
In claim 7,
An information analysis system using images further comprising a sensor unit that detects changes in the position of the sun over time.
청구항 1에 있어서, 상기 데이터 처리부는,
상기 차량의 영상을 이용하여 상기 차량에 마련된 필름의 종류를 판단하고, 상기 필름의 종류에 기반하여 오류의 원인을 판단하는 영상을 이용한 정보 분석 시스템.
The method of claim 1, wherein the data processing unit,
An information analysis system using images that determines the type of film provided in the vehicle using the image of the vehicle and determines the cause of the error based on the type of film.
청구항 1에 있어서,
상기 기준 영역에 진입하는 차량을 검지하는 객체 검지부;를 더 포함하는 영상을 이용한 정보 분석 시스템.
In claim 1,
An information analysis system using an image further comprising an object detection unit that detects a vehicle entering the reference area.
청구항 1에 있어서,
상기 영상을 촬영하는 촬영부;를 더 포함하는 영상을 이용한 정보 분석 시스템.
In claim 1,
An information analysis system using video, further comprising a photographing unit for photographing the video.
청구항 11에 있어서, 상기 촬영부는,
상기 데이터 처리부에 의하여 각도가 조정된 상기 조명부가 광을 조사하도록 상기 조명부를 제어하는, 영상을 이용한 정보 분석 시스템.
The method of claim 11, wherein the imaging unit,
An information analysis system using images that controls the lighting unit so that the lighting unit, the angle of which is adjusted by the data processing unit, irradiates light.
청구항 11에 있어서, 상기 데이터 처리부는,
상기 촬영부를 통해 통행 정보, 행위 정보, 또는 방범 정보 중 적어도 하나를 획득하도록 설정된 영상을 이용한 정보 분석 시스템.
The method of claim 11, wherein the data processing unit,
An information analysis system using video set to obtain at least one of traffic information, behavior information, and crime prevention information through the photographing unit.
청구항 13에 있어서,
상기 촬영부 및 상기 데이터 처리부를 통해 획득된 정보를 통해 도로 상황을 관제하도록 설정된 운영 장치;를 더 포함하는 영상을 이용한 정보 분석 시스템.
In claim 13,
An information analysis system using images further comprising an operating device set to control road conditions through information acquired through the photographing unit and the data processing unit.
영상을 이용한 정보 분석 시스템의 동작 방법에 있어서,
기준 영역에 진입하는 차량의 차량의 식별 정보를 획득하는 단계;
상기 차량의 식별 정보와 매칭되는 상기 차량의 사양 정보를 획득하는 단계;
상기 차량의 식별 정보에 기반하여 조명부를 제어함으로써 광의 조사 각도를 상기 차량의 사양 정보에 대응되도록 조정하는 단계; 및
상기 차량이 상기 기준 영역을 통과할 때 상기 조명부의 광과 함께 촬영된 영상을 분석함으로써 상기 차량의 교통 법규 위반 여부를 판단하는 단계;를 포함하고,
상기 차량의 사양 정보는 상기 차량에 구비된 전면 유리의 각도에 관한 정보를 포함하는, 정보 분석 시스템의 동작 방법.
In the method of operating an information analysis system using images,
Obtaining vehicle identification information of a vehicle entering the reference area;
Obtaining specification information of the vehicle matching identification information of the vehicle;
adjusting the irradiation angle of light to correspond to the specification information of the vehicle by controlling the lighting unit based on the identification information of the vehicle; and
A step of determining whether the vehicle violates traffic laws by analyzing an image captured together with the light of the lighting unit when the vehicle passes the reference area,
A method of operating an information analysis system, wherein the vehicle specification information includes information about the angle of a windshield provided in the vehicle.
KR1020210115076A 2021-08-30 2021-08-30 Information analysis system using image and method thereof KR102595467B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210115076A KR102595467B1 (en) 2021-08-30 2021-08-30 Information analysis system using image and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210115076A KR102595467B1 (en) 2021-08-30 2021-08-30 Information analysis system using image and method thereof

Publications (2)

Publication Number Publication Date
KR20230032335A KR20230032335A (en) 2023-03-07
KR102595467B1 true KR102595467B1 (en) 2023-10-31

Family

ID=85513118

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210115076A KR102595467B1 (en) 2021-08-30 2021-08-30 Information analysis system using image and method thereof

Country Status (1)

Country Link
KR (1) KR102595467B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101146581B1 (en) * 2011-11-11 2012-06-14 아이티에스엔지니어링 주식회사 Car number recognize system
KR101169951B1 (en) * 2012-03-29 2012-08-06 디비정보통신 주식회사 Camera for fixed weighing measuring device
KR101957759B1 (en) * 2018-10-12 2019-03-14 렉스젠(주) System for detecting safety belt and method thereof
KR102155753B1 (en) * 2020-02-28 2020-09-14 트라웍스(주) Two-way traffic information collecting system and method thereof
JP6897758B2 (en) * 2017-03-30 2021-07-07 日本電気株式会社 Imaging system, imaging method and imaging control program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101146581B1 (en) * 2011-11-11 2012-06-14 아이티에스엔지니어링 주식회사 Car number recognize system
KR101169951B1 (en) * 2012-03-29 2012-08-06 디비정보통신 주식회사 Camera for fixed weighing measuring device
JP6897758B2 (en) * 2017-03-30 2021-07-07 日本電気株式会社 Imaging system, imaging method and imaging control program
KR101957759B1 (en) * 2018-10-12 2019-03-14 렉스젠(주) System for detecting safety belt and method thereof
KR102155753B1 (en) * 2020-02-28 2020-09-14 트라웍스(주) Two-way traffic information collecting system and method thereof

Also Published As

Publication number Publication date
KR20230032335A (en) 2023-03-07

Similar Documents

Publication Publication Date Title
US9604648B2 (en) Driver performance determination based on geolocation
KR101030763B1 (en) Image acquisition unit, acquisition method and associated control unit
AU2010214634B2 (en) Devices and methods for classifying vehicles
US20060269105A1 (en) Methods, Apparatus and Products for Image Capture
US8294595B1 (en) Speed detector for moving vehicles
US11914041B2 (en) Detection device and detection system
JP7024610B2 (en) Detection device and detection system
KR102197449B1 (en) Enforcement system for enforcement a certain section in the section enforcement point
CN114945802A (en) System, apparatus and method for identifying and updating design applicability of autonomous vehicles
CA3056611A1 (en) Automatic warning generation system intended for the users of a road
WO2023028714A1 (en) Vehicle occupancy detection system
JP2019207654A (en) Detection device and detection system
KR102459906B1 (en) System for detecting passengers in vehicle using dual band infrared camera, and method for the same
KR102595467B1 (en) Information analysis system using image and method thereof
JP2019207655A (en) Detection device and detection system
KR20210121988A (en) Apparatus, system or method for monitoring vehicle traffic
CN114495510A (en) Expressway Internet of things driving safety management system and method
SE503707C2 (en) Device for identification of vehicles at a checkpoint
KR102390947B1 (en) Vehicle detection system
KR101484839B1 (en) Detection Method of axles tampering truck using image processing
CN113574576A (en) Method and device for detecting traffic violations by falling below an allowable distance between a rear vehicle and a front vehicle
KR102510896B1 (en) Signal control system based on image analysis
Daley et al. Detection of vehicle occupants in HOV lanes: exploration of image sensing for detection of vehicle occupants
Ooi et al. A method for distinction of bicycle traffic violations by detection of cyclists' behavior using multi-sensors
Hsu Verification and Validation of Machine Learning Applications in Advanced Driving Assistance Systems and Automated Driving Systems

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant