KR102416066B1 - System and method for matching video - Google Patents
System and method for matching video Download PDFInfo
- Publication number
- KR102416066B1 KR102416066B1 KR1020210061761A KR20210061761A KR102416066B1 KR 102416066 B1 KR102416066 B1 KR 102416066B1 KR 1020210061761 A KR1020210061761 A KR 1020210061761A KR 20210061761 A KR20210061761 A KR 20210061761A KR 102416066 B1 KR102416066 B1 KR 102416066B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- bounding box
- region
- interest
- overlap ratio
- Prior art date
Links
Images
Classifications
-
- G06K9/6201—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/12—Bounding box
Landscapes
- Image Analysis (AREA)
Abstract
Description
본 발명은 영상 매칭 시스템 및 방법에 관한 것이다.The present invention relates to an image matching system and method.
종래의 교통법규 위반 감시시스템은 경찰관에 의한 인위적인 차량 단속과 감시 장치에 의한 무인 교통법규 위반 감시로 구분된다. 인위적인 차량 단속은 각 교차로나 도로에 경찰관이 배치되어 차량마다 검문검색을 실시하고 교통법규를 위반한 차량 정보를 경찰관이 소지한 무전기로 전달한다. 무인 교통법규 위반 감시는 자동차의 속도를 속도감지기로 인지하고 교통법규 상의 기준속도를 초과하는 차량에 대해서는 카메라를 작동하여 자동차를 촬영한다.The conventional traffic law violation monitoring system is divided into an artificial vehicle control by a police officer and an unmanned traffic law violation monitoring by a monitoring device. In the artificial vehicle crackdown, police officers are placed at each intersection or road to conduct checkpoints and search for each vehicle, and information on vehicles that violate traffic laws is transmitted to the police officer's walkie-talkie. Unmanned traffic law violation monitoring recognizes the speed of a vehicle with a speed sensor and operates a camera to take pictures of the vehicle that exceeds the standard speed under the traffic law.
하지만 차량과 달리 오토바이와 같은 이륜차는 번호판이 후방에만 부착되어 있는 경우가 많아 일반적인 카메라로는 단속에 어려움이 있다. 또한, 차량에 비해 번호판의 크기도 작아 이륜차의 번호 인식과 위치 추적을 동시에 하는데 어려움이 있었다.However, unlike vehicles, two-wheeled vehicles such as motorcycles often have a license plate attached only to the rear, so it is difficult to crack down with a general camera. In addition, the size of the license plate was smaller than that of the vehicle, so it was difficult to recognize the number and track the location of the two-wheeled vehicle at the same time.
따라서, 기존의 영상 또는 이미지에 존재하는 객체에 바운딩 박스를 설정한 후 해당 바운딩 박스를 분석함으로써 객체에 대한 정보를 획득하고, 바운딩 박스의 이동 여부를 파악하여 그 위치를 파악하는 기술을 이륜차 객체 추적에 그대로 적용할 경우, 이륜차의 번호 인식과 위치 추적에 대한 정확성이 떨어지는 문제가 발생한다.Therefore, after setting a bounding box on an object existing in an existing image or image, information about the object is obtained by analyzing the bounding box, and the technique of figuring out whether the bounding box is moving and determining its location is a two-wheeled vehicle object tracking technology. If applied as it is, there is a problem that the accuracy of number recognition and location tracking of two-wheeled vehicles is lowered.
본 발명의 일 실시예는 고화질 영상에서 식별한 이륜차 객체의 식별번호를 저화질 영상에서 식별된 이륜차 객체에 부여한 후, 저화질 영상을 통해 해당 이륜차 객체의 위치를 추적하기 위한 영상 매칭 시스템을 제공하는 것을 목적으로 한다.An embodiment of the present invention provides an image matching system for assigning an identification number of a two-wheeled vehicle object identified in a high-quality image to a two-wheeled vehicle object identified in a low-quality image, and then tracking the position of the two-wheeled object through the low-resolution image do it with
한편, 본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.On the other hand, the technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned are clearly to those of ordinary skill in the art to which the present invention belongs from the description below. can be understood
본 발명의 일 실시예에 따른 영상 매칭 시스템은, 제1 화질로 제1 영역 및 제2 영역에 대한 영상인 제1 영상을 획득하도록 구성되는 제1 영상 획득 모듈; 상기 제1 화질보다 낮은 화질인 제2 화질로 제1 영역 내지 제4 영역에 대한 영상인 제2 영상을 획득하도록 구성되는 제2 영상 획득 모듈; 및 상기 제1 영상 및 상기 제2 영상에서의 이륜차 객체 간의 겹침 비율을 기반으로 제1 영상 및 제2 영상에서의 이륜차 객체를 서로 매칭시키도록 구성되는 매칭 모듈을 포함한다.An image matching system according to an embodiment of the present invention includes: a first image acquisition module configured to acquire a first image that is an image for a first region and a second region with a first image quality; a second image acquiring module configured to acquire a second image, which is an image for the first to fourth regions, with a second image quality that is lower than the first image quality; and a matching module configured to match the motorcycle object in the first image and the second image to each other based on an overlap ratio between the motorcycle object in the first image and the second image.
상기 매칭 모듈은: 상기 제1 영상 및 상기 제2 영상을 수신하도록 구성되는 영상 수신부; 상기 제1 영상에 제1 관심 영역을 설정하고, 상기 제2 영상에서 상기 제1 관심 영역과 대응되는 영역에 제2 관심 영역을 설정하도록 구성되는 관심 영역 설정부; 상기 제1 관심 영역에서 이륜차 객체를 탐지하여 제1 바운딩 박스를 설정하고, 상기 제2 관심 영역에서 이륜차 객체를 탐지하여 제2 바운딩 박스를 설정하도록 구성되는 바운딩 박스 설정부; 상기 제1 바운딩 박스 각각에 서로 다른 식별번호를 부여하도록 구성되는 제1 식별번호 부여부; 상기 제2 관심 영역을 상기 제1 관심 영역의 크기에 대응되도록 크기를 조절한 후 이들을 서로 겹친 다음, 상기 제1 바운딩 박스와 상기 제2 바운딩 박스 간의 겹침 비율을 산출하도록 구성되는 겹침 비율 산출부; 및 겹침 비율 산출부를 통해 산출된 겹침 비율을 기반으로, 특정 제1 바운딩 박스와의 겹침 비율이 가장 높은 제2 바운딩 박스를 상기 특정 제1 바운딩 박스에 매칭시키도록 구성되는 매칭부를 포함할 수 있다.The matching module may include: an image receiving unit configured to receive the first image and the second image; a region of interest setting unit configured to set a first region of interest in the first image and set a second region of interest in a region corresponding to the first region of interest in the second image; a bounding box setting unit configured to detect a motorcycle object in the first region of interest to set a first bounding box, and detect a motorcycle object in the second region of interest to set a second bounding box; a first identification number granting unit configured to assign a different identification number to each of the first bounding boxes; an overlap ratio calculator configured to adjust the size of the second region of interest to correspond to the size of the first region of interest, overlap them, and then calculate an overlap ratio between the first bounding box and the second bounding box; and a matching unit configured to match the second bounding box having the highest overlap ratio with the specific first bounding box to the specific first bounding box based on the overlap ratio calculated through the overlap ratio calculating unit.
상기 매칭 모듈은: 상기 특정 제1 바운딩 박스와 매칭된 제2 바운딩 박스에 상기 특정 제1 바운딩 박스에 부여된 식별번호와 동일한 식별번호를 부여하도록 구성되는 제2 식별번호 부여부를 더 포함할 수 있다.The matching module may further include: a second identification number granting unit configured to assign the same identification number as the identification number assigned to the specific first bounding box to a second bounding box matched with the specific first bounding box .
상기 매칭부는: 상기 제2 바운딩 박스 중에서 상기 특정 제1 바운딩 박스와의 겹침 비율이 가장 높은 제2 바운딩 박스를 추출하도록 구성되는 바운딩 박스 추출 유닛; 상기 겹침 비율이 기 설정된 최소 겹침 비율을 초과하는지 여부를 판단하도록 구성되는 최소 겹침 비율 초과 여부 판단 유닛; 및 상기 최소 겹침 비율을 초과한 상기 제2 바운딩 박스를 상기 특정 제1 바운딩 박스에 매칭하도록 구성되는 매칭 유닛을 포함할 수 있다.The matching unit may include: a bounding box extraction unit configured to extract a second bounding box having the highest overlap ratio with the specific first bounding box from among the second bounding boxes; a minimum overlap ratio exceeding or not judging unit, configured to determine whether the overlap ratio exceeds a preset minimum overlap ratio; and a matching unit, configured to match the second bounding box exceeding the minimum overlap ratio to the specific first bounding box.
상기 제1 관심 영역은: 상기 제1 영상 속에서, 정지선에서 역주행 방향으로 제1 거리만큼 떨어진 곳에서부터 상기 정지선에서 주행 방향으로 제2 거리만큼 떨어진 곳에 해당하는 영역이고, 상기 제2 관심 영역은: 상기 제2 영상 속에서, 정지선에서 역주행 방향으로 제1 거리만큼 떨어진 곳에서부터 상기 정지선에서 주행 방향으로 제2 거리만큼 떨어진 곳에 해당하는 영역일 수 있다.The first region of interest is: in the first image, a region corresponding to a distance away from the stop line by a first distance in the reverse driving direction by a second distance from the stop line in the driving direction, and the second region of interest includes: In the second image, it may be an area corresponding to a location separated by a second distance from the stop line in the driving direction from a first distance in the reverse driving direction from the stop line.
상기 제1 영상 획득 모듈 및 상기 제2 영상 획득 모듈은: 상기 정지선에서 역주행 방향으로 상기 제1 거리를 초과하는 거리만큼 떨어진 곳에 위치한 폴 암 상에 제공될 수 있다.The first image acquisition module and the second image acquisition module may be provided on a pole arm positioned apart from the stop line by a distance exceeding the first distance in a reverse running direction.
본 발명의 일 실시예에 따른 영상 매칭 방법은 (a) 제1 영상 획득 모듈을 통해 제1 화질로 제1 영역 및 제2 영역에 대한 영상인 제1 영상을 획득하는 단계; (b) 제2 영상 획득 모듈을 통해 상기 제1 화질보다 낮은 화질인 제2 화질로 제1 영역 내지 제4 영역에 대한 영상인 제2 영상을 획득하는 단계; 및 (c) 상기 매칭 모듈을 통해 상기 제1 영상 및 상기 제2 영상에서의 이륜차 객체 간의 겹침 비율을 기반으로 제1 영상 및 제2 영상에서의 이륜차 객체를 서로 매칭시키는 단계를 포함한다.An image matching method according to an embodiment of the present invention includes the steps of: (a) acquiring a first image that is an image of a first region and a second region with a first image quality through a first image acquisition module; (b) acquiring a second image, which is an image for the first to fourth regions, with a second image quality that is lower than the first image quality through a second image acquisition module; and (c) matching the motorcycle object in the first image and the second image to each other based on an overlap ratio between the motorcycle object in the first image and the second image through the matching module.
상기 (c) 단계는: (c-1) 영상 수신부를 통해 상기 제1 영상 및 상기 제2 영상을 수신하는 단계; (c-2) 관심 영역 설정부를 통해 상기 제1 영상에 제1 관심 영역을 설정하고, 상기 제2 영상에서 상기 제1 관심 영역과 대응되는 영역에 제2 관심 영역을 설정하는 단계; (c-3) 바운딩 박스 설정부를 통해 상기 제1 관심 영역에서 이륜차 객체를 탐지하여 제1 바운딩 박스를 설정하고, 상기 제2 관심 영역에서 이륜차 객체를 탐지하여 제2 바운딩 박스를 설정하는 단계; (c-4) 제1 식별번호 부여부를 통해 상기 제1 바운딩 박스 각각에 서로 다른 식별번호를 부여하는 단계; (c-5) 겹침 비율 산출부를 통해 상기 제2 관심 영역을 상기 제1 관심 영역의 크기에 대응되도록 크기를 조절한 후 이들을 서로 겹친 다음, 상기 제1 바운딩 박스와 상기 제2 바운딩 박스 간의 겹침 비율을 산출하는 단계; 및 (c-6) 매칭부를 통해 상기 (c-5) 단계에서 산출된 겹침 비율을 기반으로, 특정 제1 바운딩 박스와의 겹침 비율이 가장 높은 제2 바운딩 박스를 상기 특정 제1 바운딩 박스에 매칭시키는 단계를 포함할 수 있다.The step (c) includes: (c-1) receiving the first image and the second image through an image receiving unit; (c-2) setting a first region of interest in the first image through a region of interest setting unit, and setting a second region of interest in a region corresponding to the first region of interest in the second image; (c-3) setting a first bounding box by detecting a motorcycle object in the first region of interest through a bounding box setting unit, and setting a second bounding box by detecting a motorcycle object in the second region of interest; (c-4) assigning different identification numbers to each of the first bounding boxes through a first identification number assigning unit; (c-5) After adjusting the size of the second region of interest to correspond to the size of the first region of interest through an overlap ratio calculating unit, and overlapping them, the overlap ratio between the first bounding box and the second bounding box calculating ; and (c-6) matching the second bounding box having the highest overlap ratio with the specific first bounding box to the specific first bounding box based on the overlap ratio calculated in step (c-5) through the matching unit It may include the step of
상기 (c) 단계는: (c-7) 제2 식별번호 부여부를 통해 상기 특정 제1 바운딩 박스와 매칭된 제2 바운딩 박스에 상기 특정 제1 바운딩 박스에 부여된 식별번호와 동일한 식별번호를 부여하는 단계를 더 포함할 수 있다.The step (c) is: (c-7) giving the same identification number as the identification number assigned to the specific first bounding box to the second bounding box matched with the specific first bounding box through the second identification number assigning unit It may further include the step of
상기 (c-6) 단계는: (c-6-1) 바운딩 박스 추출 유닛을 통해 상기 제2 바운딩 박스 중에서 상기 특정 제1 바운딩 박스와의 겹침 비율이 가장 높은 제2 바운딩 박스를 추출하는 단계; (c-6-2) 최소 겹침 비율 초과 여부 판단 유닛을 통해 상기 겹침 비율이 기 설정된 최소 겹침 비율을 초과하는지 여부를 판단하는 단계; 및 (c-6-3) 매칭 유닛을 통해 상기 최소 겹침 비율을 초과한 상기 제2 바운딩 박스를 상기 특정 제1 바운딩 박스에 매칭하는 단계를 포함할 수 있다.The step (c-6) includes: (c-6-1) extracting a second bounding box having the highest overlap ratio with the specific first bounding box from among the second bounding boxes through a bounding box extraction unit; (c-6-2) determining whether the overlap ratio exceeds a preset minimum overlap ratio through a minimum overlap ratio exceeding determination unit; and (c-6-3) matching the second bounding box exceeding the minimum overlap ratio to the specific first bounding box through a matching unit.
본 발명의 일 실시예에 따른 기록 매체는, 컴퓨터로 읽을 수 있는 기록 매체에 있어서, 상기 영상 매칭 방법을 컴퓨터로 실행하기 위한 프로그램이 기록된 기록 매체를 포함한다.A recording medium according to an embodiment of the present invention is a computer-readable recording medium, and includes a recording medium in which a program for executing the image matching method by a computer is recorded.
본 발명의 일 실시예에 따른 영상 매칭 시스템은 고화질 영상에서 식별한 이륜차 객체의 식별번호를 저화질 영상에서 식별된 이륜차 객체에 부여한 후, 저화질 영상을 통해 해당 이륜차 객체의 위치를 추적할 수 있다.The image matching system according to an embodiment of the present invention assigns the identification number of the two-wheeled vehicle object identified in the high-quality image to the two-wheeled object identified in the low-quality image, and then tracks the location of the two-wheeled object through the low-quality image.
한편, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.On the other hand, the effects obtainable in the present invention are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description. will be able
도 1은 본 발명의 일 실시예에 따른 영상 매칭 시스템(10)의 구성을 개략적으로 나타낸 도면이다.
도 2는 도로 상에 영상 매칭 시스템(10)이 설치된 모습을 나타낸 예시도이다.
도 3은 제1 영상 상에 제1 관심 영역(31) 및 제1 바운딩 박스(41)가 설정된 모습을 나타낸 도면이다.
도 4는 제2 영상 상에 제2 관심 영역(32) 및 제2 바운딩 박스(42)가 설정된 모습을 나타낸 도면이다.
도 5는 제1 바운딩 박스(41)가 설정된 제1 관심 영역(31)과 제2 바운딩 박스(42)가 설정된 제2 관심 영역(32)을 겹친 모습을 나타낸 도면이다.
도 6은 식별번호가 부여된 제2 바운딩 박스(42)가 이동하는 모습을 나타낸 도면이다.1 is a diagram schematically showing the configuration of an image matching
2 is an exemplary view showing a state in which the image matching
3 is a diagram illustrating a state in which the first region of
4 is a diagram illustrating a state in which a second region of
5 is a diagram illustrating a state in which the first region of
6 is a view showing a state in which the
본 발명의 다른 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술 되는 실시 예를 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예는 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Other advantages and features of the present invention, and a method for achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only this embodiment serves to complete the disclosure of the present invention, and to obtain common knowledge in the technical field to which the present invention pertains. It is provided to fully inform the possessor of the scope of the invention, and the present invention is only defined by the scope of the claims.
만일 정의되지 않더라도, 여기서 사용되는 모든 용어들(기술 혹은 과학 용어들을 포함)은 이 발명이 속한 종래 기술에서 보편적 기술에 의해 일반적으로 수용되는 것과 동일한 의미를 가진다.Even if not defined, all terms (including technical or scientific terms) used herein have the same meaning as commonly accepted by common technology in the prior art to which this invention belongs.
일반적인 사전들에 의해 정의된 용어들은 관련된 기술 그리고/혹은 본 출원의 본문에 의미하는 것과 동일한 의미를 갖는 것으로 해석될 수 있고, 그리고 여기서 명확하게 정의된 표현이 아니더라도 개념화되거나 혹은 과도하게 형식적으로 해석되지 않을 것이다.Terms defined by general dictionaries may be construed as having the same meaning as in the related description and/or in the text of the present application, and shall not be interpreted conceptually or excessively formally, even if not expressly defined herein. won't
본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.The terminology used herein is for the purpose of describing the embodiments and is not intended to limit the present invention. In this specification, the singular also includes the plural unless specifically stated otherwise in the phrase.
명세서에서 사용되는 '포함한다' 및/또는 이 동사의 다양한 활용형들 예를 들어, '포함', '포함하는', '포함하고', '포함하며' 등은 언급된 조성, 성분, 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 조성, 성분, 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다. 본 명세서에서 '및/또는' 이라는 용어는 나열된 구성들 각각 또는 이들의 다양한 조합을 가리킨다.As used herein, 'comprise' and/or the various conjugations of this verb, eg, 'comprising', 'comprising', 'comprising', 'comprising', etc., refer to the stated composition, ingredient, component, A step, operation and/or element does not exclude the presence or addition of one or more other compositions, components, components, steps, operations and/or elements. As used herein, the term 'and/or' refers to each of the listed components or various combinations thereof.
한편, 본 명세서 전체에서 사용되는 '~부', '~기', '~블록', '~모듈' 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미할 수 있다. 예를 들어 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미할 수 있다.Meanwhile, terms such as '~ unit', '~ group', '~ block', and '~ module' used throughout this specification may mean a unit that processes at least one function or operation. For example, it can mean software, a hardware component such as an FPGA or an ASIC.
그렇지만 '~부', '~기', '~블록', '~모듈' 등이 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부', '~기', '~블록', '~모듈'은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다.However, '~ part', '~ group', '~ block', and '~ module' are not meant to be limited to software or hardware. '~ unit', '~ group', '~ block', and '~ module' may be configured to reside in an addressable storage medium or to regenerate one or more processors.
따라서, 일 예로서 '~부', '~기', '~블록', '~모듈'은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다.Accordingly, as an example, '~ part', '~ group', '~ block', and '~ module' are components such as software components, object-oriented software components, class components, and task components. fields, processes, functions, properties, procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and include variables.
구성요소들과 '~부', '~기', '~블록', '~모듈'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부', '~기', '~블록', '~모듈'들로 결합되거나 추가적인 구성요소들과 '~부', '~기', '~블록', '~모듈'들로 더 분리될 수 있다.The functions provided within the components and '~part', '~gi', '~block', and '~module' are smaller than the number of components and '~bu', '~gi', '~block' ', '~modules' or may be further separated into additional components and '~parts', '~gi', '~blocks', and '~modules'.
이하, 본 명세서의 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings of the present specification.
도 1은 본 발명의 일 실시예에 따른 영상 매칭 시스템(10)의 구성을 개략적으로 나타낸 도면이다.1 is a diagram schematically showing the configuration of an image matching
도 1을 참조하면, 영상 매칭 시스템(10)은 제1 영상 획득 모듈(100), 제2 영상 획득 모듈(200) 및 매칭 모듈(300)을 포함할 수 있다.Referring to FIG. 1 , the
도 2는 도로 상에 영상 매칭 시스템(10)이 설치된 모습을 나타낸 예시도이다.2 is an exemplary view showing a state in which the image matching
도 2를 참조하면, 제1 영상 획득 모듈(100) 및 제2 영상 획득 모듈(200)은 정지선(12)에서 역주행 방향으로 제1 거리를 초과하는 거리만큼 떨어진 곳에 위치한 폴 암(11) 상에 제공될 수 있다.Referring to FIG. 2 , the first
매칭 모듈(300)의 경우 폴 암(11)의 기둥 상에 위치하는 것으로 도시되어 있으나, 제1 영상 획득 모듈(100) 및 제2 영상 획득 모듈(200)이 획득한 영상을 유선망 또는 무선망을 통해 수신할 수 있는 곳이라면 제한 없이 위치할 수 있다.In the case of the
도 1 및 도 2를 참조하면, 도로는 제1 영역(21) 내지 제4 영역(24)으로 구분될 수 있다.1 and 2 , a road may be divided into a
보다 상세히 말하면, 제1 영역(21)은 정지선(12)으로부터 폴 암(11)의 위치 사이의 영역일 수 있다. 제2 영역(22)은 정지선(12)의 위치로부터 횡단보도 사이의 영역일 수 있다. 제3 영역(23)은 횡단보도가 위치한 영역일 수 있다. 제4 영역(24)은 제3 영역(23)에 해당하는 횡단보도의 타단으로부터 주행 방향으로 기 설정된 거리까지의 영역일 수 있으며, 일 예에 따르면 제3 영역(23)에 해당하는 횡단보도의 타단으로부터 주행 방향에 가장 근접하게 위치한 또 다른 횡단보도의 일단 사이의 영역일 수 있다.More specifically, the
제1 영상 획득 모듈(100)은 제1 화질로 제1 영역(21) 및 제2 영역(22)에 대한 영상인 제1 영상을 획득하도록 구성될 수 있다.The first
예를 들어, 제1 영상 획득 모듈(100)은 9메가 픽셀의 해상도를 갖는 영상을 획득할 수 있는 영상 촬영 장치일 수 있으며, 이를 통해 이륜차 객체의 번호판을 인식할 수 있다. 즉, 제1 화질은 9메가 픽셀의 해상도일 수 있다. 다만, 이에 한정되지 않으며 이륜차 객체의 번호판을 인식할 수 있는 해상도라면 제한 없이 적용될 수 있다.For example, the first
제2 영상 획득 모듈(200)은 제2 화질로 제1 영역(21) 내지 제4 영역(24)에 대한 영상인 제2 영상을 획득하도록 구성될 수 있다.The second
예를 들어, 제2 영상 획득 모듈(200)은 2메가 픽셀의 해상도를 갖는 영상을 획득할 수 있는 영상 촬영 장치일 수 있으며, 이를 통해 이륜차 객체의 위치를 인식할 수 있다. 즉, 제2 화질은 2메가 픽셀의 해상도일 수 있다. 다만, 이에 한정되지 않으며 제1 화질 이하의 해상도이면서 이륜차 객체의 위치를 인식할 수 있는 해상도라면 제한 없이 적용될 수 있다.For example, the second
매칭 모듈(300)은 제1 영상 및 제2 영상에서의 이륜차 객체 간의 겹침 비율을 기반으로 제1 영상 및 제2 영상에서의 이륜차 객체를 서로 매칭시키도록 구성될 수 있다.The
매칭 모듈(300)은 영상 수신부(310), 관심 영역 설정부(320), 바운딩 박스 설정부(330), 제1 식별번호 부여부(340), 겹침 비율 산출부(350) 및 매칭부(360)를 포함할 수 있다.The
영상 수신부(310)는 제1 영상 획득 모듈(100)로부터 제1 영상을 수신하고, 제2 영상 획득 모듈(200)로부터 제2 영상을 수신하도록 구성될 수 있다.The image receiver 310 may be configured to receive a first image from the first
이를 위해 영상 수신부(310)는 제1 영상 획득 모듈(100) 및 제2 영상 획득 모듈(200)과 영상을 송수신 할 수 있는 공지의 유선망 또는 무선망으로 연결될 수 있다.To this end, the image receiver 310 may be connected to the first
도 3은 제1 영상 상에 제1 관심 영역(31) 및 제1 바운딩 박스(41)가 설정된 모습을 나타낸 도면이고, 도 4는 제2 영상 상에 제2 관심 영역(32) 및 제2 바운딩 박스(42)가 설정된 모습을 나타낸 도면이다.3 is a diagram illustrating a state in which the first region of
도 3 및 도 4를 참조하면, 관심 영역 설정부(320)는 제1 영상에 제1 관심 영역(31)을 설정하고, 제2 영상에서 상기 제1 관심 영역(31)과 대응되는 영역에 제2 관심 영역(32)을 설정하도록 구성될 수 있다.3 and 4 , the region of interest setting unit 320 sets a first region of
예를 들어, 관심 영역 설정부(320)는 제1 영상 중에서 정지선(12)으로부터 역주행 방향으로 제1 거리만큼 떨어진 곳과 정지선(12)으로부터 주행 방향으로 제2 거리만큼 떨어진 곳의 사이 영역을 제1 관심 영역(31)으로 설정할 수 있다.For example, the region of interest setting unit 320 sets a region between a first distance from the
또한, 관심 영역 설정부(320)는 제2 영상 중에서 상기 제1 관심 영역(31)과 대응되는 영역인, 정지선(12)으로부터 역주행 방향으로 제1 거리만큼 떨어진 곳과 정지선(12)으로부터 주행 방향으로 제2 거리만큼 떨어진 곳의 사이 영역을 제2 관심 영역(32)으로 설정할 수 있다.In addition, the region of interest setting unit 320 is configured to set a region corresponding to the first region of
바운딩 박스 설정부(330)는 제1 관심 영역(31)에서 이륜차 객체를 탐지하여 제1 바운딩 박스(41)를 설정하고, 제2 관심 영역(32)에서 이륜차 객체를 탐지하여 제2 바운딩 박스(42)를 설정하도록 구성될 수 있다.The bounding box setting unit 330 detects the motorcycle object in the first region of
예를 들어, 바운딩 박스 설정부(330)에서는 영상을 입력 받고 이륜차 객체를 탐지하여 출력할 수 있는 객체 탐지 딥러닝 알고리즘이 실행될 수 있다.For example, the bounding box setting unit 330 may execute an object detection deep learning algorithm capable of receiving an image and detecting and outputting a two-wheeled vehicle object.
제1 식별번호 부여부(340)는 바운딩 박스 설정부(330)에 의해 설정된 제1 바운딩 박스(41) 각각에 서로 다른 식별번호를 부여하도록 구성될 수 있다.The first identification number granting unit 340 may be configured to assign different identification numbers to each of the
예를 들어, 제1 관심 영역(31)에 복수 개의 제1 바운딩 박스(41)가 설정될 경우, 제1 식별번호 부여부(340)는 이들 각각에 서로 다른 식별번호를 부여함으로써 이들을 구분하도록 할 수 있다.For example, when a plurality of
이때, 식별번호는 이륜차 객체의 번호판을 인식을 통해 획득한 이륜차의 번호일 수 있다.In this case, the identification number may be the number of the two-wheeled vehicle obtained by recognizing the license plate of the two-wheeled vehicle object.
도 5는 제1 바운딩 박스(41)가 설정된 제1 관심 영역(31)과 제2 바운딩 박스(42)가 설정된 제2 관심 영역(32)을 겹친 모습을 나타낸 도면이다.5 is a diagram illustrating a state in which the first region of
도 5를 참조하면, 겹침 비율 산출부(350)는 제2 관심 영역(32)을 제1 관심 영역(31)의 크기에 대응되도록 크기를 조절한 후 이들을 서로 겹친(오버랩) 다음, 제1 바운딩 박스(41)와 제2 바운딩 박스(42) 간의 겹침 비율(오버랩 비율)을 산출하도록 구성될 수 있다.Referring to FIG. 5 , the overlap ratio calculator 350 adjusts the size of the second region of
일 예에 따르면, 도 5의 경우, 제1 바운딩 박스(41)와 제2 바운딩 박스(42)가 서로 겹쳐진 것을 확인할 수 있으며, 겹침 비율 산출부(350)는 이들 간의 겹침 비율로 0.6을 산출할 수 있다.According to an example, in the case of FIG. 5 , it can be confirmed that the
다른 예에 따르면, 제1 관심 영역(31)에 복수의 제1 바운딩 박스(41)가 존재하고 제2 관심 영역(32)에 복수의 제2 바운딩 박스(42)가 존재할 수 있으며, 겹침 비율 산출부(350)는 이 경우에도 각각의 제1 바운딩 박스(41)와 각각의 제2 바운딩 박스(42) 간의 겹침 비율을 산출할 수 있다. 이때, 특정 제1 바운딩 박스(41)는 복수의 제2 바운딩 박스(42)들 중에서 어느 하나의 제2 바운딩 박스(42)와의 겹침 비율이 다른 제2 바운딩 박스(42)들과의 겹침 비율보다 더 높게 산출될 수 있다.According to another example, a plurality of
매칭부(360)는 겹침 비율 산출부(350)를 통해 산출된 겹침 비율을 기반으로, 특정 제1 바운딩 박스(41)와의 겹침 비율이 가장 높은 제2 바운딩 박스(42)를 상기 특정 제1 바운딩 박스(41)에 매칭시키도록 구성될 수 있다.The matching unit 360 sets the
일 예에 따르면, 도 5의 경우, 한 개의 제1 바운딩 박스(41)와 한 개의 제2 바운딩 박스(42)가 존재하며 이들 간의 겹침 비율로 0.6이 산출되었으므로, 매칭부(360) 도 5에 도시된 제1 바운딩 박스(41)와 제2 바운딩 박스(42)를 서로 매칭시킬 수 있다.According to an example, in the case of FIG. 5, one
다른 예에 따르면, 제1 관심 영역(31)에 복수의 제1 바운딩 박스(41)가 존재하고 제2 관심 영역(32)에 복수의 제2 바운딩 박스(42)가 존재할 경우, 겹침 비율 산출부(350)를 통해 각각의 제1 바운딩 박스(41)와 각각의 제2 바운딩 박스(42) 간의 겹침 비율을 산출하였으므로, 매칭부(360)는 복수의 제2 바운딩 박스(42) 중 특정 제1 바운딩 박스(41)와의 겹침 비율이 가장 높은 제2 바운딩 박스(42)를 상기 특정 제1 바운딩 박스(41)에 매칭시킬 수 있다. According to another example, when a plurality of
매칭부(360)에 대해 보다 상세히 살펴보면 다음과 같다.The matching unit 360 will be described in more detail as follows.
매칭부(360)는 바운딩 박스 추출 유닛(361), 최소 겹침 비율 초과 여부 판단 유닛(362) 및 매칭 유닛(363)을 포함할 수 있다.The matching unit 360 may include a bounding box extraction unit 361 , a determining whether the minimum overlap ratio is exceeded, 362 , and a matching unit 363 .
바운딩 박스 추출 유닛(361)은 제2 바운딩 박스(42) 중에서 특정 제1 바운딩 박스(41)와의 겹침 비율이 가장 높은 제2 바운딩 박스(42)를 추출하도록 구성될 수 있다.The bounding box extraction unit 361 may be configured to extract the
최소 겹침 비율 초과 여부 판단 유닛(362)은 바운딩 박스 추출 유닛(361)을 통해 추출된 제2 바운딩 박스(42)에 대한 겹침 비율이 기 설정된 최소 겹침 비율을 초과하는지 여부를 판단하도록 구성될 수 있다.The minimum overlap ratio determination unit 362 may be configured to determine whether the overlap ratio for the
예를 들어, 최소 겹침 비율은 0.5로 설정될 수 있으나, 이는 사용자의 설정에 따라 얼마든지 변경될 수 있다.For example, the minimum overlap ratio may be set to 0.5, but this may be freely changed according to a user's setting.
최소 겹침 비율은 제1 바운딩 박스(41)와 제2 바운딩 박스(42)를 매칭시킬 시 최소한의 최소한의 신뢰도 확보를 위한 것이다.The minimum overlap ratio is for securing the minimum reliability when matching the
예를 들어, 제1 관심 영역(31)과 제2 관심 영역(32) 안에 실제로는 서로 다른 제1 이륜차 객체와 제2 이륜차 객체가 존재하나, 이륜차 객체 탐지 오류로 인해 제1 바운딩 박스(41)는 제1 이륜차 객체에만 설정되고 제2 바운딩 박스(42)는 제2 이륜차 객체에만 설정될 수 있다.For example, the first two-wheeled vehicle object and the second two-wheeled vehicle object actually exist in the
이 경우 실제로는 서로 다른 이륜차 객체임에도 제1 바운딩 박스(41)와 제2 바운딩 박스(42) 간에 겹쳐지는 영역이 있을 경우, 매칭부(360)는 이들 바운딩 박스를 서로 매칭시키는 오류가 발생하게 된다.In this case, if there is an overlapping area between the
따라서, 최소 겹침 비율 초과 여부 판단 유닛(362)을 통해 겹침 비율이 기 설정된 최소 겹침 비율을 초과하는지 여부를 판단함으로써 이러한 매칭 오류가 발생활 확률을 감소시킬 수 있다.Accordingly, the probability of occurrence of such a matching error can be reduced by determining whether the overlap ratio exceeds a preset minimum overlap ratio through the minimum overlap ratio exceeding determination unit 362 .
매칭 유닛(363)은 바운딩 박스 추출 유닛(361)을 통해 추출된 제2 바운딩 박스(42) 중에서 최소 겹침 비율을 초과한 제2 바운딩 박스(42) 만을 특정 제1 바운딩 박스(41)에 매칭하도록 구성될 수 있다.The matching unit 363 is configured to match only the
도 6은 식별번호가 부여된 제2 바운딩 박스(42)가 이동하는 모습을 나타낸 도면이다.6 is a view showing a state in which the
도 1 및 도 6을 참조하면, 매칭 모듈(300)은 제2 식별번호 부여부(370)를 더 포함할 수 있다.1 and 6 , the
제2 식별번호 부여부(370)는 특정 제1 바운딩 박스(41)와 매칭된 제2 바운딩 박스(42)에 특정 제1 바운딩 박스(41)에 부여된 식별번호와 동일한 식별번호를 부여하도록 구성될 수 있다.The second identification number granting unit 370 is configured to give the same identification number as the identification number given to the specific
즉, 제2 식별번호 부여부(370)를 통해 제2 영상에서 탐지된 이륜차 객체에 이륜차의 번호에 해당하는 식별번호를 부여함으로써, 번호가 확인된 이륜차 객체의 위치를 추적할 수 있다.That is, by assigning an identification number corresponding to the number of the two-wheeled vehicle to the two-wheeled object detected in the second image through the second identification number assigning unit 370 , the position of the two-wheeled object whose number has been confirmed may be tracked.
본 발명의 영상 매칭 시스템(10)은 제1 영상에서 식별한 이륜차 객체의 식별번호를 제2 영상에서 식별된 이륜차 객체에 부여한 후, 제2 영상에서의 해당 이륜차 객체의 위치를 추적할 수 있다.The
이를 통해, 제2 영상의 각 프레임 간의 시간 간격과 식별번호가 부여된 이륜차 객체의 위치를 기반으로, 이륜차 객체의 속도를 산출한 후 기준 속도 위반일 경우 해당 이륜차의 소유자에게 속도 위반 과태료를 부과하기 위한 데이터로 사용할 수 있다.Through this, the speed of the motorcycle object is calculated based on the time interval between each frame of the second image and the location of the motorcycle object to which the identification number is assigned. can be used as data for
또한, 신호등을 신호를 관리하는 장치로부터 획득한 신호등의 신호와 이륜차 객체의 위치를 기반으로, 이륜차 객체의 신호 위반 여부를 파악하여 해당 이륜차 소유자에게 신호 위반 과태료를 부과하기 위한 데이터로 사용할 수 있다.In addition, based on the signal of the traffic light obtained from the signal management device for the traffic light and the location of the two-wheeled vehicle object, it can be used as data to determine whether the two-wheeled vehicle object has violated the signal and to impose a signal violation fine to the corresponding two-wheeled vehicle owner.
본 발명의 일 실시예에 따른 영상 매칭 방법은 (a) 제1 영상 획득 모듈을 통해 제1 화질로 제1 영역 및 제2 영역에 대한 영상인 제1 영상을 획득하는 단계; (b) 제2 영상 획득 모듈을 통해 상기 제1 화질보다 낮은 화질인 제2 화질로 제1 영역 내지 제4 영역에 대한 영상인 제2 영상을 획득하는 단계; 및 (c) 상기 매칭 모듈을 통해 상기 제1 영상 및 상기 제2 영상에서의 이륜차 객체 간의 겹침 비율을 기반으로 제1 영상 및 제2 영상에서의 이륜차 객체를 서로 매칭시키는 단계를 포함한다.An image matching method according to an embodiment of the present invention includes the steps of: (a) acquiring a first image that is an image of a first region and a second region with a first image quality through a first image acquisition module; (b) acquiring a second image, which is an image for the first to fourth regions, with a second image quality that is lower than the first image quality through a second image acquisition module; and (c) matching the motorcycle object in the first image and the second image to each other based on an overlap ratio between the motorcycle object in the first image and the second image through the matching module.
상기 (c) 단계에 대해 보다 상세히 서술하면 다음과 같다.The step (c) is described in more detail as follows.
상기 (c) 단계는: (c-1) 영상 수신부를 통해 상기 제1 영상 및 상기 제2 영상을 수신하는 단계; (c-2) 관심 영역 설정부를 통해 상기 제1 영상에 제1 관심 영역을 설정하고, 상기 제2 영상에서 상기 제1 관심 영역과 대응되는 영역에 제2 관심 영역을 설정하는 단계; (c-3) 바운딩 박스 설정부를 통해 상기 제1 관심 영역에서 이륜차 객체를 탐지하여 제1 바운딩 박스를 설정하고, 상기 제2 관심 영역에서 이륜차 객체를 탐지하여 제2 바운딩 박스를 설정하는 단계; (c-4) 제1 식별번호 부여부를 통해 상기 제1 바운딩 박스 각각에 서로 다른 식별번호를 부여하는 단계; (c-5) 겹침 비율 산출부를 통해 상기 제2 관심 영역을 상기 제1 관심 영역의 크기에 대응되도록 크기를 조절한 후 이들을 서로 겹친 다음, 상기 제1 바운딩 박스와 상기 제2 바운딩 박스 간의 겹침 비율을 산출하는 단계; 및 (c-6) 매칭부를 통해 상기 (c-5) 단계에서 산출된 겹침 비율을 기반으로, 특정 제1 바운딩 박스와의 겹침 비율이 가장 높은 제2 바운딩 박스를 상기 특정 제1 바운딩 박스에 매칭시키는 단계를 포함할 수 있다.The step (c) includes: (c-1) receiving the first image and the second image through an image receiving unit; (c-2) setting a first region of interest in the first image through a region of interest setting unit, and setting a second region of interest in a region corresponding to the first region of interest in the second image; (c-3) setting a first bounding box by detecting a motorcycle object in the first region of interest through a bounding box setting unit, and setting a second bounding box by detecting a motorcycle object in the second region of interest; (c-4) assigning different identification numbers to each of the first bounding boxes through a first identification number assigning unit; (c-5) After adjusting the size of the second region of interest to correspond to the size of the first region of interest through an overlap ratio calculating unit, and overlapping them, the overlap ratio between the first bounding box and the second bounding box calculating ; and (c-6) matching the second bounding box having the highest overlap ratio with the specific first bounding box to the specific first bounding box based on the overlap ratio calculated in step (c-5) through the matching unit It may include the step of
또한, 상기 (c) 단계는: (c-7) 제2 식별번호 부여부를 통해 상기 특정 제1 바운딩 박스와 매칭된 제2 바운딩 박스에 상기 특정 제1 바운딩 박스에 부여된 식별번호와 동일한 식별번호를 부여하는 단계를 더 포함할 수 있다.In addition, the step (c) is: (c-7) the same identification number as the identification number assigned to the specific first bounding box to the second bounding box matched with the specific first bounding box through the second identification number granting unit It may further include the step of giving.
상기 (c-6) 단계에 대해 보다 상세히 서술하면 다음과 같다.The step (c-6) will be described in more detail as follows.
상기 (c-6) 단계는: (c-6-1) 바운딩 박스 추출 유닛을 통해 상기 제2 바운딩 박스 중에서 상기 특정 제1 바운딩 박스와의 겹침 비율이 가장 높은 제2 바운딩 박스를 추출하는 단계; (c-6-2) 최소 겹침 비율 초과 여부 판단 유닛을 통해 상기 겹침 비율이 기 설정된 최소 겹침 비율을 초과하는지 여부를 판단하는 단계; 및 (c-6-3) 매칭 유닛을 통해 상기 최소 겹침 비율을 초과한 상기 제2 바운딩 박스를 상기 특정 제1 바운딩 박스에 매칭하는 단계를 포함할 수 있다.The step (c-6) includes: (c-6-1) extracting a second bounding box having the highest overlap ratio with the specific first bounding box from among the second bounding boxes through a bounding box extraction unit; (c-6-2) determining whether the overlap ratio exceeds a preset minimum overlap ratio through a minimum overlap ratio exceeding determination unit; and (c-6-3) matching the second bounding box exceeding the minimum overlap ratio to the specific first bounding box through a matching unit.
본 발명의 일 실시예에 따른 기록 매체는, 컴퓨터로 읽을 수 있는 기록 매체에 있어서, 상기 영상 매칭 방법을 컴퓨터로 실행하기 위한 프로그램이 기록된 기록 매체를 포함한다.A recording medium according to an embodiment of the present invention is a computer-readable recording medium, and includes a recording medium in which a program for executing the image matching method by a computer is recorded.
이상에서 실시예를 통해 본 발명을 설명하였으나, 위 실시예는 단지 본 발명의 사상을 설명하기 위한 것으로 이에 한정되지 않는다. 통상의 기술자는 전술한 실시예에 다양한 변형이 가해질 수 있음을 이해할 것이다. 본 발명의 범위는 첨부된 특허청구범위의 해석을 통해서만 정해진다.Although the present invention has been described with reference to examples above, the above examples are merely for explaining the spirit of the present invention and are not limited thereto. Those skilled in the art will understand that various modifications may be made to the above-described embodiments. The scope of the present invention is determined only through interpretation of the appended claims.
10: 영상 매칭 시스템
11: 폴 암
12: 정지선
21: 제1 영역
22: 제2 영역
23: 제3 영역
24: 제4 영역
31: 제1 관심 영역
32: 제2 관심 영역
41: 제1 바운딩 박스
42: 제2 바운딩 박스
100: 제1 영상 획득 모듈
200: 제2 영상 획득 모듈
300: 매칭 모듈
310: 영상 수신부
320: 관심 영역 설정부
330: 바운딩 박스 설정부
340: 제1 식별번호 부여부
350: 겹침 비율 산출부
360: 매칭부
361: 바운딩 박스 추출 유닛
362: 최소 겹침 비율 초과 여부 판단 유닛
363: 매칭 유닛
370: 제2 식별번호 부여부10: video matching system
11: Pole Arm
12: stop line
21: first area
22: second area
23: third area
24: fourth area
31: first region of interest
32: second region of interest
41: first bounding box
42: second bounding box
100: first image acquisition module
200: second image acquisition module
300: matching module
310: video receiver
320: region of interest setting unit
330: bounding box setting unit
340: first identification number granting unit
350: overlap ratio calculator
360: matching unit
361: bounding box extraction unit
362: unit for determining whether the minimum overlap ratio is exceeded
363: matching unit
370: second identification number granting unit
Claims (11)
상기 제1 화질보다 낮은 화질인 제2 화질로 제1 영역 내지 제4 영역에 대한 영상인 제2 영상을 획득하도록 구성되는 제2 영상 획득 모듈; 및
상기 제1 영상 및 상기 제2 영상에서의 이륜차 객체 간의 겹침 비율을 기반으로 제1 영상 및 제2 영상에서의 이륜차 객체를 서로 매칭시키도록 구성되는 매칭 모듈을 포함하고,
상기 매칭 모듈은:
상기 제1 영상 및 상기 제2 영상을 수신하도록 구성되는 영상 수신부;
상기 제1 영상에 제1 관심 영역을 설정하고, 상기 제2 영상에서 상기 제1 관심 영역과 대응되는 영역에 제2 관심 영역을 설정하도록 구성되는 관심 영역 설정부;
상기 제1 관심 영역에서 이륜차 객체를 탐지하여 제1 바운딩 박스를 설정하고, 상기 제2 관심 영역에서 이륜차 객체를 탐지하여 제2 바운딩 박스를 설정하도록 구성되는 바운딩 박스 설정부;
상기 제1 바운딩 박스 각각에 서로 다른 식별번호를 부여하도록 구성되는 제1 식별번호 부여부;
상기 제2 관심 영역을 상기 제1 관심 영역의 크기에 대응되도록 크기를 조절한 후 이들을 서로 겹친 다음, 상기 제1 바운딩 박스와 상기 제2 바운딩 박스 간의 겹침 비율을 산출하도록 구성되는 겹침 비율 산출부; 및
겹침 비율 산출부를 통해 산출된 겹침 비율을 기반으로, 특정 제1 바운딩 박스와의 겹침 비율이 가장 높은 제2 바운딩 박스를 상기 특정 제1 바운딩 박스에 매칭시키도록 구성되는 매칭부를 포함하는, 영상 매칭 시스템.
a first image acquisition module, configured to acquire a first image that is an image for the first region and the second region with a first image quality;
a second image acquisition module configured to acquire a second image that is an image for the first to fourth regions with a second image quality that is lower than the first image quality; and
a matching module configured to match the motorcycle object in the first image and the second image to each other based on an overlap ratio between the motorcycle object in the first image and the second image;
The matching module is:
an image receiving unit configured to receive the first image and the second image;
a region of interest setting unit configured to set a first region of interest in the first image and set a second region of interest in a region corresponding to the first region of interest in the second image;
a bounding box setting unit configured to detect a motorcycle object in the first region of interest to set a first bounding box, and detect a motorcycle object in the second region of interest to set a second bounding box;
a first identification number granting unit configured to assign a different identification number to each of the first bounding boxes;
an overlap ratio calculator configured to adjust the size of the second region of interest to correspond to the size of the first region of interest, overlap them, and then calculate an overlap ratio between the first bounding box and the second bounding box; and
Based on the overlap ratio calculated through the overlap ratio calculator, the second bounding box having the highest overlap ratio with the specific first bounding box includes a matching unit configured to match the specific first bounding box to the specific first bounding box, An image matching system .
상기 매칭 모듈은:
상기 특정 제1 바운딩 박스와 매칭된 제2 바운딩 박스에 상기 특정 제1 바운딩 박스에 부여된 식별번호와 동일한 식별번호를 부여하도록 구성되는 제2 식별번호 부여부를 더 포함하는, 영상 매칭 시스템.
According to claim 1,
The matching module is:
Further comprising a second identification number granting unit configured to assign the same identification number as the identification number assigned to the specific first bounding box to a second bounding box matched with the specific first bounding box.
상기 매칭부는:
상기 제2 바운딩 박스 중에서 상기 특정 제1 바운딩 박스와의 겹침 비율이 가장 높은 제2 바운딩 박스를 추출하도록 구성되는 바운딩 박스 추출 유닛;
상기 겹침 비율이 기 설정된 최소 겹침 비율을 초과하는지 여부를 판단하도록 구성되는 최소 겹침 비율 초과 여부 판단 유닛; 및
상기 최소 겹침 비율을 초과한 상기 제2 바운딩 박스를 상기 특정 제1 바운딩 박스에 매칭하도록 구성되는 매칭 유닛을 포함하는, 영상 매칭 시스템.
4. The method of claim 3,
The matching unit:
a bounding box extraction unit configured to extract a second bounding box having the highest overlap ratio with the specific first bounding box from among the second bounding boxes;
a minimum overlapping ratio exceeding or not determining unit, configured to determine whether the overlapping ratio exceeds a preset minimum overlapping ratio; and
and a matching unit, configured to match the second bounding box exceeding the minimum overlap ratio to the specific first bounding box.
상기 제1 관심 영역은:
상기 제1 영상 속에서, 정지선에서 역주행 방향으로 제1 거리만큼 떨어진 곳에서부터 상기 정지선에서 주행 방향으로 제2 거리만큼 떨어진 곳에 해당하는 영역이고,
상기 제2 관심 영역은:
상기 제2 영상 속에서, 정지선에서 역주행 방향으로 제1 거리만큼 떨어진 곳에서부터 상기 정지선에서 주행 방향으로 제2 거리만큼 떨어진 곳에 해당하는 영역인, 영상 매칭 시스템.
5. The method of claim 4,
The first region of interest is:
In the first image, it is an area corresponding to a place separated by a second distance from the stop line in the driving direction from a place away from the stop line by a first distance in the reverse running direction,
The second region of interest is:
In the second image, an area corresponding to a location separated by a first distance from the stop line in the reverse running direction by a second distance from the stop line in the running direction in the second image.
상기 제1 영상 획득 모듈 및 상기 제2 영상 획득 모듈은:
상기 정지선에서 역주행 방향으로 상기 제1 거리를 초과하는 거리만큼 떨어진 곳에 위치한 폴 암 상에 제공되는, 영상 매칭 시스템.
6. The method of claim 5,
The first image acquisition module and the second image acquisition module include:
An image matching system provided on a pole arm located at a distance exceeding the first distance in a reverse running direction from the stop line.
(b) 제2 영상 획득 모듈을 통해 상기 제1 화질보다 낮은 화질인 제2 화질로 제1 영역 내지 제4 영역에 대한 영상인 제2 영상을 획득하는 단계; 및
(c) 매칭 모듈을 통해 상기 제1 영상 및 상기 제2 영상에서의 이륜차 객체 간의 겹침 비율을 기반으로 제1 영상 및 제2 영상에서의 이륜차 객체를 서로 매칭시키는 단계를 포함하는, 영상 매칭 방법.
(a) acquiring a first image that is an image of the first region and the second region with a first image quality through a first image acquisition module;
(b) acquiring a second image that is an image of the first to fourth regions with a second image quality that is lower than the first image quality through a second image acquisition module; and
(c) matching the motorcycle object in the first image and the second image to each other based on the overlap ratio between the motorcycle object in the first image and the second image through a matching module.
상기 (c) 단계는:
(c-1) 영상 수신부를 통해 상기 제1 영상 및 상기 제2 영상을 수신하는 단계;
(c-2) 관심 영역 설정부를 통해 상기 제1 영상에 제1 관심 영역을 설정하고, 상기 제2 영상에서 상기 제1 관심 영역과 대응되는 영역에 제2 관심 영역을 설정하는 단계;
(c-3) 바운딩 박스 설정부를 통해 상기 제1 관심 영역에서 이륜차 객체를 탐지하여 제1 바운딩 박스를 설정하고, 상기 제2 관심 영역에서 이륜차 객체를 탐지하여 제2 바운딩 박스를 설정하는 단계;
(c-4) 제1 식별번호 부여부를 통해 상기 제1 바운딩 박스 각각에 서로 다른 식별번호를 부여하는 단계;
(c-5) 겹침 비율 산출부를 통해 상기 제2 관심 영역을 상기 제1 관심 영역의 크기에 대응되도록 크기를 조절한 후 이들을 서로 겹친 다음, 상기 제1 바운딩 박스와 상기 제2 바운딩 박스 간의 겹침 비율을 산출하는 단계; 및
(c-6) 매칭부를 통해 상기 (c-5) 단계에서 산출된 겹침 비율을 기반으로, 특정 제1 바운딩 박스와의 겹침 비율이 가장 높은 제2 바운딩 박스를 상기 특정 제1 바운딩 박스에 매칭시키는 단계를 포함하는, 영상 매칭 방법.
8. The method of claim 7,
Step (c) is:
(c-1) receiving the first image and the second image through an image receiving unit;
(c-2) setting a first region of interest in the first image through a region of interest setting unit, and setting a second region of interest in a region corresponding to the first region of interest in the second image;
(c-3) setting a first bounding box by detecting a motorcycle object in the first region of interest through a bounding box setting unit, and setting a second bounding box by detecting a motorcycle object in the second region of interest;
(c-4) assigning different identification numbers to each of the first bounding boxes through a first identification number assigning unit;
(c-5) After adjusting the size of the second region of interest to correspond to the size of the first region of interest through an overlap ratio calculating unit, and overlapping them, the overlap ratio between the first bounding box and the second bounding box calculating ; and
(c-6) matching the second bounding box having the highest overlap ratio with the specific first bounding box to the specific first bounding box based on the overlap ratio calculated in step (c-5) through the matching unit An image matching method comprising the steps.
상기 (c) 단계는:
(c-7) 제2 식별번호 부여부를 통해 상기 특정 제1 바운딩 박스와 매칭된 제2 바운딩 박스에 상기 특정 제1 바운딩 박스에 부여된 식별번호와 동일한 식별번호를 부여하는 단계를 더 포함하는, 영상 매칭 방법.
9. The method of claim 8,
Step (c) is:
(c-7) further comprising the step of giving an identification number identical to the identification number given to the specific first bounding box to a second bounding box matched with the specific first bounding box through a second identification number granting unit, How to match video.
상기 (c-6) 단계는:
(c-6-1) 바운딩 박스 추출 유닛을 통해 상기 제2 바운딩 박스 중에서 상기 특정 제1 바운딩 박스와의 겹침 비율이 가장 높은 제2 바운딩 박스를 추출하는 단계;
(c-6-2) 최소 겹침 비율 초과 여부 판단 유닛을 통해 상기 겹침 비율이 기 설정된 최소 겹침 비율을 초과하는지 여부를 판단하는 단계; 및
(c-6-3) 매칭 유닛을 통해 상기 최소 겹침 비율을 초과한 상기 제2 바운딩 박스를 상기 특정 제1 바운딩 박스에 매칭하는 단계를 포함하는, 영상 매칭 방법.
10. The method of claim 9,
Step (c-6) is:
(c-6-1) extracting a second bounding box having the highest overlap ratio with the specific first bounding box from among the second bounding boxes through a bounding box extraction unit;
(c-6-2) determining whether the overlap ratio exceeds a preset minimum overlap ratio through a minimum overlap ratio exceeding determination unit; and
(c-6-3) matching the second bounding box exceeding the minimum overlap ratio to the specific first bounding box through a matching unit.
상기 제7항 내지 제10항 중 어느 한 항에 따른 영상 매칭 방법을 컴퓨터로 실행하기 위한 프로그램이 기록된 기록 매체.
In a computer-readable recording medium,
A recording medium in which a program for executing the image matching method according to any one of claims 7 to 10 with a computer is recorded.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210061761A KR102416066B1 (en) | 2021-05-13 | 2021-05-13 | System and method for matching video |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210061761A KR102416066B1 (en) | 2021-05-13 | 2021-05-13 | System and method for matching video |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102416066B1 true KR102416066B1 (en) | 2022-07-06 |
Family
ID=82400672
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210061761A KR102416066B1 (en) | 2021-05-13 | 2021-05-13 | System and method for matching video |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102416066B1 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101178878B1 (en) * | 2012-04-06 | 2012-08-31 | 주식회사 사라다 | Object recognition and situation video search system and the image tractability system which uses this |
KR101916832B1 (en) | 2017-07-11 | 2018-11-08 | 강경수 | Method and apparatus for detecting of object using the annotation bounding box |
KR20190054703A (en) * | 2017-11-14 | 2019-05-22 | 김민석 | Method for correcting image quality taken by dual camera |
KR102041734B1 (en) * | 2018-12-13 | 2019-11-27 | 유니셈(주) | System and method for enforcing traffic violation based on deep learning |
KR20200044171A (en) * | 2018-10-05 | 2020-04-29 | 재단법인대구경북과학기술원 | Real-time object detection method and apparatus by deep learning network model |
KR102161972B1 (en) * | 2020-01-16 | 2020-10-06 | 유니셈(주) | Apparatus for calculation about traffic volume by using distance between vehicles |
KR102235018B1 (en) * | 2019-06-21 | 2021-04-01 | 국방과학연구소 | Apparatus for aligning multiple camera images having different resolutions and method thereof |
-
2021
- 2021-05-13 KR KR1020210061761A patent/KR102416066B1/en active IP Right Grant
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101178878B1 (en) * | 2012-04-06 | 2012-08-31 | 주식회사 사라다 | Object recognition and situation video search system and the image tractability system which uses this |
KR101916832B1 (en) | 2017-07-11 | 2018-11-08 | 강경수 | Method and apparatus for detecting of object using the annotation bounding box |
KR20190054703A (en) * | 2017-11-14 | 2019-05-22 | 김민석 | Method for correcting image quality taken by dual camera |
KR20200044171A (en) * | 2018-10-05 | 2020-04-29 | 재단법인대구경북과학기술원 | Real-time object detection method and apparatus by deep learning network model |
KR102041734B1 (en) * | 2018-12-13 | 2019-11-27 | 유니셈(주) | System and method for enforcing traffic violation based on deep learning |
KR102235018B1 (en) * | 2019-06-21 | 2021-04-01 | 국방과학연구소 | Apparatus for aligning multiple camera images having different resolutions and method thereof |
KR102161972B1 (en) * | 2020-01-16 | 2020-10-06 | 유니셈(주) | Apparatus for calculation about traffic volume by using distance between vehicles |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102765365B (en) | Pedestrian detection method based on machine vision and pedestrian anti-collision warning system based on machine vision | |
KR101971878B1 (en) | Video surveillance system and method using deep-learning based car number recognition technology in multi-lane environment | |
US20100172543A1 (en) | Multiple object speed tracking system | |
KR101742490B1 (en) | System for inspecting vehicle in violation by intervention and the method thereof | |
CN105825185A (en) | Early warning method and device against collision of vehicles | |
KR102491091B1 (en) | Method for producing collection video clip and, integrated unmanned traffic control system for two/four wheeled vehicle therewith | |
KR102368127B1 (en) | Traffic violation enforcement system for motor bicycle | |
WO2014172708A1 (en) | Pedestrian right of way monitoring and reporting system and method | |
KR102001002B1 (en) | Method and system for recognzing license plate based on deep learning | |
CN106503622A (en) | A kind of vehicle antitracking method and device | |
KR101492473B1 (en) | Context-aware cctv intergrated managment system with user-based | |
KR101665961B1 (en) | Apparatus for providing image of vehicle and method thereof | |
CN110580808B (en) | Information processing method and device, electronic equipment and intelligent traffic system | |
CN105046966A (en) | System and method for automatically detecting illegal parking behaviors in drop-off areas | |
KR101584105B1 (en) | Vehicle photographing apparatus based multilane and control method thereof | |
KR102429312B1 (en) | Enforcement device and method thereof | |
KR102332517B1 (en) | Image surveilance control apparatus | |
KR20190094658A (en) | System and Method for Managing Vehicle Running Information | |
KR20100053318A (en) | A sensing system of a lane offense cars using the corner data and sensing method using the same | |
JP2016021200A (en) | Determination method, determination system and determination device | |
WO2016132769A1 (en) | Imaging device, control method for imaging device, and control program | |
KR102526194B1 (en) | Police enfoforcement system of illegal intervention vehicle by moving vehicle tracking | |
KR101570485B1 (en) | System for monitoring illegal parking of camera blind spot | |
KR102416066B1 (en) | System and method for matching video | |
KR102521567B1 (en) | Apparatus and method for recogniaing illegal driving of two-sheeled vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |