KR102554572B1 - Optical zoom acquisition image sensing device with crop zoom, and method using the same - Google Patents

Optical zoom acquisition image sensing device with crop zoom, and method using the same Download PDF

Info

Publication number
KR102554572B1
KR102554572B1 KR1020230021537A KR20230021537A KR102554572B1 KR 102554572 B1 KR102554572 B1 KR 102554572B1 KR 1020230021537 A KR1020230021537 A KR 1020230021537A KR 20230021537 A KR20230021537 A KR 20230021537A KR 102554572 B1 KR102554572 B1 KR 102554572B1
Authority
KR
South Korea
Prior art keywords
zoom
image
unit
area
center point
Prior art date
Application number
KR1020230021537A
Other languages
Korean (ko)
Other versions
KR102554572B9 (en
Inventor
박재규
박종한
김경수
이환웅
Original Assignee
한국씨텍(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국씨텍(주) filed Critical 한국씨텍(주)
Application granted granted Critical
Publication of KR102554572B1 publication Critical patent/KR102554572B1/en
Publication of KR102554572B9 publication Critical patent/KR102554572B9/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/815Camera processing pipelines; Components thereof for controlling the resolution by using a single image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)

Abstract

크롭줌을 적용한 광학 줌 획득 영상감시 장치 및 방법이 개시된다. 본 발명의 실시 예에 따른 크롭줌을 적용한 광학 줌 획득 영상감시장치는, IP 카메라(Internet Protocol Camera)와의 통신을 통해 영상을 수신하는 통신부, 수신된 영상으로부터 객체의 위치를 입력받는 사용자 인터페이스부, 입력받은 객체를 포함하는 크롭핑 영역을 설정하는 영역 설정부, 크롭핑 영역에 대한 중심점을 추적하는 중심점 추적부, 추적된 중심점을 기준으로 벡터 양자화를 통한 줌 배율을 결정하는 줌 배율 결정부, 결정된 줌 배율에 의한 이미지 확대 성공 여부에 따라 흔들림 보정을 수행하는 보정부, 보정된 이미지에 대한 크로핑(Cropping)을 수행하여 이미지 프레임을 확대하는 크로핑부, 및 크로핑된 영상을 출력하는 출력부를 포함한다. 이에 의해, 흔들림이 보정되고 화질이 우수한 디지털 줌의 구현이 가능하다.Disclosed is an optical zoom acquisition image monitoring apparatus and method using crop zoom. An optical zoom acquisition video surveillance device using crop zoom according to an embodiment of the present invention includes a communication unit that receives an image through communication with an IP camera (Internet Protocol Camera), a user interface unit that receives an input of the location of an object from the received image, A region setting unit that sets the cropping area including the input object, a center point tracking unit that tracks the center point of the cropping area, a zoom factor determining unit that determines a zoom factor through vector quantization based on the tracked center point, Comprising a correction unit that performs shake correction according to whether or not image enlargement is successful by zoom factor, a cropping unit that enlarges an image frame by performing cropping on the corrected image, and an output unit that outputs the cropped image do. As a result, it is possible to implement a digital zoom in which shaking is corrected and image quality is excellent.

Description

크롭줌을 적용한 광학 줌 획득 영상감시 장치 및 방법 {OPTICAL ZOOM ACQUISITION IMAGE SENSING DEVICE WITH CROP ZOOM, AND METHOD USING THE SAME}Video Surveillance Apparatus and Method for Obtaining Optical Zoom Using Crop Zoom {OPTICAL ZOOM ACQUISITION IMAGE SENSING DEVICE WITH CROP ZOOM, AND METHOD USING THE SAME}

본 발명은 크롭줌을 적용한 광학 줌 획득 영상감시 장치 및 방법에 관한 것으로서, 보다 상세하게는, 광학 줌의 한계를 해상도 변경을 통해 확장하면서도 영상의 화질을 보장할 수 있는 크롭줌을 적용한 광학 줌 획득 영상감시 장치 및 방법에 관한 것이다.The present invention relates to a video surveillance apparatus and method for acquiring optical zoom using crop zoom, and more particularly, obtaining optical zoom using crop zoom capable of securing image quality while extending the limit of optical zoom through resolution change. It relates to video surveillance devices and methods.

PTZ 카메라는 전기적 회전(Pan), 수직방향 기울기(Tilt), 및 확대(Zoom)의 조정이 가능한 카메라로, 사용자가 원하는 영역을 보여주기 위해 패닝 및 틸팅 기능을 수행하거나, 사용자가 원하는 영역을 자세하게 보고자 하는 경우 줌 기능을 수행한다.A PTZ camera is a camera that can adjust electrical rotation (Pan), vertical tilt (Tilt), and zoom (Zoom). If you want to see it, perform the zoom function.

줌 기능은 PTZ 카메라에 의해 촬영된 영상 중 사용자가 특정 영역을 전체 화면으로 확대할 수 있는 기능으로, PTZ 카메라에서 팬 및 틸트 성능도 중요하지만, 줌 성능이 PTZ 카메라의 사양에 큰 영향을 끼친다.The zoom function is a function that allows the user to enlarge a specific area of the video captured by the PTZ camera to the entire screen. Pan and tilt performance are important in the PTZ camera, but zoom performance has a great impact on the specifications of the PTZ camera.

줌 기능에는 광학 줌과 디지털 줌이 있다. 광학 줌은 렌즈의 배열을 이용하여 하드웨어적으로 줌을 수행하는 것이고, 디지털 줌은 카메라에 내장된 프로그램을 이용하여 소프트웨어적으로 줌을 수행하는 것이다.Zoom features include optical zoom and digital zoom. Optical zoom is performed by hardware using an array of lenses, and digital zoom is performed by software using a program built into the camera.

광학 줌은 디지털 줌보다 화질이 뛰어나지만, 하드웨어적으로 제공 가능한 배율 범위 내에서만 사용가능한 단점이 있다. 반면, 디지털 줌은 광학 줌에 비하여 더 크게 확대가 가능하지만, 영상의 품질이 저하되는 단점이 있다.Optical zoom has a higher image quality than digital zoom, but has a disadvantage in that it can be used only within a magnification range that can be provided by hardware. On the other hand, the digital zoom can enlarge more than the optical zoom, but has a disadvantage in that the quality of the image is deteriorated.

그러므로, 영상의 품질 면에서는 광학 줌을 사용하는 것이 좋으나, 광학 줌의 확장은 장비의 대형화 및 비용 문제와 직결되므로, 원하는 줌 배율을 얻기 위해 하드웨어를 추가하는 것은 쉬운 일이 아니다.Therefore, it is preferable to use optical zoom in terms of image quality, but since the expansion of optical zoom is directly related to equipment size and cost, it is not easy to add hardware to obtain a desired zoom factor.

이에 따라, 하드웨어적인 광학 줌의 배율이 한계에 도달한 경우에도 광학 줌에 버금가는 영상의 품질을 제공할 수 있는 보정 기술이 필요하다.Accordingly, there is a need for a correction technique capable of providing image quality comparable to optical zoom even when the magnification of the hardware optical zoom reaches its limit.

국내공개특허공보 제10-2020-0094309호(2020. 08. 07. 공개)Korean Patent Publication No. 10-2020-0094309 (published on August 7, 2020)

전술한 문제점을 해결하기 위하여 본 발명이 이루고자 하는 기술적 과제는, 객체를 포함하는 이미지에 대한 정확한 중심점을 찾아 영상의 확대할 영역을 설정하고, 벡터 양자화 기반으로 흔들림을 보정함으로써, 우수한 품질의 확대 영상을 획득할 수 있는 크롭줌을 적용한 광학 줌 획득 영상감시 장치 및 방법을 제시하는 데 있다.In order to solve the above problems, the technical problem to be achieved by the present invention is to find an accurate center point for an image including an object, set a region to be enlarged, and compensate for shaking based on vector quantization, thereby providing an enlarged image of excellent quality. It is to propose an optical zoom acquisition video surveillance apparatus and method using crop zoom capable of acquiring .

본 발명의 해결과제는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 해결과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to those mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the description below.

전술한 기술적 과제를 해결하기 위한 수단으로서, 본 발명의 실시 예에 따른 크롭줌을 적용한 광학 줌 획득 영상감시장치는, IP 카메라(Internet Protocol Camera)와의 통신을 통해 영상을 수신하는 통신부, 수신된 영상으로부터 객체의 위치를 입력받는 사용자 인터페이스부, 입력받은 객체를 포함하는 크롭핑 영역을 설정하는 영역 설정부, 크롭핑 영역에 대한 중심점을 추적하는 중심점 추적부, 추적된 중심점을 기준으로 벡터 양자화를 통한 줌 배율을 결정하는 줌 배율 결정부, 결정된 줌 배율에 의한 이미지 확대 성공 여부에 따라 흔들림 보정을 수행하는 보정부, 보정된 이미지에 대한 크로핑(Cropping)을 수행하여 이미지 프레임을 확대하는 크로핑부, 및 크로핑된 영상을 출력하는 출력부를 포함한다.As a means for solving the above-described technical problem, an optical zoom acquisition video surveillance device to which crop zoom is applied according to an embodiment of the present invention includes a communication unit for receiving an image through communication with an IP camera (Internet Protocol Camera), and a received image. A user interface unit that receives an input of the position of an object from, an area setting unit that sets a cropping area including the inputted object, a center point tracking unit that tracks the center point of the cropping area, and vector quantization based on the tracked center point. A zoom factor determination unit that determines a zoom factor, a correction unit that performs shake correction according to whether or not the image has been successfully enlarged by the determined zoom factor, a cropping unit that enlarges an image frame by performing cropping on the corrected image, and an output unit outputting the cropped image.

상기 영역 설정부는, 객체를 포함하는 객체포함영역을 설정하고, 설정된 객체포함영역의 폭 방향 및 높이 방향의 최대값에 해당하는 지점을 코닉 포인트로 설정하며, 코닉 포인트로부터 객체포함영역의 외측으로 연장되는 유클리디안 영역을 설정하여, 유클리디안 거리를 이용하여 크롭핑 영역을 설정할 수 있다.The region setting unit sets an object-containing region including objects, sets a point corresponding to maximum values in the width and height directions of the set object-containing region as a conic point, and extends from the conic point to the outside of the object-containing region. By setting a Euclidean area to be, the cropping area may be set using the Euclidean distance.

상기 영역 설정부는, 하기의 수식에 의해 유클리어 다항식에 따른 거리 비례 표면의 면적비를 산출할 수 있다:The area setting unit may calculate the area ratio of the distance proportional surface according to the Euclidean polynomial by the following formula:

본 발명에 따르면, 객체를 포함하는 영역에서 추적한 중심점에 의한 크롭핑 영역을 설정하여 이에 따른 줌 배율을 결정하여 이미지 확대에 적용함으로써, 광학 줌의 한계를 극복할 수 있는 디지털 줌의 구현이 가능한 크롭줌을 적용한 광학 줌 획득 영상감시 장치 및 방법을 제공하는 효과가 있다.According to the present invention, it is possible to implement digital zoom capable of overcoming the limitations of optical zoom by setting a cropping area by a center point traced in an area including an object, determining a zoom magnification according to the cropping area, and applying it to image enlargement. There is an effect of providing an optical zoom acquisition video surveillance apparatus and method to which crop zoom is applied.

본 발명의 효과는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은 본 발명의 바람직한 실시예에 따른 흔들림 보정이 가능한 디지털 줌 구현 시스템의 네트워크 구성도,
도 2는 본 발명의 바람직한 실시예에 따른 크롭줌을 적용한 광학 줌 획득 영상감시장치의 블록도,
도 3은 도 2에 도시한 영역 설정부의 동작을 설명하기 위한 도면,
도 4 및 도 5는 도 2에 도시한 중심점 추적부의 동작을 설명하기 위한 도면,
도 6은 도 2에 도시한 보정부의 동작을 설명하기 위한 도면, 그리고,
도 7은 본 발명의 바람직한 실시예에 따른 크롭줌을 적용한 광학 줌 획득 영상감시 방법을 설명하기 위한 흐름도이다.
1 is a network configuration diagram of a digital zoom realization system capable of shake correction according to a preferred embodiment of the present invention;
2 is a block diagram of an optical zoom acquisition video surveillance device to which crop zoom is applied according to a preferred embodiment of the present invention;
3 is a diagram for explaining the operation of the area setting unit shown in FIG. 2;
4 and 5 are views for explaining the operation of the center point tracking unit shown in FIG. 2;
Figure 6 is a view for explaining the operation of the correction unit shown in Figure 2, and,
FIG. 7 is a flowchart for explaining a video surveillance method for acquiring optical zoom to which crop zoom is applied according to a preferred embodiment of the present invention.

이상의 본 발명의 목적들, 다른 목적들, 특징들 및 이점들은 첨부된 도면과 관련된 이하의 바람직한 실시 예들을 통해서 쉽게 이해될 것이다. 그러나 본 발명은 여기서 설명되는 실시 예들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 오히려, 여기서 소개되는 실시 예들은 개시된 내용이 철저하고 완전해질 수 있도록 그리고 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되는 것이다.The above objects, other objects, features and advantages of the present invention will be easily understood through the following preferred embodiments in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments described herein and may be embodied in other forms. Rather, the embodiments introduced herein are provided so that the disclosed content will be thorough and complete and the spirit of the present invention will be sufficiently conveyed to those skilled in the art.

본 명세서에서, 어떤 구성요소가 다른 구성요소 상에 있다고 언급되는 경우에 그것은 다른 구성요소 상에 직접 형성될 수 있거나 또는 그들 사이에 제 3의 구성요소가 개재될 수도 있다는 것을 의미한다.In this specification, when an element is referred to as being on another element, it means that it may be directly formed on the other element or a third element may be interposed therebetween.

또한, 제1 엘리먼트 (또는 구성요소)가 제2 엘리먼트(또는 구성요소) 상(ON)에서 동작 또는 실행된다고 언급될 때, 제1 엘리먼트(또는 구성요소)는 제2 엘리먼트(또는 구성요소)가 동작 또는 실행되는 환경에서 동작 또는 실행되거나 또는 제2 엘리먼트(또는 구성요소)와 직접 또는 간접적으로 상호 작용을 통해서 동작 또는 실행되는 것으로 이해되어야 할 것이다.Also, when it is said that a first element (or component) operates or is executed on (ON) a second element (or component), the first element (or component) means that the second element (or component) It should be understood that it is operated or executed in an environment in which it is operated or executed, or operated or executed through direct or indirect interaction with the second element (or component).

어떤 엘리먼트, 구성요소, 장치, 또는 시스템이 프로그램 또는 소프트웨어로 이루어진 구성요소를 포함한다고 언급되는 경우, 명시적인 언급이 없더라도, 그 엘리먼트, 구성요소, 장치, 또는 시스템은 그 프로그램 또는 소프트웨어가 실행 또는 동작하는데 필요한 하드웨어(예를 들면, 메모리, CPU 등)나 다른 프로그램 또는 소프트웨어(예를 들면 운영체제나 하드웨어를 구동하는데 필요한 드라이버 등)를 포함하는 것으로 이해되어야 할 것이다.Where an element, component, device, or system is referred to as including a component consisting of a program or software, even if not explicitly stated otherwise, that element, component, device, or system means that the program or software executes or operates. It should be understood that it includes hardware (eg, memory, CPU, etc.) or other programs or software (eg, operating system or driver required to drive hardware) required to do so.

또한, 어떤 엘리먼트(또는 구성요소)가 구현됨에 있어서 특별한 언급이 없다면, 그 엘리먼트(또는 구성요소)는 소프트웨어, 하드웨어, 또는 소프트웨어 및 하드웨어 어떤 형태로도 구현될 수 있는 것으로 이해되어야 할 것이다.In addition, it should be understood that, unless otherwise specified, the element (or component) may be implemented in any form of software, hardware, or both software and hardware.

또한, 본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 '포함한다(comprises)' 및/또는 '포함하는(comprising)'은 언급된 구성요소는 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.In addition, terms used in this specification are for describing embodiments and are not intended to limit the present invention. In this specification, singular forms also include plural forms unless specifically stated otherwise in a phrase. The terms 'comprises' and/or 'comprising' used in the specification do not exclude the presence or addition of one or more other elements.

도 1은 본 발명의 바람직한 실시예에 따른 흔들림 보정이 가능한 디지털 줌 구현 시스템의 네트워크 구성도이다.1 is a network configuration diagram of a digital zoom realization system capable of shake correction according to a preferred embodiment of the present invention.

도 1을 참조하여, 본 발명의 바람직한 실시예에 따른 흔들림 보정이 가능한 디지털 줌 구현 시스템은, 서로 네트워크를 통해 통신이 가능하도록 연결되는 IP 카메라(100), 및 디지털 줌 구현 장치(200)로 이루어진다.Referring to FIG. 1, a digital zoom realization system capable of shake correction according to a preferred embodiment of the present invention includes an IP camera 100 and a digital zoom realization device 200 connected to each other to enable communication through a network. .

IP 카메라(100)는 유선 혹은 무선으로 인터넷에 연결되어 PC, 모바일 기기 등의 전자기기로 영상을 송출할 수 있는 기능을 갖는 카메라이다. 본 실시예에 따른 IP 카메라(100)는 기설정된 촬영구역에 대한 영상을 촬영한 후, 소정의 네트워크를 통해 디지털 줌 구현 장치(200)로 전송한다.The IP camera 100 is a camera having a function of transmitting an image to an electronic device such as a PC or mobile device by being connected to the Internet by wire or wirelessly. The IP camera 100 according to the present embodiment captures an image of a preset shooting area and transmits the image to the digital zoom implementation device 200 through a predetermined network.

IP 카메라(100)에 적용되는 카메라 종류는 어느 형태이든 무관하다. 예를 들면, 돔(Dome)형, 박스(Box)형, 뷸렛(Bullet)형, 및 PTZ(Pan Tilt Zoom)형 등이 적용될 수 있으며, 일반적으로 도로 상에는 팬, 틸트, 및 줌의 조절이 가능한 PTZ 카메라가 주로 설치된다.The type of camera applied to the IP camera 100 is irrelevant. For example, a dome type, a box type, a bullet type, and a PTZ (Pan Tilt Zoom) type may be applied, and in general, pan, tilt, and zoom controllable on the road PTZ cameras are mainly installed.

디지털 줌 구현 장치(200)는 IP 카메라(100)와 소정 네트워크를 통해 통신하여 IP 카메라(100)가 촬영한 영상을 수신한다. 이후, 디지털 줌 구현 장치(200)는 IP 카메라(100)로부터 수신한 영상을 사용자(혹은 관리자)의 요구에 따라 제공할 수 있다. The device 200 for implementing digital zoom receives an image captured by the IP camera 100 by communicating with the IP camera 100 through a predetermined network. Thereafter, the digital zoom implementation device 200 may provide the image received from the IP camera 100 according to a user's (or manager's) request.

또한, 디지털 줌 구현 장치(200)는 IP 카메라(100)에 의해 촬영된 영상을 그대로 제공하기도 하지만, 사용자의 요구에 맞게 줌 기능을 포함하여 다양한 기능을 제공할 수 있다.In addition, the device 200 for realizing digital zoom may provide an image captured by the IP camera 100 as it is, but may provide various functions including a zoom function to suit a user's request.

또한, IP 카메라(100)가 실내에 설치된 경우라면 외부 환경의 영향을 크게 받지 않지만, IP 카메라(100)가 CCTV(Closed-circuit Television)의 형태로 사용될 때에는 실외에 설치되는 경우가 보통이다. 이와 같이, IP 카메라(100)가 실외에 설치되는 경우, 바람, 교각의 진동과 같은 외부 환경의 영향으로 IP 카메라(100)의 흔들림이 발생할 수 있고, IP 카메라(100)의 흔들림 발생은 IP 카메라(100)가 촬영하는 영상에도 그대로 반영되어 영상의 흔들림으로 나타난다.In addition, when the IP camera 100 is installed indoors, it is not greatly affected by the external environment, but when the IP camera 100 is used in the form of a closed-circuit television (CCTV), it is usually installed outdoors. As such, when the IP camera 100 is installed outdoors, shaking of the IP camera 100 may occur due to the influence of external environments such as wind and vibration of a pier. (100) is reflected as it is in the video taken, and it appears as shaking of the video.

그러므로, 디지털 줌 구현 장치(200)은 IP 카메라(100)가 외부 환경의 영향으로 흔들림이 발생한 영상을 촬영한 경우에 이러한 흔들림이 발생한 영상을 보정할 수 있는 기능을 제공한다. 즉, 디지털 줌 구현 장치(200)는 광학 줌의 한계를 넘어서는 디지털 줌의 기능과 더불어, 흔들림이 발생한 영상의 보정 기능까지 제공한다. 이러한, 디지털 줌 구현 장치(200)에 대하여는 후술하는 도 2에서 보다 상세히 설명하도록 한다.Therefore, when the IP camera 100 captures an image in which shaking occurs due to the influence of the external environment, the device 200 for implementing digital zoom provides a function of correcting the shaking image. That is, the device 200 for realizing digital zoom provides a digital zoom function beyond the limit of optical zoom and a function of correcting a shaken image. The digital zoom realization device 200 will be described in more detail in FIG. 2 to be described later.

본 실시예에서는, 디지털 줌 구현 장치(200)에 네트워크를 통해 연결되는 IP 카메라(100)가 한대인 것으로 도시하였으나, 이는 단순히 설명의 편의를 위한 것일 뿐 이에 한정되지 않는다. 즉, 디지털 줌 구현 장치(200)은 복수의 IP 카메라(100)와 네트워크를 통한 통신이 가능하여 다양한 지점의 영상을 수신할 수 있다.In this embodiment, it is illustrated that there is only one IP camera 100 connected to the digital zoom implementation device 200 through a network, but this is merely for convenience of description and is not limited thereto. That is, the apparatus 200 for implementing digital zoom can communicate with the plurality of IP cameras 100 through a network and receive images from various points.

도 2는 본 발명의 바람직한 실시예에 따른 크롭줌을 적용한 광학 줌 획득 영상감시장치의 블록도이다.2 is a block diagram of an optical zoom acquisition video monitoring apparatus to which crop zoom is applied according to a preferred embodiment of the present invention.

도 2를 참조하여, 본 발명의 바람직한 실시예에 따른 디지털 줌 구현 장치(200)는 통신부(210), 사용자 인터페이스부(220), 영역 설정부(230), 중심점 추적부(240), 줌 배율 결정부(250), 보정부(260), 크로핑부(270), 출력부(280), 저장부(290), 및 제어부(295)를 포함한다.Referring to FIG. 2 , the device 200 for realizing digital zoom according to a preferred embodiment of the present invention includes a communication unit 210, a user interface unit 220, an area setting unit 230, a center point tracking unit 240, and a zoom factor. It includes a determination unit 250, a correction unit 260, a cropping unit 270, an output unit 280, a storage unit 290, and a control unit 295.

통신부(210)는 디지털 줌 구현 장치(200)의 네트워크 인터페이스를 지원하는 것으로, 본 실시예에서는 IP 카메라(100)로부터 IP 카메라(100)가 촬영한 영상을 수신할 수 있고, 사용자에 의해 입력되는 각종 제어신호를 IP 카메라(100)로 전송할 수 있다.The communication unit 210 supports the network interface of the digital zoom implementation device 200, and in this embodiment, can receive an image captured by the IP camera 100 from the IP camera 100, and input by a user. Various control signals may be transmitted to the IP camera 100 .

사용자 인터페이스부(220)는 디지털 줌 구현 장치(200)와 사용자 간의 인터페이스를 지원하는 것으로, 사용자에 의해 입력되는 각종 제어신호를 입력받을 수 있다. 이를 위해, 사용자 인터페이스부(220)는 하드웨어 입력장치인 키보드, 마우스, 및 컨트롤 키보드(조이스틱) 등을 통해 각각의 입력신호를 입력받을 수 있도록 구비될 수 있다. 일 예로, 사용자는 마우스를 움직여 객체의 위치를 입력할 수 있으며, 마우스 커서의 위치가 사용자 입력한 객체의 위치가 될 수 있다.The user interface unit 220 supports an interface between the digital zoom implementation device 200 and the user, and can receive various control signals input by the user. To this end, the user interface unit 220 may be provided to receive input signals through hardware input devices such as a keyboard, a mouse, and a control keyboard (joystick). For example, the user may input the position of the object by moving the mouse, and the position of the mouse cursor may be the position of the object input by the user.

영역 설정부(230)는 사용자 인터페이스부(220)를 통해 입력받은 객체의 위치에 의해, 객체를 포함하는 크롭핑 영역을 설정한다. 보다 구체적으로, 영역 설정부(230)는 객체를 포함하는 객체포함영역을 설정하고, 설정된 객체포함영역의 폭 방향 및 높이 방향의 최대값에 해당하는 지점을 코닉 포인트로 설정하며, 코닉 포인트로부터 객체포함영역의 외측으로 연장되는 유클리디안 영역을 설정하여, 유클리디안 거리를 이용하여 상기 크롭핑 영역을 설정할 수 있다.The area setting unit 230 sets a cropping area including the object based on the position of the object input through the user interface unit 220 . More specifically, the area setting unit 230 sets an object-containing area including an object, sets a point corresponding to the maximum values in the width direction and height direction of the set object-containing area as a conic point, and sets the object from the conic point. By setting a Euclidean region extending outside the included region, the cropping region may be set using the Euclidean distance.

영역 설정부(230)는 수학식 1에 의해 유클리어 다항식에 따른 거리 비례 표면의 면적비를 산출할 수 있다.The area setting unit 230 may calculate the area ratio of the distance proportional surface according to the Euclidean polynomial by Equation 1.

Figure 112023018961587-pat00001
Figure 112023018961587-pat00001

여기서,

Figure 112023018961587-pat00002
은 유클리어 다항식에 따른 거리 비례 표면의 면적비, i는 유클리어 이동거리 중심점으로의 이동좌표, j는 현재 벡터의 이동거리 좌표, M은 코닉 포인트 중심 기약 다항식 기반의 저면적 시프트 비트병렬 비교식 모델, u는 유클리어 거리 변수, v는 현재 객체의 벡터 위치이다.here,
Figure 112023018961587-pat00002
is the area ratio of the distance proportional surface according to the Euclidean polynomial, i is the movement coordinate to the center point of the Euclidean movement distance, j is the movement distance coordinate of the current vector, M is a low-area shift bit-parallel comparison model based on the conic point central irreducible polynomial , u is the Euclidean distance variable, v is the vector position of the current object.

중심점 추적부(240)는 영역 설정부(230)에 의해 설정된 크롭핑 영역에 대한 중심점을 추적한다. 보다 구체적으로, 중심점 추적부(240)는 크롭핑 영역을 포함하는 원을 형성하고, 이 원과 크롭핑 영역이 접촉되는 포인트를 기준점으로 정한 후, 크롭핑 영역에 해당하는 각 변의 행과 열의 최대값에 의해 중심점을 추적할 수 있다.The center point tracking unit 240 tracks the center point of the cropping area set by the area setting unit 230 . More specifically, the center point tracking unit 240 forms a circle including the cropping area, sets a point at which the circle and the cropping area contact each other as a reference point, and then sets the maximum number of rows and columns of each side corresponding to the cropping area. The center point can be tracked by the value.

또한, 중심점 추적부(240)는 수학식 2에 의해, 중심점을 산출할 수 있다.Also, the center point tracking unit 240 may calculate the center point by Equation 2.

Figure 112023018961587-pat00003
Figure 112023018961587-pat00003

여기서,

Figure 112023018961587-pat00004
는 중심점의 좌표, x는 이미지 방향성 벡터의 위치값, μ는 x가 중심점으로 이동될 확률 벡터, σ는 이동확률 벡터 반복문이다. here,
Figure 112023018961587-pat00004
is the coordinates of the center point, x is the position value of the image direction vector, μ is the probability vector that x will move to the center point, and σ is the movement probability vector repeat statement.

줌 배율 결정부(250)는 중심점 추적부(240)에 의해 추적된 중심점을 기준으로 벡터 양자화를 통한 줌 배율을 결정한다. 줌 배율 결정부(250)의 동작 과정에서 메모리 크로핑이 수행될 수 있다. 이때, 줌 배율 결정부(250)는 CNN(Convolutional Neural Network) 알고리즘을 이용한 벡터 양자화를 통해 줌 배율을 결정할 수 있다.The zoom magnification determiner 250 determines the zoom magnification through vector quantization based on the center point tracked by the center point tracker 240 . Memory cropping may be performed during the operation of the zoom factor determining unit 250 . At this time, the zoom magnification determiner 250 may determine the zoom magnification through vector quantization using a convolutional neural network (CNN) algorithm.

많은 딥러닝 모델 중 이미지 인식을 위해 강력한 프레임의 이해, 분해, 및 해석이 가능한 것이 CNN 알고리즘이다. CNN 알고리즘은 이미 공지된 기술이므로, 이에 대한 설명은 생략하도록 한다.Among many deep learning models, CNN algorithms are capable of powerful frame understanding, decomposition, and interpretation for image recognition. Since the CNN algorithm is already known, a description thereof will be omitted.

보정부(260)는 줌 배율 결정부(250)에 의해 결정된 줌 배율에 의한 이미지 확대 성공 여부에 따라 흔들림 보정을 수행한다. 이때, 보정부(260)는 이미지 확대 성공 여부를 현 과정에서 결정된 줌 배율을 이전 줌 배율과 비교하여 결정할 수 있다. 보다 구체적으로, 보정부(260)는 현재의 줌 배율이 이전 줌 배율 이하이면 이미지 확대가 실패한 것으로 판단하고, 현재의 줌 배율이 이전 줌 배율을 초과하면 이미지 확대가 성공한 것으로 판단한다. 이후, 보정부(260)는 이미지 확대가 성공한 것으로 판단되는 경우에만 흔들림 보정을 수행하도록 한다.The correction unit 260 performs shake correction according to whether or not the image enlargement is successful according to the zoom factor determined by the zoom factor determiner 250 . At this time, the correction unit 260 may determine whether the image enlargement is successful by comparing the zoom factor determined in the current process with the previous zoom factor. More specifically, the correction unit 260 determines that image enlargement has failed if the current zoom factor is less than or equal to the previous zoom factor, and determines that image enlargement has succeeded if the current zoom factor exceeds the previous zoom factor. Thereafter, the correction unit 260 performs shake correction only when it is determined that image enlargement is successful.

또한, 보정부(260)는 이미지 확대가 성공한 것으로 판단되어 흔들림 보정을 수행하고자 하는 경우, 흔들림 보정을 위한 좌표를 산출하고, 산출된 흔들림 보정을 위한 좌표를 이용하여 흔들림 보정을 수행한다. 여기서, 보정부(260)는 수학식 3에 의해 흔들림 보정을 위한 좌표를 산출할 수 있다.In addition, when the correction unit 260 determines that the image enlargement is successful and wants to perform shake correction, it calculates coordinates for shake correction and performs shake correction using the calculated coordinates for shake correction. Here, the correction unit 260 may calculate coordinates for shaking correction by Equation 3.

Figure 112023018961587-pat00005
Figure 112023018961587-pat00005

여기서,

Figure 112023018961587-pat00006
는 상기 흔들림 보정을 위한 좌표, x는 흔들리는 이미지의 방향성 벡터, k는 차원 벡터, μ는 x가 상기 중심점으로 이동될 확률에 대한 벡터, ∑는 벡터의 반복된 공 분산 행렬,
Figure 112023018961587-pat00007
는 흔들림이 지속된 시간이다.here,
Figure 112023018961587-pat00006
is the coordinate for the shake correction, x is the directional vector of the shake image, k is a dimension vector, μ is a vector for the probability that x is moved to the center point, ∑ is a repeated covariance matrix of vectors,
Figure 112023018961587-pat00007
is the duration of shaking.

크로핑부(270)는 보정부(260)에 의해 보정된 이미지에 대한 크로핑(Cropping)을 수행하여 이미지 프레임을 확대한다. 크로핑은 사진 등에서 불필요한 부분을 다듬는 방법을 일컫는 용어로, 일반적으로 강조하고 싶은 객체를 드러내도록 할 수 있다.The cropping unit 270 enlarges an image frame by performing cropping on the image corrected by the correction unit 260 . Cropping is a term used to describe a method of trimming unnecessary parts of a photo or the like, usually to reveal objects you want to highlight.

출력부(280)는 크로핑된 영상을 출력한다. 이를 위해, 출력부(280)는 하드웨어 출력장치는 디스플레이 장치와 연결되도록 구현되어, 디스플레이 장치에 해당 영상을 출력하도록 할 수 있다.The output unit 280 outputs the cropped image. To this end, the output unit 280 may be implemented such that a hardware output device is connected to a display device, and outputs a corresponding image to the display device.

저장부(290)는 본 디지털 줌 구현 장치(200)의 동작에 필요한 모든 정보를 저장한다. 예를 들면, 저장부(290)는 수학식 1, 수학식 2, 수학식 3을 저장하여 영역 설정부(230), 중심점 추적부(240), 및 보정부(260)의 동작이 원활하게 이루어지도록 할 수 있다.The storage unit 290 stores all information necessary for the operation of the digital zoom implementation device 200 . For example, the storage unit 290 stores Equation 1, Equation 2, and Equation 3 so that the area setting unit 230, the center point tracking unit 240, and the correction unit 260 operate smoothly. you can make it

제어부(295)는 본 디지털 줌 구현 장치(200)의 전반적인 동작을 제어한다. 즉, 제어부(295)는 통신부(210), 사용자 인터페이스부(220), 영역 설정부(230), 중심점 추적부(240), 줌 배율 결정부(250), 보정부(260), 크로핑부(270), 출력부(280), 및 저장부(290)들 간의 신호 입출력을 제어한다.The control unit 295 controls overall operations of the digital zoom realization device 200 . That is, the control unit 295 includes the communication unit 210, the user interface unit 220, the region setting unit 230, the center point tracking unit 240, the zoom ratio determination unit 250, the correcting unit 260, the cropping unit ( 270), the output unit 280, and the storage unit 290 control signal input and output.

도 3은 도 2에 도시한 영역 설정부의 동작을 설명하기 위한 도면이다.FIG. 3 is a diagram for explaining the operation of the area setting unit shown in FIG. 2 .

영역 설정부(230)는 사용자가 지정한 객체의 위치를 이용하여 객체포함영역(A)을 설정하고, 객체포함영역(A)에서 폭 방향 및 높이 방향의 최대값에 해당하는 지점을 코닉 포인트(Conic Point)(B)로 설정한다.The area setting unit 230 sets the object-containing area (A) using the location of the object designated by the user, and sets a point corresponding to the maximum values in the width and height directions in the object-containing area (A) as a conic point (Conic point). Point) (B).

이후, 코닉 포인트(B)로부터 객체포함영역(A)의 외측으로 연장되는 유클리디안 영역(C)을 설정한다. 유클리디안 영역(C)은 두 점 사이의 거리를 계산할 때 사용하는 유클리디안 거리(Euclidian distance)를 사용하기 위하여 본 실시예에서 지정한 영역에 해당한다.Then, a Euclidean region C extending from the conic point B to the outside of the object-containing region A is set. The Euclidean area (C) corresponds to the area specified in this embodiment to use the Euclidian distance used when calculating the distance between two points.

유클리디안 영역(C)은 코닉 포인트(B) 각각에서 대각선 방향으로 연장되는 선에 의해 영역이 구획되는데, 이에 의해 Ⅰ, Ⅱ, Ⅲ, Ⅳ에 해당하는 영역이 생성된다. 도시한 바와 같이, 유클리디안 영역(C)에는 유클리디안 영역(C)의 중심에 꼭지점이 위치하는 4개의 삼각형 형상의 영역이 생성될 수 있다.The Euclidean region (C) is partitioned by lines extending diagonally from each conic point (B), whereby regions corresponding to I, II, III, and IV are created. As shown, in the Euclidean region C, four triangular regions having vertices located at the center of the Euclidean region C may be created.

결과적으로, 유클리디안 영역(C)에 해당하는 Ⅰ, Ⅱ, Ⅲ, Ⅳ 영역과, 객체포함영역(A)에 해당하는 Ⅴ 영역이 존재하게 된다. 영역 설정부(230)는 코닉 포인트(B)를 중심으로 하는 5개의 영역에 대한 면적비를 순차적으로 연산함으로써, 유클리어 다항식에 따른 거리 비례 표면의 면적비(

Figure 112023018961587-pat00008
)를 수학식 1에 의해 산출할 수 있다.As a result, regions I, II, III, and IV corresponding to the Euclidean region (C) and region V corresponding to the object-containing region (A) exist. The area setting unit 230 sequentially calculates the area ratio of the five areas centered on the conic point B, so that the area ratio of the distance proportional surface according to the Euclidean polynomial (
Figure 112023018961587-pat00008
) can be calculated by Equation 1.

전술한 수학식 1에서,

Figure 112023018961587-pat00009
은 코닉 포인트(B)를 중심으로 코닉 면적 다항식에 대한 계산식을 각 영역(Ⅰ 내지 Ⅴ)별로 5번 순차 연산함을 의미한다. 또한,
Figure 112023018961587-pat00010
는 각 영역(Ⅰ 내지 Ⅴ)의 면적에 대한 누적 값이다. 수학식 1은, 코닉 포인트(B) 중심의 기약 다항식 기반의 저면적 시프트 비트 병렬 비교식이라 할 수 있다.In the above Equation 1,
Figure 112023018961587-pat00009
means that the calculation formula for the conic area polynomial centered on the conic point (B) is sequentially calculated 5 times for each area (I to V). also,
Figure 112023018961587-pat00010
is a cumulative value for the area of each region (I to V). Equation 1 can be referred to as a low-area shift bit parallel comparison equation based on an irreducible polynomial centered on the conic point (B).

최종적으로, 영역 설정부(230)는 수학식 1을 이용하여 유클리어 다항식에 따른 거리 비례 표면의 면적비(

Figure 112023018961587-pat00011
)를 산출한 후, 이를 이용하여 객체가 포함되는 크롭핑 영역을 설정한다. IP 카메라(100)로부터 입력받은 영상에 따라서 객체의 위치가 중심이 아닐 수 있지만, 영역 설정부(230)에서는 객체의 위치과 무관하게 객체를 포함하는 크롭핑 영역을 설정하도록 한다.Finally, the area setting unit 230 uses Equation 1 to determine the area ratio of the surface proportional to the distance according to the Euclidean polynomial (
Figure 112023018961587-pat00011
) is calculated, and the cropping area in which the object is included is set using this. Although the position of the object may not be the center according to the image received from the IP camera 100, the area setting unit 230 sets the cropping area including the object regardless of the location of the object.

도 4 및 도 5는 도 2에 도시한 중심점 추적부의 동작을 설명하기 위한 도면이다.4 and 5 are diagrams for explaining the operation of the center point tracking unit shown in FIG. 2 .

중심점 추적부(240)는 영역 설정부(230)에서 설정한 크롭핑 영역(D)에 대한 중심점(E)을 추적한다. 도 4에 예시한 영상에 따르면, IP 카메라(100)로부터 입력받은 영상 중앙에 객체가 존재하고, 이 경우 객체가 중앙에 오도록 크롭핑 영역(D)이 설정되었으며, 중심점 추적부(240)에서는 이러한 크롭핑 영역(D)의 중심에 해당하는 중심점(E)을 찾게 된다. 크롭핑 영역(D)는 추후 크로핑이 수행된 이후에는 D'와 같이 크롭핑될 수 있다.The center point tracking unit 240 tracks the center point E of the cropping area D set by the area setting unit 230 . According to the image illustrated in FIG. 4, an object exists in the center of the image input from the IP camera 100, and in this case, the cropping area D is set so that the object is in the center, and the center point tracking unit 240 A center point E corresponding to the center of the cropping area D is found. The cropping area D may be cropped like D' after cropping is performed later.

도 5를 참조하여 중심점 추적부(240)의 동작을 보다 구체적으로 살펴본다. 중심점 추적부(240)는 크롭핑 영역(D)를 포함하는 원(F)을 형성하고, 이 원(F)과 크롭핑 영역(D)이 접촉되는 포인트를 기준점으로 정한 후, 크롭핑 영역(D)에 해당하는 각 변의 행과 열의 최대값에 의해 중심점(E)을 추적한다.The operation of the center point tracking unit 240 will be described in more detail with reference to FIG. 5 . The center point tracking unit 240 forms a circle (F) including the cropping area (D), sets a point where the circle (F) and the cropping area (D) come into contact with each other as a reference point, and then crops the area ( The central point (E) is traced by the maximum value of the row and column of each side corresponding to D).

중심점 추적부(240)는 전술한 수학식 2에 의해 중심점을 결정할 수 있다. 수학식 2에서, 중심점의 좌표 값에 해당하는

Figure 112023018961587-pat00012
에서
Figure 112023018961587-pat00013
는 중심점 위치의 열(Rows)에 해당하는 값이고,
Figure 112023018961587-pat00014
는 중심점 위치의 행(Cols)에 해당하는 값이다. 또한,
Figure 112023018961587-pat00015
는 원주율을 중심으로 이미지의 중심을 찾기 위해 사용되며,
Figure 112023018961587-pat00016
는 원주율을 중심으로 이미지 프레임 중심을 찾기 위한 4개의 기준점 포인트를 정하고 각 변의 행과 열의 최대값을 구하기 위해 사용된다.The center point tracking unit 240 may determine the center point by Equation 2 above. In Equation 2, corresponding to the coordinate values of the center point
Figure 112023018961587-pat00012
at
Figure 112023018961587-pat00013
Is a value corresponding to the rows of the central point location,
Figure 112023018961587-pat00014
Is a value corresponding to the row (Cols) of the central point position. also,
Figure 112023018961587-pat00015
is used to find the center of the image around the circumference,
Figure 112023018961587-pat00016
is used to determine the four reference points for finding the center of the image frame around the circumference of the circle and to obtain the maximum values of the rows and columns of each side.

도 6은 도 2에 도시한 보정부의 동작을 설명하기 위한 도면이다.FIG. 6 is a diagram for explaining the operation of the correction unit shown in FIG. 2 .

IP 카메라(100)에 바람 및 교각의 진동 등과 같은 외부 환경에 의해 흔들림이 발생하게 되면, IP 카메라(100)에 의해 촬영된 영상에도 흔들림이 발생하게 된다. 이러한 흔들림이 발생한 영상은 사용자가 원하는 영상이 아니므로, 흔들림이 없는 영상으로의 보정이 필요하다. When shaking occurs in the IP camera 100 due to external environments such as wind and vibration of a bridge pier, shaking also occurs in an image captured by the IP camera 100. Since the image with such shaking is not the image desired by the user, it is necessary to correct the image to a shake-free image.

본 실시예에 따르면, 보정부(260)에서는 줌 배율 결정부(250)에 의해 결정된 줌 배율에 따라 이미지 확대의 성공 여부를 판단하고, 이미지 확대가 성공한 경우에는 흔들림 보정을 수행하도록 한다.According to the present embodiment, the correction unit 260 determines whether or not image magnification is successful according to the zoom magnification determined by the zoom magnification determination unit 250, and performs shake correction when the image magnification is successful.

보정부(260)는 전술한 수학식 3에 의해 흔들림 보정을 위한 좌표를 산출함으로써, 산출된 흔들림 보정을 위한 좌표에 의해 흔들림 보정을 수행한다.The correction unit 260 calculates the coordinates for shake correction using Equation 3, and performs shake correction using the calculated coordinates for shake correction.

흔들림 보정을 위한 좌표(

Figure 112023018961587-pat00017
)를 산출하는 수학식 3에서,
Figure 112023018961587-pat00018
은 2K의 크롭핑된 이미지의 좌표 즉,x=x1, y=x2, w=x3, h=x4에 해당한다. 또한, 수학식 3에서 흔들리는 방향성 벡터 x가 타임라인에 따라 흔들림이 지속되는 시간이 확률 벡터
Figure 112023018961587-pat00019
에 도달하면 시계열 무한 루프(
Figure 112023018961587-pat00020
)가 "
Figure 112023018961587-pat00021
"를 만족함으로 시계열 변수를
Figure 112023018961587-pat00022
로 초기화시킨다.
Figure 112023018961587-pat00023
은 도 6에서 도시한 화살표 방향으로 도시한 방향으로의 흔들림이 지속된 시간일 수 있다.Coordinates for shake compensation (
Figure 112023018961587-pat00017
) In Equation 3 that calculates,
Figure 112023018961587-pat00018
corresponds to the coordinates of the 2K cropped image, that is, x=x1, y=x2, w=x3, and h=x4. In addition, in Equation 3, the duration of the shaking direction vector x along the timeline is a probability vector
Figure 112023018961587-pat00019
is reached, the time series infinite loop (
Figure 112023018961587-pat00020
)go "
Figure 112023018961587-pat00021
" by satisfying the time series variable
Figure 112023018961587-pat00022
initialize it with
Figure 112023018961587-pat00023
may be the duration of shaking in the direction indicated by the arrow shown in FIG. 6 .

또한, 수학식 3에서

Figure 112023018961587-pat00024
은 이미지 면적 벡터만큼 차원 벡터 k를 만족할 때까지 무한 반복시킨다. 또한, 수학식 3에서
Figure 112023018961587-pat00025
은 피칭 또는 롤링되는 이미지 타임라인을 중심으로 피칭의 경우 상,하 각 1/2, 롤링의 경우 좌,우로 각 1/2로 분할하는 역할을 한다.Also, in Equation 3
Figure 112023018961587-pat00024
is infinitely repeated until the dimension vector k is satisfied as much as the image area vector. Also, in Equation 3
Figure 112023018961587-pat00025
serves to divide the pitching or rolling image timeline into upper and lower 1/2 in case of pitching and left and right 1/2 in case of rolling.

도 7은 본 발명의 바람직한 실시예에 따른 크롭줌을 적용한 광학 줌 획득 영상감시 방법을 설명하기 위한 흐름도이다.FIG. 7 is a flowchart for explaining a video surveillance method for acquiring optical zoom to which crop zoom is applied according to a preferred embodiment of the present invention.

본 실시예에서는 도 1 내지 도 7을 참조하여, 본 발명의 바람직한 실시예에 따른 크롭줌을 적용한 광학 줌 획득 영상감시 방법을 설명하도록 한다.In this embodiment, referring to FIGS. 1 to 7 , a video surveillance method for obtaining an optical zoom using crop zoom according to a preferred embodiment of the present invention will be described.

IP 카메라(100)에서 영상을 촬영하면, IP 카메라(100)는 네트워크 통신을 통해 디지털 줌 구현 장치(200)로 자신이 촬영한 영상을 전송한다. 이에 의해, 디지털 줌 구현 장치에서는 IP 카메라(100)에서 촬영한 영상을 수신한다(S300). IP 카메라(100)가 전송한 영상은 저장부(290)에 기설정된 기간 동안 저장될 수 있다.When an image is captured by the IP camera 100, the IP camera 100 transmits the captured image to the digital zoom implementation device 200 through network communication. Accordingly, the digital zoom implementation device receives an image captured by the IP camera 100 (S300). The image transmitted by the IP camera 100 may be stored in the storage unit 290 for a predetermined period of time.

IP 카메라(100)로부터 수신한 영상은 출력부(280)를 통해 출력되어 사용자에게 제공된다. 이러한 출력 영상을 통해 사용자는 마우스와 같은 입력장치를 조작하여 객체의 위치를 입력할 수 있다. 사용자로부터 입력되는 객체의 위치는 사용자 인터페이스부(220)를 통해 입력된다(S310). 만약, 사용자로부터 특별히 입력되는 객체의 위치 정보가 없는 경우, 기설정된 설정값에 따라 현재의 마우스 커서의 위치가 객체의 위치인 것으로 판단하도록 하거나 혹은 현재 영상의 중심을 객체의 위치인 것으로 판단할 수 있다.The image received from the IP camera 100 is output through the output unit 280 and provided to the user. Through this output image, the user can input the location of the object by manipulating an input device such as a mouse. The location of the object input by the user is input through the user interface unit 220 (S310). If there is no location information of the object specially input from the user, the current mouse cursor location may be determined to be the location of the object or the center of the current image may be determined to be the location of the object according to a preset setting value. there is.

영역 설정부(230)는 사용자로부터 입력받은 객체의 위치를 포함하는 크롭핑 영역(D)을 설정한다(S320). 영역 설정부(230)에서 크롭핑 영역(D)은 도 3 및 도 4에서 설명한 바에 따라 설정될 수 있다.The area setting unit 230 sets a cropping area D including the location of the object input by the user (S320). The cropping area D in the area setting unit 230 may be set as described in FIGS. 3 and 4 .

영역 설정부(230)에 의해 크롭핑 영역(D)이 설정되면, 중심점 추적부(240)에서는 크롭핑 영역(D)에 대한 중심점을 추적한다(S330). 중심점 추적부(240)에서 중심점을 추적하는 방법은 도 4 및 도 5에서 설명한 바와 같다.When the cropping area D is set by the area setting unit 230, the center point tracking unit 240 tracks the center point of the cropping area D (S330). The method of tracking the center point in the center point tracking unit 240 is as described in FIGS. 4 and 5 .

중심점 추적부(240)에 의해 중심점이 결정되면, 줌 배율 결정부(250)에서는 줌 배율을 결정한다(S340). 이후, 보정부(260)에서는 줌 배율 결정부(250)에서 결정된 현재의 줌 배율과 이전 줌 배율을 서로 비교하여 이미지 확대의 성공 여부를 결정한다(S350).When the center point is determined by the center point tracker 240, the zoom magnification determiner 250 determines a zoom magnification (S340). Thereafter, the correction unit 260 compares the current zoom factor determined by the zoom factor determining unit 250 with the previous zoom factor to determine whether the image enlargement is successful (S350).

S350 단계에서, 보정부(260)는 이미지 확대가 성공한 경우 즉, 현재 줌 배율이 이전 줌 배율을 초과하는 경우에 보정부(260)에서는 이미지의 흔들림을 보정한다(S360).In step S350, the correction unit 260 corrects shaking of the image when the image enlargement is successful, that is, when the current zoom factor exceeds the previous zoom factor (S360).

이후, 크로핑을 수행하여 현재 줌 배율에 의해 이미지 프레임을 확대한다(S370). 만약, S350 단계에서, 보정부(260)는 이미지 확대가 실패한 경우, 즉, 현재 줌 배율이 이전 줌 배율 이하인 경우에는 크로핑을 수행하지 않는다.Then, by performing cropping, the image frame is enlarged by the current zoom magnification (S370). If, in step S350, the correction unit 260 fails to enlarge the image, that is, if the current zoom magnification is less than or equal to the previous zoom magnification, cropping is not performed.

최종적으로, 이미지 프레임의 확대가 완료되면, 출력부(280)에서는 사용자가 확인할 수 있는 형태로 확대된 영상을 출력한다(S380).Finally, when the enlargement of the image frame is completed, the output unit 280 outputs the enlarged image in a form that the user can check (S380).

이러한 절차에 의해, 본 발명에 따른 크롭줌을 적용한 광학 줌 획득 영상감시 방법에 의하면, 광학 줌의 한계를 크롭핑 줌을 이용하여 극복하되, 화질 저하를 불러오는 디지털 줌의 한계까지 극복할 수 있는 장점이 있다.By this procedure, according to the video surveillance method for obtaining optical zoom using crop zoom according to the present invention, the limitation of optical zoom can be overcome by using cropping zoom, but the advantage of overcoming the limitation of digital zoom that causes image quality degradation there is

본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Those skilled in the art to which the present invention pertains will understand that the present invention may be embodied in other specific forms without changing its technical spirit or essential features. Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting. The scope of the present invention is indicated by the following claims rather than the detailed description above, and all changes or modifications derived from the meaning and scope of the claims and equivalent concepts should be construed as being included in the scope of the present invention. do.

200 : 디지털 줌 구현 장치 210 : 통신부
220 : 사용자 인터페이스부 230 : 영역 설정부
240 : 중심적 추적부 250 : 줌 배율 결정부
260 : 보정부 270 : 크라핑부
280 : 출력부 290 : 저장부
295 : 제어부
200: digital zoom implementation device 210: communication unit
220: user interface unit 230: area setting unit
240: central tracking unit 250: zoom magnification determining unit
260: correction unit 270: cropping unit
280: output unit 290: storage unit
295: control unit

Claims (10)

IP 카메라(Internet Protocol Camera)와의 통신을 통해 영상을 수신하는 통신부;
상기 수신된 영상으로부터 객체의 위치를 입력받는 사용자 인터페이스부;
상기 입력받은 객체를 포함하는 크롭핑 영역을 설정하는 영역 설정부;
상기 크롭핑 영역에 대한 중심점을 추적하는 중심점 추적부;
상기 추적된 중심점을 기준으로 벡터 양자화를 통한 줌 배율을 결정하는 줌 배율 결정부;
상기 결정된 줌 배율에 의한 이미지 확대 성공 여부에 따라 흔들림 보정을 수행하는 보정부;
상기 보정된 이미지에 대한 크로핑(Cropping)을 수행하여 이미지 프레임을 확대하는 크로핑부; 및
상기 크로핑된 영상을 출력하는 출력부;를 포함하고,
상기 영역 설정부는,
상기 객체를 포함하는 객체포함영역을 설정하고, 상기 설정된 객체포함영역의 폭 방향 및 높이 방향의 최대값에 해당하는 지점을 코닉 포인트로 설정하며, 상기 코닉 포인트로부터 상기 객체포함영역의 외측으로 연장되는 유클리디안 영역을 설정하여, 유클리디안 거리를 이용하여 상기 크롭핑 영역을 설정하는 것을 특징으로 하는 크롭줌을 적용한 광학 줌 획득 영상감시장치.
A communication unit for receiving an image through communication with an IP camera (Internet Protocol Camera);
a user interface unit that receives a location of an object from the received image;
an area setting unit configured to set a cropping area including the input object;
a center point tracking unit for tracking a center point of the cropping area;
a zoom factor determiner determining a zoom factor through vector quantization based on the tracked center point;
a correction unit performing shake correction according to whether or not the image enlargement by the determined zoom magnification is successful;
a cropping unit enlarging an image frame by performing cropping on the corrected image; and
Including; an output unit for outputting the cropped image;
The area setting unit,
An object-containing region including the object is set, a point corresponding to the maximum values in the width direction and height direction of the set object-containing region is set as a conic point, and a conic point extending outside the object-containing region An optical zoom acquisition video surveillance device using crop zoom, characterized in that a Euclidean area is set and the cropping area is set using a Euclidean distance.
삭제delete 제 1 항에 있어서,
상기 영역 설정부는, 하기의 수식에 의해 유클리어 다항식에 따른 거리 비례 표면의 면적비를 산출하는 것을 특징으로 하는 크롭줌을 적용한 광학 줌 획득 영상감시장치:
Figure 112023053458835-pat00026

여기서,
Figure 112023053458835-pat00027
은 유클리어 다항식에 따른 거리 비례 표면의 면적비, i는 유클리어 이동거리 중심점으로의 이동좌표, j는 현재 벡터의 이동거리 좌표, M은 상기 코닉 포인트 중심 기약 다항식 기반의 저면적 시프트 비트병렬 비교식 모델, u는 유클리어 거리 변수, v는 현재 객체의 벡터 위치이다.
According to claim 1,
The area setting unit calculates the area ratio of the distance proportional surface according to the Euclidean polynomial by the following formula.
Figure 112023053458835-pat00026

here,
Figure 112023053458835-pat00027
is the area ratio of the distance-proportional surface according to the Euclidean polynomial, i is the movement coordinate to the center point of the Euclidean movement distance, j is the movement distance coordinate of the current vector, M is the low-area shift bit parallel comparison equation based on the conic point centered irreducible polynomial model, u is the Euclidean distance variable, v is the vector position of the current object.
제 1 항에 있어서,
상기 중심점 추적부는, 상기 크롭핑 영역을 포함하는 원을 형성하고, 상기 형성된 원과 상기 크롭핑 영역이 접촉되는 포인트를 기준점으로 정한 후, 상기 크롭핑 영역에 해당하는 각 변의 행과 열의 최대값에 의해, 상기 중심점을 추적하는 것을 특징으로 하는 크롭줌을 적용한 광학 줌 획득 영상감시장치.
According to claim 1,
The center point tracking unit forms a circle including the cropping area, sets a point at which the formed circle and the cropping area contact each other as a reference point, and determines the maximum value of each row and column of each side corresponding to the cropping area. An optical zoom acquisition video surveillance device using crop zoom, characterized in that by tracking the center point by the.
제 4 항에 있어서,
상기 중심점 추적부는, 하기의 수식에 의해 상기 중심점을 결정하는 것을 특징으로 하는 크롭줌을 적용한 광학 줌 획득 영상감시장치:
Figure 112023018961587-pat00028

여기서,
Figure 112023018961587-pat00029
는 상기 중심점의 좌표, x는 이미지 방향성 벡터의 위치값, μ는 x가 상기 중심점으로 이동될 확률 벡터, σ는 이동확률 벡터 반복문이다.
According to claim 4,
The center point tracking unit determines the center point by the following formula:
Figure 112023018961587-pat00028

here,
Figure 112023018961587-pat00029
is the coordinate of the center point, x is the position value of the image direction vector, μ is a probability vector that x will move to the center point, and σ is a movement probability vector repeat statement.
제 1 항에 있어서,
상기 보정부는, 상기 결정된 줌 배율이 이전 줌 배율 이하이면 상기 이미지 확대가 실패한 것으로 판단하고, 상기 결정된 줌 배율이 상기 이전 줌 배율을 초과하면 상기 이미지 확대가 성공한 것으로 판단하며, 상기 이미지 확대가 성공한 것으로 판단되는 경우에만 상기 흔들림 보정을 수행하는 것을 특징으로 하는 크롭줌을 적용한 광학 줌 획득 영상감시장치.
According to claim 1,
The correction unit determines that the image enlargement has failed if the determined zoom factor is less than or equal to the previous zoom factor, and determines that the image enlargement has succeeded if the determined zoom factor exceeds the previous zoom factor. An optical zoom acquisition video surveillance device using crop zoom, characterized in that the shake correction is performed only when it is determined.
제 6 항에 있어서,
상기 보정부는, 상기 이미지 확대가 성공한 것으로 판단되는 경우, 흔들림 보정을 위한 좌표를 산출하고, 상기 산출된 흔들림 보정을 위한 좌표를 이용하여 상기 흔들림 보정을 수행하는 것을 특징으로 하는 크롭줌을 적용한 광학 줌 획득 영상감시장치.
According to claim 6,
The correction unit, when it is determined that the image enlargement is successful, calculates coordinates for shake correction, and performs the shake correction using the calculated coordinates for shake correction. Acquisition Video Surveillance Device.
제 7 항에 있어서,
상기 보정부는, 하기의 수식에 의해 상기 흔들림 보정을 위한 좌표를 산출하는 것을 특징으로 하는 크롭줌을 적용한 광학 줌 획득 영상감시장치:
Figure 112023018961587-pat00030

여기서,
Figure 112023018961587-pat00031
는 상기 흔들림 보정을 위한 좌표, x는 흔들리는 이미지의 방향성 벡터, k는 차원 벡터, μ는 x가 상기 중심점으로 이동될 확률에 대한 벡터, ∑는 벡터의 반복된 공 분산 행렬,
Figure 112023018961587-pat00032
는 흔들림이 지속된 시간이다.
According to claim 7,
The correction unit calculates the coordinates for the shake correction by the following formula. An optical zoom acquisition video surveillance device using crop zoom:
Figure 112023018961587-pat00030

here,
Figure 112023018961587-pat00031
is the coordinate for the shake correction, x is the directional vector of the shake image, k is a dimension vector, μ is a vector for the probability that x is moved to the center point, ∑ is a repeated covariance matrix of vectors,
Figure 112023018961587-pat00032
is the duration of shaking.
IP 카메라와 통신 가능하게 구비되는 장치에 적용되는 크롭줌을 적용한 광학 줌 획득 영상감시 방법에 있어서,
상기 IP 카메라와의 통신을 통해 영상을 수신하는 단계;
상기 수신된 영상으로부터 객체의 위치를 입력받는 단계;
상기 입력받은 객체를 포함하는 크롭핑 영역을 설정하는 단계;
상기 크롭핑 영역에 대한 중심점을 추적하는 단계;
상기 추적된 중심점을 기준으로 벡터 양자화를 통한 줌 배율을 결정하는 단계;
상기 결정된 줌 배율에 의한 이미지 확대 성공 여부에 따라 흔들림 보정을 수행하는 단계;
상기 보정된 이미지에 대한 크로핑(Cropping)을 수행하여 이미지 프레임을 확대하는 단계: 및
상기 크로핑된 영상을 출력하는 단계;를 포함하고,
상기 크롭핑 영역을 설정하는 단계는,
상기 객체를 포함하는 객체포함영역을 설정하는 단계;
상기 설정된 객체포함영역의 폭 방향 및 높이 방향의 최대값에 해당하는 지점을 코닉 포인트로 설정하는 단계; 및
상기 코닉 포인트로부터 상기 객체포함영역의 외측으로 연장되는 유클리디안 영역을 설정하여, 유클리디안 거리를 이용하여 상기 크롭핑 영역을 설정하는 단계;를 포함하는 것을 특징으로 하는 크롭줌을 적용한 광학 줌 획득 영상감시 방법.
In the video surveillance method for obtaining an optical zoom using crop zoom applied to a device capable of communicating with an IP camera,
receiving an image through communication with the IP camera;
receiving a position of an object from the received image;
setting a cropping area including the input object;
tracing a center point for the cropping area;
determining a zoom magnification through vector quantization based on the tracked central point;
performing shake correction according to whether or not the image is successfully enlarged by the determined zoom magnification;
Enlarging an image frame by performing cropping on the corrected image: and
Including; outputting the cropped image;
In the step of setting the cropping area,
setting an object-containing region including the object;
setting a point corresponding to the maximum values in the width and height directions of the set object-containing region as a conic point; and
setting a Euclidean area extending from the conic point to the outside of the object-containing area, and setting the cropping area using the Euclidean distance; Acquisition video surveillance method.
삭제delete
KR1020230021537A 2022-12-23 2023-02-17 Optical zoom acquisition image sensing device with crop zoom, and method using the same KR102554572B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20220183095 2022-12-23
KR1020220183095 2022-12-23

Publications (2)

Publication Number Publication Date
KR102554572B1 true KR102554572B1 (en) 2023-07-12
KR102554572B9 KR102554572B9 (en) 2023-09-07

Family

ID=87163723

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230021537A KR102554572B1 (en) 2022-12-23 2023-02-17 Optical zoom acquisition image sensing device with crop zoom, and method using the same

Country Status (1)

Country Link
KR (1) KR102554572B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080022980A (en) * 2006-09-08 2008-03-12 주식회사 메디슨 Image processing system and method
JP2018164199A (en) * 2017-03-27 2018-10-18 ソニーセミコンダクタソリューションズ株式会社 Image processing device and image processing method
KR20190075689A (en) * 2017-12-21 2019-07-01 한화테크윈 주식회사 Method and apparatus for correcting optical axis of zoom lens, and computer program for executing the method
KR20200094309A (en) 2019-01-30 2020-08-07 한화테크윈 주식회사 Apparatus for capturing images with Area Zoom, and Method thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080022980A (en) * 2006-09-08 2008-03-12 주식회사 메디슨 Image processing system and method
JP2018164199A (en) * 2017-03-27 2018-10-18 ソニーセミコンダクタソリューションズ株式会社 Image processing device and image processing method
KR20190075689A (en) * 2017-12-21 2019-07-01 한화테크윈 주식회사 Method and apparatus for correcting optical axis of zoom lens, and computer program for executing the method
KR20200094309A (en) 2019-01-30 2020-08-07 한화테크윈 주식회사 Apparatus for capturing images with Area Zoom, and Method thereof

Also Published As

Publication number Publication date
KR102554572B9 (en) 2023-09-07

Similar Documents

Publication Publication Date Title
US8593533B2 (en) Image processing apparatus, image-pickup apparatus, and image processing method
CN107659774B (en) Video imaging system and video processing method based on multi-scale camera array
CN111641775B (en) Multi-shooting zoom control method, device and electronic system
US6819778B2 (en) Method and system for tracking a fast moving object
TWI535285B (en) Conference system, surveillance system, image processing device, image processing method and image processing program, etc.
US20180139374A1 (en) Smart and connected object view presentation system and apparatus
US9773192B2 (en) Fast template-based tracking
JP4534172B2 (en) Image processing apparatus, image processing method, and program
US7686454B2 (en) Image combining system, image combining method, and program
KR102141290B1 (en) Image processing apparatus, image processing method, image processing program and storage medium
JP2006262030A (en) Angle of view adjusting apparatus, camera system, and angle of view adjusting method
CN104601892A (en) Terminal and image shooting method and device
US20050052533A1 (en) Object tracking method and object tracking apparatus
JP2005252626A (en) Image pickup device and image processing method
CN111787232B (en) Image processing method, device and storage medium based on pan-tilt-zoom camera
US20190174122A1 (en) Method, system and apparatus for capture of image data for free viewpoint video
JP7204346B2 (en) Information processing device, system, information processing method and program
KR102404867B1 (en) Apparatus and method for providing wrap around view monitoring using 3D distance information
CN114943773A (en) Camera calibration method, device, equipment and storage medium
CN112514366A (en) Image processing method, image processing apparatus, and image processing system
KR102554572B1 (en) Optical zoom acquisition image sensing device with crop zoom, and method using the same
JP5225317B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
CN113518168A (en) Continuous zooming method and device, electronic equipment and storage medium
CN115278064B (en) Panoramic image generation method and device, terminal equipment and storage medium
JP2016110312A (en) Image processing method, and image processor and program

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Re-publication after modification of scope of protection [patent]