KR20180010590A - Method for image processing - Google Patents

Method for image processing Download PDF

Info

Publication number
KR20180010590A
KR20180010590A KR1020160092902A KR20160092902A KR20180010590A KR 20180010590 A KR20180010590 A KR 20180010590A KR 1020160092902 A KR1020160092902 A KR 1020160092902A KR 20160092902 A KR20160092902 A KR 20160092902A KR 20180010590 A KR20180010590 A KR 20180010590A
Authority
KR
South Korea
Prior art keywords
image
reference object
representative coordinate
coordinate
resolution
Prior art date
Application number
KR1020160092902A
Other languages
Korean (ko)
Other versions
KR102584525B1 (en
Inventor
송종섭
Original Assignee
한화테크윈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화테크윈 주식회사 filed Critical 한화테크윈 주식회사
Priority to KR1020160092902A priority Critical patent/KR102584525B1/en
Publication of KR20180010590A publication Critical patent/KR20180010590A/en
Application granted granted Critical
Publication of KR102584525B1 publication Critical patent/KR102584525B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

An embodiment of the present invention discloses an image processing method. The image processing method according to an embodiment of the present invention includes the steps of: enabling a first image acquiring device acquiring a first image of a first resolution to receive a second representative coordinate which is a representative coordinate of an event region based on a reference object in a second image of a second resolution from a second image acquiring device; and enabling the first image acquiring device acquiring the first image of the first resolution to calculate a first representative coordinate corresponding to the second representative coordinate from the coordinate of the reference object in the first image of the first resolution based on the second resolution and the second representative coordinate. Accordingly, the present invention can acquire an image for an event in various ways.

Description

영상 처리 방법{Method for image processing}[0001] The present invention relates to a method for image processing,

본 발명의 실시예들은 영상 처리 방법에 관한 것이다.Embodiments of the present invention relate to image processing methods.

오늘날 다수의 감시카메라가 도처에 설치되어 있고, 감시카메라가 획득한 영상을 녹화, 저장, 전송 하는 기술들이 개발되고 있다.Today, many surveillance cameras are installed everywhere, and technologies for recording, storing, and transmitting images acquired by surveillance cameras are being developed.

특히 감시카메라의 설치 대수가 증가할 수록 관리자가 모든 감시카메라 획득한 영상을 확인하는 것이 사실상 불가능해 지고, 이에 따라 영상에서 이벤트를 검출하여 사용자에게 알리는 등의 기술이 활발하게 개발되고 있다.In particular, as the number of installed surveillance cameras increases, it becomes virtually impossible for the administrator to check all the surveillance camera acquired images. Accordingly, technologies such as detecting events in the images and informing the users are being actively developed.

그러나 이러한 기술에 의하더라도 각각의 감시 카메라는 고정된 상태에서 영상을 획득하므로, 어떠한 이벤트 발생 시 해당 이벤트에 대한 영상을 다각적으로 획득할 수 없는 문제점이 있었다.However, even with such a technique, each surveillance camera acquires images in a fixed state, so that there is a problem in that it is not possible to acquire images for the event in a variety of ways when an event occurs.

본 발명은 상술한 문제점을 해결하기 위해 창출된 것으로써, 복수의 감시카메라 중 어떤 감시카메라가 이벤트를 감지한 경우, 하나 이상의 주변 감시카메라에 대하여 이벤트 발생 좌표를 알림으로써 이벤트에 대한 영상을 다각적으로 획득하고자 한다.The present invention has been made to solve the above-mentioned problems, and it is an object of the present invention to provide a video surveillance system and a video surveillance system, .

또한 본 발명은 복수의 감시카메라 각각의 해상도를 고려하여 이벤트 발생 위치를 알림으로써 보다 정확한 영상의 획득이 가능하도록 하고자 한다.In addition, the present invention is intended to enable more accurate image acquisition by notifying the event occurrence position in consideration of resolution of each of a plurality of surveillance cameras.

본 발명의 일 실시예에 따른 영상 처리 방법은, 제1 해상도의 제1 영상을 획득하는 제1 영상 획득 장치가, 제2 영상 획득 장치로부터 제2 해상도의 제2 영상 내에서 기준객체를 기준으로 한 이벤트 영역의 대표 좌표인 제2 대표 좌표를 수신하는 단계; 및 상기 제2 대표 좌표와 상기 제2 해상도에 기초하여, 상기 제1 해상도의 제1 영상 내에서 상기 기준객체의 좌표로부터 상기 제2 대표 좌표와 대응되는 제1 대표 좌표를 산출하는 단계;를 포함할 수 있다.The image processing method according to an embodiment of the present invention is characterized in that the first image acquiring device for acquiring the first image having the first resolution acquires the reference image from the second image acquiring device on the basis of the reference object in the second image having the second resolution Receiving a second representative coordinate which is representative coordinate of one event area; And calculating a first representative coordinate corresponding to the second representative coordinate from the coordinates of the reference object in the first image of the first resolution based on the second representative coordinate and the second resolution can do.

상기 제1 대표 좌표를 산출하는 단계는 상기 제2 영상의 종방향의 크기값과 상기 제2 대표 좌표와 상기 제2 영상 내에서의 상기 기준객체의 좌표의 종방향 성분의 차이값의 비율이, 상기 제1 영상의 상기 종방향의 크기값과 상기 제1 대표 좌표와 상기 제1 영상 내에서의 상기 기준객체의 좌표의 종방향 성분의 차이값의 비율과 대응되도록 상기 제1 대표 좌표의 상기 종방향으로의 값을 산출하는 단계; 및 상기 제2 영상의 횡방향의 크기값과 상기 제2 대표 좌표와 상기 제2 영상 내에서의 상기 기준객체의 좌표의 횡방향 성분의 차이값의 비율이, 상기 제1 영상의 상기 횡방향의 크기값과 상기 제1 대표 좌표와 상기 제1 영상 내에서의 상기 기준객체의 좌표의 횡방향 성분의 차이값의 비율과 대응되도록 상기 제1 대표 좌표의 상기 횡방향으로의 값을 산출하는 단계;를 포함할 수 있다.Wherein the step of calculating the first representative coordinate includes calculating a ratio between a magnitude in the longitudinal direction of the second image and a difference value in the longitudinal direction between the second representative coordinate and the coordinates of the reference object in the second image, Of the first representative coordinate to correspond to the ratio of the magnitude of the longitudinal direction of the first image to the difference of the longitudinal component of the coordinates of the reference object in the first image and the first representative coordinate, Calculating a value in a direction; And a ratio of a lateral magnitude value of the second image to a difference value of a lateral component of the second representative coordinate and a coordinate of the reference object in the second image, Calculating a value of the first representative coordinate in the horizontal direction so as to correspond to a ratio of a magnitude value and a difference value between the first representative coordinate and a lateral component of a coordinate of the reference object in the first image; . ≪ / RTI >

본 발명의 일 실시예에 따른 영상 처리 방법은, 상기 기준객체가 상기 제1 영상에 포함되어있지 않은 경우, 상기 제1 영상의 촬영 범위를 변경하여, 변경된 촬영 범위에 따른 제1 영상에 상기 기준객체가 포함되어있는지 여부를 확인하는 기준객체 검색 단계;를 더 포함할 수 있다.The image processing method according to an embodiment of the present invention is characterized in that when the reference object is not included in the first image, the image capturing range of the first image is changed, And a reference object searching step of checking whether or not an object is included.

상기 제1 영상 획득 장치가 PTZ(Pan, Tilt, Zoom) 영상 획득 장치인 경우, 상기 기준객체 검색 단계는 상기 제1 영상 획득 장치의 PTZ 값 중 적어도 하나를 변경하며 상기 제1 영상에 상기 기준객체가 포함되는지 여부를 확인하는 단계;를 포함할 수 있다.When the first image acquisition device is a PTZ (Pan, Tilt, Zoom) image acquisition device, the reference object searching step changes at least one of the PTZ values of the first image acquisition device, And a step of determining whether or not the information is included.

한편 상기 제1 영상 획득 장치가 NON-PTZ 영상 획득 장치인 경우, 상기 기준객체 검색 단계는 상기 제1 영상의 적어도 일부 영역을 확대하여 상기 제1 영상에 상기 기준객체가 포함되는지 여부를 확인하는 단계;를 포함할 수 있다.If the first image capturing apparatus is a NON-PTZ image capturing apparatus, the reference object retrieving step enlarges at least a part of the first image to check whether the reference object is included in the first image ; ≪ / RTI >

전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.Other aspects, features, and advantages will become apparent from the following drawings, claims, and detailed description of the invention.

본 발명의 실시예들에 따르면, 복수의 감시카메라 중 어떤 감시카메라 이벤트를 감지한 경우, 하나 이상의 주변 감시카메라에 대하여 이벤트 발생 좌표를 알림으로써 이벤트에 대한 영상을 다각적으로 획득할 수 있다.According to the embodiments of the present invention, when any surveillance camera event among a plurality of surveillance cameras is detected, the at least one surveillance camera can be notified of the event occurrence coordinates to acquire images for the event in various ways.

또한 본 발명은 복수의 감시카메라 각각의 해상도를 고려하여 이벤트 발생 위치를 알림으로써 보다 정확한 이벤트 영상의 획득이 가능하다.Further, according to the present invention, it is possible to acquire a more accurate event image by notifying the event occurrence position in consideration of the resolution of each of the plurality of surveillance cameras.

도 1 은 본 발명의 일 실시예에 따른 영상 처리 시스템을 개략적으로 도시한다.
도 2는 본 발명의 일 실시예에 따른 영상 처리 시스템의 구성 예시이다.
도 3a 및 도 3b는 제2 영상 획득 장치 및 제1 영상 획득 장치가 획득한 영상의 예시이다.
도 4 는 제어부가 제1 대표 좌표가 영상의 기 설정된 범위 내에 위치하도록 제1 영상의 촬영 범위를 변경하는 방법을 개략적으로 도시한다.
도 5는 제어부에 의해 수행되는 영상 처리 방법을 설명하기 위한 흐름도이다.
1 schematically shows an image processing system according to an embodiment of the present invention.
2 is a configuration example of an image processing system according to an embodiment of the present invention.
3A and 3B are examples of images acquired by the second image acquiring apparatus and the first image acquiring apparatus.
4 schematically shows a method of changing the shooting range of the first image so that the first representative coordinate is located within a predetermined range of the image.
5 is a flowchart illustrating an image processing method performed by the control unit.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. BRIEF DESCRIPTION OF THE DRAWINGS The present invention is capable of various modifications and various embodiments, and specific embodiments are illustrated in the drawings and described in detail in the detailed description. It is to be understood, however, that the invention is not to be limited to the specific embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

이하의 실시예에서, 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. In the following embodiments, the terms first, second, etc. may be used to describe various elements, but the elements should not be limited by terms. Terms are used only for the purpose of distinguishing one component from another.

이하의 실시예에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 이하의 실시예에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the following examples are used only to illustrate specific embodiments and are not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the following description, the terms "comprises" or "having ", and the like, specify that the presence of stated features, integers, steps, operations, elements, But do not preclude the presence or addition of other features, numbers, steps, operations, components, parts, or combinations thereof.

본 발명의 실시예들은 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 발명의 실시예들은 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 본 발명의 실시예의 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 본 발명의 실시예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립트 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 발명의 실시예들은 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. 매커니즘, 요소, 수단, 구성과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.Embodiments of the present invention may be represented by functional block configurations and various processing steps. These functional blocks may be implemented in a wide variety of hardware and / or software configurations that perform particular functions. For example, embodiments of the invention may be embodied directly in hardware, such as memory, processing, logic, look-up tables, etc., that can perform various functions by control of one or more microprocessors or by other control devices Circuit configurations can be employed. Similar to the components of an embodiment of the present invention may be implemented with software programming or software components, embodiments of the present invention include various algorithms implemented with a combination of data structures, processes, routines, or other programming constructs , C, C ++, Java, assembler, and the like. Functional aspects may be implemented with algorithms running on one or more processors. Embodiments of the present invention may also employ conventional techniques for electronic configuration, signal processing, and / or data processing. Terms such as mechanisms, elements, means, and configurations are widely used and are not limited to mechanical and physical configurations. The term may include the meaning of a series of routines of software in conjunction with a processor or the like.

도 1은 본 발명의 일 실시예에 따른 영상 처리 시스템을 개략적으로 도시한다.1 schematically shows an image processing system according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 영상 처리 시스템은 제1 해상도의 제1 영상을 획득하는 제1 영상 획득 장치(10), 제2 해상도의 제2 영상을 획득하는 제2 영상 획득 장치(20) 및 네트워크(30)를 포함할 수 있다. 이 때 제2 해상도는 제1 해상도와 상이하고, 제1 해상도보다 높거나 낮을 수 있다.1, an image processing system according to an embodiment of the present invention includes a first image acquiring device 10 for acquiring a first image having a first resolution, a second image acquiring device 10 for acquiring a second image having a second resolution, An acquisition device 20 and a network 30. [ Wherein the second resolution is different from the first resolution and may be higher or lower than the first resolution.

본 발명의 일 실시예에 따른 네트워크(30)는 예를 들어, 무선 네트워크, 유선 네트워크, 인터넷과 같은 공용 네트워크, 사설 네트워크, 모바일 통신 네트워크용 광역 시스템(global system for mobile communication network; GSM) 네트워크, 범용 패킷 무선 네트워크(general packet radio network; GPRS), 근거리 네트워크(local area network; LAN), 광역 네트워크(wide area network; WAN), 거대도시 네트워크(metropolitan area network; MAN), 셀룰러 네트워크, 공중 전화 교환 네트워크(public switched telephone network; PSTN), 개인 네트워크(personal area network), 블루투스, Wi-Fi 다이렉트(Wi-Fi Direct), 근거리장 통신(Near Field communication), 초 광 대역(Ultra Wide band), 이들의 조합, 또는 임의의 다른 네트워크일 수 있지만 이들로 한정되는 것은 아니다.The network 30 in accordance with an embodiment of the present invention may be, for example, a wireless network, a wired network, a public network such as the Internet, a private network, a global system for mobile communication network (GSM) (GPRS), a local area network (LAN), a wide area network (WAN), a metropolitan area network (MAN), a cellular network, a public switched telephone network A PSTN, a personal area network, a Bluetooth, a Wi-Fi Direct, a Near Field communication, an Ultra Wide band, , Or any other network, but is not limited thereto.

본 발명의 일 실시예에 따른 제2 영상 획득 장치(20)는 제2 해상도의 제2 영상을 획득할 수 있다. 또한 제2 영상 획득 장치(20)는 제2 영상 내에서 기준객체의 위치를 파악할 수 있다. 이 때 기준객체 위치는 이벤트 발생 영역의 위치를 나타내기 위한 기준점의 역할을 할 수 있으며, 기준객체는 사용자에 의해 설정될 수 있다. 예컨대, 기준객체는 사용자가 기준으로 삼기 위해 영상 획득 대상 공간상에 임의로 배치해 놓은 소정의 패치(Patch)일 수 있다. 이러한 경우 제2 영상 획득 장치(20)는 영상 내에서 해당 패치에 대한 패턴이 어디에 위치하는지 파악함으로써 기준객체의 위치를 파악할 수 있다. 한편 기준객체는 영상 획득 대상 공간에 이미 존재하는 어떤 객체 중 하나일 수 있다. 가령 기준객체는 손잡이, 비상구 표시 등 일 수 있으며 이러한 경우 제2 영상 획득 장치(20)는 영상 내에서 손잡이 또는 비상구 표시가 어디에 위치하는지 파악함으로써 기준객체의 위치를 파악할 수 있다. 파악된 기준객체의 위치는 제2 영상 획득 장치(20)가 후술하는 이벤트 발생 영역의 대표 좌표를 산출할 때 기준점으로 사용될 수 있다. 다만 이는 예시적인 것으로 본 발명의 사상이 이에 한정되는 것은 아니다.The second image acquiring apparatus 20 according to an embodiment of the present invention may acquire a second image having a second resolution. Also, the second image acquisition device 20 can grasp the position of the reference object in the second image. In this case, the reference object position can serve as a reference point for indicating the location of the event occurrence area, and the reference object can be set by the user. For example, the reference object may be a predetermined patch (patch) arbitrarily arranged on the image acquisition object space so as to be a reference by the user. In this case, the second image acquisition device 20 can grasp the position of the reference object by knowing where the pattern for the patch is located in the image. On the other hand, the reference object may be one of any objects already existing in the image acquisition object space. For example, the reference object may be a handle, an emergency exit display, or the like. In this case, the second image acquisition device 20 can grasp the position of the reference object by knowing where the handle or the exit sign is located in the image. The position of the detected reference object can be used as a reference point when the second image capturing apparatus 20 calculates representative coordinates of an event occurrence area described later. However, the present invention is not limited thereto.

제2 영상 획득 장치(20)는 제2 영상 내에서 이벤트 영역을 검출하고, 해당 이벤트 영역의 대표 좌표를 산출할 수 있다. 이 때 이벤트는 본 발명의 일 실시예에 따른 영상 처리 시스템의 사용 목적, 설치 장소 및 용도에 따라 사용자에 의해 다양하게 설정될 수 있다. 예컨대, 본 발명에 따른 영상 처리 시스템이 사람의 출입이 엄격하게 통제되어야 하는 보안시설에 설치되는 경우, 이벤트는 '사람 형상의 검출'이 될 수 있고, 이에 따라 이벤트 영역은 '사람의 형상 영역'이 될 수 있다. 또한 본 발명에 따른 영상 처리 시스템이 화재발생의 우려가 높은 곳에 설치되는 경우, 이벤트는 '화재 발생'이 될 수 있고, 이에 따라 이벤트 영역은 '밝기가 임계 밝기 이상인 영역'이 될 수 있다. The second image acquiring device 20 can detect the event area in the second image and calculate representative coordinates of the corresponding event area. At this time, the event can be variously set by the user depending on the use purpose, the installation place and the use of the image processing system according to the embodiment of the present invention. For example, when the image processing system according to the present invention is installed in a security facility where human access is strictly controlled, the event can be 'detection of a human figure', and accordingly, . Also, when the image processing system according to the present invention is installed at a place where there is a high possibility of fire occurrence, the event may be a 'fire occurrence', and accordingly, the event area may be a region whose brightness is more than a critical brightness.

한편 제2 영상 획득 장치(20)는 다양한 방법에 따라 이벤트 영역 내의 어느 하나의 좌표를 대표 좌표로 산출할 수 있다. 가령 제2 영상 획득 장치(20)는 이벤트 영역의 중심을 이벤트 영역의 대표 좌표로 산출할 수 있다. 다만 이는 예시적인 것으로 본 발명의 사상이 이에 한정되는 것은 아니며, 해당 이벤트의 발생 좌표를 대표할 수 있는 좌표이면 대표 좌표로 제한 없이 사용될 수 있다.Meanwhile, the second image acquiring device 20 may calculate any one of the coordinates in the event area as representative coordinates according to various methods. For example, the second image acquisition device 20 can calculate the center of the event area as representative coordinates of the event area. However, the present invention is not limited thereto, and the coordinates may be used as representative coordinates as long as they are representative coordinates of occurrence of the event.

제2 영상 획득 장치(20)는 기준객체를 기준으로 한 이벤트 영역의 대표 좌표인 제2 대표 좌표를 산출하고, 이를 제1 영상 획득 장치(10)로 전송할 수 있다. 예컨대, 제2 영상 획득 장치(20)는 기준객체의 좌표를 좌표 (0, 0)으로 설정하고 이를 기준으로 한 제2 대표 좌표(X2, Y2)를 산출하여 제1 영상 획득 장치(10)로 전송할 수 있다. 제2 영상 획득 장치(20)는 전술한 제2 대표 좌표 외에, 기준객체의 정보 및 제2 영상의 해상도 정보를 제1 영상 획득 장치(20)에 전송할 수 도 있다. 제2 영상 획득 장치(20)는 고정된 위치에서 영상을 촬영하는 고정식 카메라 또는 PTZ 기능을 갖는 카메라일 수 있다. The second image acquiring device 20 may calculate a second representative coordinate which is a representative coordinate of the event area based on the reference object, and may transmit the second representative coordinate to the first image acquiring device 10. For example, the second image acquiring device 20 sets the coordinates of the reference object to the coordinates (0, 0), calculates the second representative coordinates (X2, Y2) based on the coordinates, Lt; / RTI > The second image acquiring device 20 may transmit the information of the reference object and the resolution information of the second image to the first image acquiring device 20 in addition to the second representative coordinates. The second image acquiring device 20 may be a fixed camera for capturing an image at a fixed position or a camera having a PTZ function.

본 발명의 일 실시예에 따른 제1 영상 획득 장치(10)는 제어부(100), 메모리(200) 및 광학부(300)를 포함할 수 있다. 광학부(300)는 빛(Light)을 전기적 신호로 변환하기 위한 렌즈 및 이미지 센서를 포함할 수 있다. 렌즈는 1매 이상의 렌즈로 구성되는 렌즈군일 수 있다. 이미지 센서는 렌즈에 의하여 입력된 영상을 전기적 신호로 변환할 수 있다. 예컨대 이미지 센서는 CCD(Charge-Coupled Device) 또는 CMOS (Complementary Metal Oxide Semiconductor)와 같이 광학 신호를 전기적 신호(본 발명에서 영상으로 설명함)로 변환할 수 있는 반도체 소자일 수 있다. The first image acquisition device 10 according to an embodiment of the present invention may include a control unit 100, a memory 200, and an optical unit 300. The optical unit 300 may include a lens and an image sensor for converting light into an electrical signal. The lens may be a lens group composed of one or more lenses. The image sensor can convert the image input by the lens into an electrical signal. For example, the image sensor may be a semiconductor device capable of converting an optical signal into an electrical signal (described as an image in the present invention) such as a charge-coupled device (CCD) or a complementary metal oxide semiconductor (CMOS).

제어부(100)는 프로세서(processor)와 같이 데이터를 처리할 수 있는 모든 종류의 장치를 포함할 수 있다. 여기서, '프로세서(processor)'는, 예를 들어 프로그램 내에 포함된 코드 또는 명령으로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다. 이와 같이 하드웨어에 내장된 데이터 처리 장치의 일 예로써, 마이크로프로세서(microprocessor), 중앙처리장치(central processing unit: CPU), 프로세서 코어(processor core), 멀티프로세서(multiprocessor), ASIC(application-specific integrated circuit), FPGA(field programmable gate array) 등의 처리 장치를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다. The control unit 100 may include any kind of device capable of processing data, such as a processor. Herein, the term " processor " may refer to a data processing apparatus embedded in hardware, for example, having a circuit physically structured to perform a function represented by a code or an instruction contained in the program. As an example of the data processing apparatus built in hardware, a microprocessor, a central processing unit (CPU), a processor core, a multiprocessor, an application-specific integrated circuit (ASIC) circuit, and a field programmable gate array (FPGA), but the scope of the present invention is not limited thereto.

메모리(200)는 제어부(100)가 처리하는 데이터, 명령어(instructions), 프로그램, 프로그램 코드, 또는 이들의 결합 등을 일시적 또는 영구적으로 저장하는 기능을 수행한다. 메모리(200)는 자기 저장 매체(magnetic storage media) 또는 플래시 저장 매체(flash storage media)를 포함할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다. The memory 200 performs a function of temporarily or permanently storing data, instructions, a program, a program code, a combination thereof, or the like processed by the control unit 100. The memory 200 may include magnetic storage media or flash storage media, but the scope of the present invention is not limited thereto.

도면에는 도시되지 않았으나, 본 발명의 일 실시예에 따른 제1 영상 획득 장치(10)는 통신부를 포함할 수 있다. 통신부는 다른 네트워크 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치일 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.Although not shown in the figure, the first image acquisition device 10 according to an embodiment of the present invention may include a communication unit. The communication unit may be a device including hardware and software necessary to transmit / receive a control signal or a data signal through a wired / wireless connection with another network device, but the scope of the present invention is not limited thereto.

또한 제1 영상 획득 장치(10)가 PTZ(Pan, Tilt, Zoom) 영상 획득 장치인 경우, 제1 영상 획득 장치(10)는 팬, 틸트, 줌의 구동을 위한 구동부도 더 포함할 수 있다. 구동부는 제1 영상 획득 장치(10)를 하나 이상의 방향으로 회전하거나 화각을 변경하기 위한 하드웨어 및 소프트웨어를 포함하는 장치일 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.When the first image capturing apparatus 10 is a PTZ (Pan, Tilt, Zoom) image capturing apparatus, the first image capturing apparatus 10 may further include a driving unit for driving pan, tilt, and zoom. The driving unit may be an apparatus including hardware and software for rotating the first image capturing apparatus 10 in one or more directions or changing the angle of view, but the scope of the present invention is not limited thereto.

한편 설명의 편의를 위하여 제1 영상 획득 장치(10)와 제2 영상 획득 장치(20)를 구분하여 설명한 것으로, 두 개의 영상 획득 장치(10)는 동일한 구성일 수도 있고 상이한 구성일 수 도 있다. 또한 제어부(100)는 전술한 바와 같이 제1 영상 획득 장치(10)에 포함되어 구성될 수도 있고, 제1 영상 획득 장치(10)와 별도로 구성되어 제1 영상 획득 장치(10)를 제어할 수도 있다.For convenience of explanation, the first image acquiring device 10 and the second image acquiring device 20 are separately described, and the two image acquiring devices 10 may have the same configuration or different configurations. The controller 100 may be included in the first image capturing apparatus 10 or may be configured separately from the first image capturing apparatus 10 to control the first image capturing apparatus 10 have.

이하에서는 제1 영상 획득 장치(10)의 제어부(100)가 수행하는 동작을 중심으로 본 발명에 대해 상세하게 설명한다.Hereinafter, the present invention will be described in detail with reference to the operations performed by the control unit 100 of the first image acquiring apparatus 10.

일 실시예에 따른 제어부(100)는 제2 영상 획득 장치(20)로부터 제2 해상도의 제2 영상 내에서 기준객체를 기준으로 한 이벤트 영역의 대표 좌표인 제2 대표 좌표를 수신할 수 있다.The controller 100 may receive a second representative coordinate, which is a representative coordinate of the event region, based on the reference object in the second image having the second resolution, from the second image capturing apparatus 20 according to an exemplary embodiment.

전술한 바와 같이 제2 영상 획득 장치(20)는 기준객체를 기준으로 한 이벤트 영역의 대표 좌표인 제2 대표 좌표를 산출하고, 이를 제1 영상 획득 장치(10)로 전송할 수 있으므로, 제어부(100)는 제2 영상 획득 장치(20)로부터 제2 대표 좌표를 수신할 수 있다. 한편, 제어부(100)는 제2 대표 좌표 외에도, 제2 영상 획득 장치(20)가 설정한 기준객체의 좌표, 기준객체의 정보 및 제2 영상의 해상도를 제2 영상 획득 장치(20)로부터 수신할 수 있다.As described above, the second image acquiring device 20 can calculate the second representative coordinate, which is the representative coordinate of the event area based on the reference object, and can transmit the second representative coordinate to the first image acquiring device 10, May receive the second representative coordinate from the second image acquisition device 20. [ In addition to the second representative coordinates, the control unit 100 receives the coordinates of the reference object set by the second image capturing apparatus 20, the information of the reference object, and the resolution of the second image from the second image capturing apparatus 20 can do.

도 2는 본 발명의 일 실시예에 따른 영상 처리 시스템의 구성 예시이고, 도 3a 및 도 3b는 도 2의 구성 예시에 따라 제2 영상 획득 장치(20) 및 제1 영상 획득 장치(10)가 획득한 영상의 예시이다.FIG. 2 illustrates an example of the configuration of an image processing system according to an embodiment of the present invention. FIGS. 3A and 3B illustrate a configuration of the second image acquisition apparatus 20 and the first image acquisition apparatus 10 It is an example of acquired image.

먼저 도 2를 참조하여, 제1 영상 획득 장치(10) 및 제2 영상 획득 장치(20)가 각각 제1 영상 및 제2 영상을 획득하고, 제1 영상 획득 장치(10)의 촬영범위(431)와 제2 영상 획득 장치(20)의 촬영범위(432)에 기준객체(410) 및 이벤트 영역(420)이 모두 포함된다고 가정한다. 또한 제2 영상 획득 장치(20)만이 이벤트를 감지하였고, 제1 영상 획득 장치(20)는 이벤트를 감지하지 못하였으며, 제1 영상 획득 장치(10)가 획득하는 제1 영상의 해상도는 7 X 5 이고, 제2 영상 획득 장치(20)가 획득하는 제2 영상의 해상도는 14 X 10 이라고 가정한다.2, the first image acquiring device 10 and the second image acquiring device 20 acquire the first image and the second image, respectively, and the shooting range 431 of the first image acquiring device 10 And the reference object 410 and the event area 420 are all included in the shooting range 432 of the second image acquiring device 20. Also, only the second image acquiring device 20 senses the event, the first image acquiring device 20 does not sense the event, and the resolution of the first image acquired by the first image acquiring device 10 is 7 X 5, and the resolution of the second image acquired by the second image acquiring device 20 is 14 X 10.

이러한 경우 제2 영상 획득 장치(20)는 전술한 바와 같이 기준객체를 기준으로 한 이벤트 영역의 대표 좌표인 제2 대표 좌표를 산출하고, 이를 제1 영상 획득 장치(10)로 전송할 수 있다. 바꾸어 말하면 제어부(100)는 제2 영상 획득 장치(20)로부터 제2 대표 좌표를 수신할 수 있다.In this case, the second image acquiring device 20 may calculate the second representative coordinate, which is the representative coordinate of the event area based on the reference object, and transmit the second representative coordinate to the first image acquiring device 10 as described above. In other words, the control unit 100 can receive the second representative coordinate from the second image acquiring device 20. [

도 3a는 도 2의 제2 영상 획득 장치(20)가 획득한 제2 영상(510)의 예시이다.FIG. 3A is an illustration of a second image 510 obtained by the second image acquisition device 20 of FIG.

도 3a를 참조하면, 전술한 가정에 따라 제2 영상(510)은 기준객체(410)와 이벤트 영역(420)을 포함한다. 이 때 제2 영상 획득 장치(20)는 기준객체(410)를 기준으로 하여 이벤트 영역(420)의 중심좌표를 제2 대표 좌표(421)로 산출할 수 있다. 기준객체(410)의 좌표는 기준객체(410)의 중심 좌표일 수 있다. 기준객체(410)의 좌표는 (X, Y)=(0, 0)일 수 있다. 그러나, 본 발명의 기준객체(410)의 좌표는 이에 한정되지 않고, 제2 영상(510)의 중점 또는 임의의 일 위치로부터의 좌표일 수 있다. 도 3a에서는 기준객체(410)의 좌표를 (0, 0)이라고 가정한 예이고, 제2 영상 획득 장치(20)는 제2 대표 좌표를 (8, 4)로 산출할 수 있다.Referring to FIG. 3A, the second image 510 includes a reference object 410 and an event area 420 according to the above-described assumption. At this time, the second image capturing apparatus 20 can calculate the center coordinates of the event area 420 as the second representative coordinates 421 based on the reference object 410. The coordinates of the reference object 410 may be the center coordinates of the reference object 410. The coordinates of the reference object 410 may be (X, Y) = (0, 0). However, the coordinates of the reference object 410 of the present invention are not limited thereto, but may be the coordinates from the center point or any arbitrary position of the second image 510. In FIG. 3A, the coordinates of the reference object 410 are assumed to be (0, 0), and the second image acquiring apparatus 20 can calculate the second representative coordinates as (8, 4).

일 실시예에 따른 제어부(100)는 제2 영상 획득 장치(20)로부터 수신한 제2 대표 좌표와 제2 해상도에 기초하여, 제1 영상 내에서 기준객체의 좌표로부터 제2 대표 좌표와 대응되는 제1 대표 좌표를 산출할 수 있다. 바꾸어 말하면 제어부(100)는 제1 영상과 제2 영상의 해상도 차이를 고려하여 제1 영상 내에서 이벤트 발생 영역의 대표 좌표를 산출할 수 있다. 이 때 이벤트는 제2 영상 획득 장치(20)가 감지한 이벤트 일 수 있다.The control unit 100 according to an exemplary embodiment of the present invention determines the coordinates of the second representative coordinate from the coordinates of the reference object in the first image based on the second representative coordinate and the second resolution received from the second image capturing apparatus 20 The first representative coordinate can be calculated. In other words, the controller 100 may calculate the representative coordinates of the event occurrence area in the first image, considering the resolution difference between the first image and the second image. In this case, the event may be an event detected by the second image acquiring device 20. [

보다 상세히, 제어부(100)는 제2 영상의 종방향(X방향)의 크기값과 제2 대표 좌표와 제2 영상 내에서의 기준객체의 좌표의 종방향 성분의 차이값의 비율이, 제1 영상의 종방향의 크기값과 제1 대표 좌표와 제1 영상 내에서의 기준객체의 좌표의 종방향 성분의 차이값의 비율과 대응되도록 제1 대표 좌표의 종방향으로의 값을 산출할 수 있다. More specifically, the control unit 100 determines whether the ratio of the magnitude value in the longitudinal direction (X direction) of the second image to the difference value between the second representative coordinate and the longitudinal component of the coordinates of the reference object in the second image, The value in the longitudinal direction of the first representative coordinate system can be calculated so that the ratio between the magnitude in the longitudinal direction of the image and the difference between the first representative coordinate system and the longitudinal component in the coordinates of the reference object in the first image .

또한 제어부(100)는 이와 유사하게 제2 영상의 횡방향(Y방향)의 크기값과 제2 대표 좌표와 제2 영상 내에서의 기준객체의 좌표의 횡방향 성분의 차이값의 비율이, 제1 영상의 횡방향의 크기값과 제1 대표 좌표와 제1 영상 내에서의 기준객체의 좌표의 횡방향 성분의 차이값의 비율과 대응되도록 제1 대표 좌표의 횡방향으로의 값을 산출할 수 있다.Similarly, when the ratio of the size value of the second image in the horizontal direction (Y direction) and the difference value of the horizontal component of the coordinates of the reference object in the second image to the second representative coordinate is smaller than the ratio The value in the lateral direction of the first representative coordinate can be calculated so that the ratio between the magnitude in the horizontal direction of the image and the difference between the first representative coordinate and the lateral component of the coordinates of the reference object in the first image have.

이로써 제어부(100)는 두 영상의 해상도 차이를 고려하여 제1 영상 내에서 이벤트 발생 영역의 대표 좌표를 산출할 수 있다. In this way, the controller 100 can calculate the representative coordinates of the event occurrence area in the first image, taking into consideration the resolution difference between the two images.

한편 전술한 예시에서는 제1 해상도가 제2 해상도 보다 큰 것을 가정하여 설명하였지만, 본 발명의 사상이 이에 제한되는 것은 아니며, 제1 해상도가 제2 해상도 보다 작은 경우는 물론, 제1 해상도와 제2 해상도가 동일한 경우에도 본 발명이 적용될 수 있다.However, the present invention is not limited to the first resolution. The first resolution may be smaller than the second resolution, and the second resolution may be different from the second resolution. In this case, The present invention can be applied even when the resolution is the same.

도 3b는 도 2의 설치 예시에 따라 제1 영상 획득 장치(10)가 획득한 영상(520)의 예시이다.FIG. 3B is an illustration of an image 520 obtained by the first image acquiring device 10 according to the installation example of FIG.

전술한 가정에 따라 제1 영상은 기준객체(410)와 이벤트 영역(420)을 포함하고, 제1 영상 획득 장치(20)는 이벤트를 감지하지 못하였다고 가정한다. 또한 제2 영상 획득 장치(20)로부터 제2 대표 좌표로 (8, 4)를 수신하였다고 가정한다.According to the above-described assumption, it is assumed that the first image includes the reference object 410 and the event area 420, and the first image acquiring device 20 does not detect the event. It is also assumed that the second representative coordinate (8, 4) is received from the second image acquiring device 20.

이러한 경우 제어부(100)는 다음과 같이 제1 대표 좌표(422)를 산출할 수 있다. 먼저 제어부(100)는 제2 영상의 종방향의 크기값인 '14'와 제2 대표 좌표와 제2 영상 내에서의 기준객체의 좌표의 종방향 성분의 차이값인 '8'의 비율이, 제1 영상의 종방향의 크기값인 '7'과 제1 대표 좌표와 제1 영상 내에서의 기준객체의 좌표의 종방향 성분의 차이값의 비율과 대응되도록 제1 대표 좌표의 종방향으로의 값인 X1을 '4'로 산출할 수 있다.In this case, the control unit 100 may calculate the first representative coordinate 422 as follows. First, the controller 100 determines whether the ratio of '14', which is the longitudinal size of the second image, and '8', which is the difference between the second representative coordinate and the longitudinal component of the coordinates of the reference object in the second image, In the longitudinal direction of the first representative coordinate so as to correspond to the ratio of the magnitude value of the longitudinal direction of the first image to the ratio of the first representative coordinate and the longitudinal component of the coordinates of the reference object in the first image The value X1 can be calculated as " 4 ".

이와 유사하게 제어부(100)는 제2 영상의 횡방향의 크기값인 '10'과 제2 대표 좌표와 제2 영상 내에서의 기준객체의 좌표의 횡방향 성분의 차이값인 '4'의 비율이, 제1 영상의 횡방향의 크기값인 '5'와 제1 대표 좌표와 제1 영상 내에서의 기준객체의 좌표의 횡방향 성분의 차이값의 비율과 대응되도록 제1 대표 좌표의 횡방향으로의 값인 Y1을 '2'로 산출할 수 있다.Similarly, the controller 100 calculates a ratio of a horizontal dimension value of the second image to 10, a second representative coordinate value and a horizontal component value of the horizontal direction component of the reference object in the second image, Of the first representative coordinate is set so as to correspond to the ratio of the magnitude value of the horizontal direction of the first image to the difference value of the horizontal component of the first representative coordinate and the coordinate of the reference object in the first image, Can be calculated as " 2 ".

전술한 과정에 의해 제어부(100)는 제1 대표 좌표(422)를 (X1,Y1)=(4, 2)로 산출할 수 있다.The controller 100 can calculate the first representative coordinate 422 by (X1, Y1) = (4, 2).

이와 같이 본 발명에 따른 영상 처리 시스템은 복수의 영상 획득 장치 중 어느 하나의 영상 획득 장치가 이벤트를 감지한 경우, 나머지 영상 획득 장치에도 이벤트 감지 사실을 알려 다각도의 영상을 획득할 수 있을 뿐만 아니라, 각 영상 획득 장치의 영상 획득 해상도 까지 고려하여 이벤트 발생 위치를 정확하게 파악하도록 하여 보다 정확한 이벤트 영상을 획득하도록 할 수 있다.As described above, in the image processing system according to the present invention, when any one of the plurality of image capturing apparatuses detects an event, the remaining image capturing apparatuses can be notified of the event detection and acquire a multi- It is possible to accurately acquire the event image by accurately grasping the event occurrence position in consideration of the image acquisition resolution of each image acquisition apparatus.

일 실시예에 따른 제어부(100)는 기준객체(410)가 제1 영상에 포함되어있지 않은 경우, 제1 영상의 촬영 범위를 변경하여, 변경된 촬영 범위에 따른 제1 영상에 기준객체(410)가 포함되어있는지 여부를 확인할 수 있다.If the reference object 410 is not included in the first image, the controller 100 changes the shooting range of the first image and displays the reference object 410 on the first image according to the changed shooting range. Is included.

전술한 도 2 내지 도 3b의 실시예들은 제1 영상 획득 장치(10)가 획득한 제1 영상과 제2 영상 획득 장치(20)가 획득한 제2 영상 모두에 기준객체(410)가 포함되어 있는 경우에 해당하여 제어부(100)가 기준객체(410)를 검색하는 별도의 과정이 수반되지 않았다. 그러나 이와 달리 제1 영상 획득 장치(10)가 획득한 제1 영상에 기준객체(410)가 포함되어 있지 않은 경우, 제어부(100)는 제1 대표 좌표 산출의 기준점이 존재하지 않으므로 제1 대표 좌표의 산출이 불가능할 수 있다.The embodiments of FIGS. 2 to 3B described above include the reference object 410 in both the first image acquired by the first image acquiring apparatus 10 and the second image acquired by the second image acquiring apparatus 20 There is no separate process for the control unit 100 to search for the reference object 410. FIG. However, when the first object acquired by the first image acquiring apparatus 10 does not include the reference object 410, the control unit 100 does not have the first representative coordinate calculation reference point, Can not be calculated.

이러한 경우 제어부(100)는 제1 영상 획득 장치(10)가 획득하는 제1 영상의 촬영 범위를 변경하여, 변경된 촬영 범위에 따른 제1 영상에 기준객체(410)가 포함되어있는지 여부를 확인할 수 있다.In this case, the control unit 100 may change the shooting range of the first image acquired by the first image acquiring device 10 to check whether or not the reference object 410 is included in the first image according to the changed shooting range have.

보다 구체적으로, 제1 영상 획득 장치(10)가 PTZ(Pan, Tilt, Zoom) 영상 획득 장치인 경우, 제어부(100)는 제1 영상 획득 장치(10)의 패닝, 틸팅 및 주밍 중 적어도 하나를 제어하여 제1 영상 획득 장치(10)의 촬영 방향 및 촬영 범위를 변경하면서 촬영된 제1 영상에 기준객체가 포함되는지 여부를 확인할 수 있다. 제어부(100)는 제1 영상 획득 장치(10)의 자세를 변경하면서 제1 영상 내에 기준객체가 검출되는지 여부를 판단하고, 제1 영상에 기준객체가 검출된 경우, 검출된 기준객체를 기준으로 전술한 바와 같이 제1 대표 좌표를 산출할 수 있다.More specifically, when the first image capturing apparatus 10 is a PTZ (Pan, Tilt, Zoom) image capturing apparatus, the controller 100 controls at least one of panning, tilting, and zooming of the first image capturing apparatus 10 It is possible to check whether the reference object is included in the photographed first image while changing the photographing direction and the photographing range of the first image acquiring apparatus 10. [ The control unit 100 determines whether or not a reference object is detected in the first image while changing the orientation of the first image capturing apparatus 10, and when the reference object is detected in the first image, The first representative coordinates can be calculated as described above.

한편 제1 영상 획득 장치(10)가 NON-PTZ 영상 획득 장치인 경우, 제어부(100)는 제1 영상의 적어도 일부 영역을 확대하여 제1 영상에 기준객체가 포함되어있는지 여부를 확인할 수 있다. 이 때 '일부 영역을 확대'하는 것은 Digital Auto Tracking과 같이 어떤 영상의 일 부분을 잘라서 확대(Crop)하여 기준객체의 포함 여부를 확인하는 것을 의미할 수 있다. 이로써 본 발명은 제1 영상의 각 부분을 부분별로 검토하여 객체의 포함 여부를 한번 더 확인할 수 있도록 한다.If the first image acquiring device 10 is a NON-PTZ image acquiring device, the controller 100 enlarges at least a part of the first image to check whether the first image includes a reference object. In this case, 'enlarging a part of the area' may mean that a part of an image is cut and enlarged (eg, Digital Auto Tracking) to check whether the reference object is included. In this way, the present invention allows each part of the first image to be examined partly to check once again whether or not the object is included.

일 실시예에 따른 제어부(100)는 제1 대표 좌표가 제1 영상에서 기 설정된 범위 내에 위치하도록 제1 영상의 촬영 범위를 변경할 수 있다.The controller 100 according to the embodiment may change the shooting range of the first image so that the first representative coordinate is located within a predetermined range in the first image.

도 4는 제어부(100)가 제1 대표 좌표가 영상의 기 설정된 범위 내에 위치하도록 제1 영상의 촬영 범위를 변경하는 방법을 개략적으로 도시한다.4 schematically shows a method of changing the photographing range of the first image so that the controller 100 is positioned within a predetermined range of the first representative coordinate.

가령 도 3b에서와 같이 이벤트 영역(420a)이 영상(530)의 우측에 위치하고, 제1 영상 획득 장치(10)가 PTZ(Pan, Tilt, Zoom) 영상 획득 장치인 것으로 가정해 보자. 이러한 경우 제어부(100)는 PTZ 값을 변경하여 제1 영상의 촬영 범위를 변경함으로써 이벤트 영역(420b)이 기 설정된 범위(531)내, 예를 들어 중앙부에 위치하도록 할 수 있다. 이 때 기 설정된 범위(530)는 사용자에 의해 설정될 수 있으며, 도면에 도시된 것처럼 영상(530)의 중앙에 위치할 수도 있고 이와 달리 영상(530)의 일 측면에 위치할 수도 있다.Assume that the event area 420a is located on the right side of the image 530 and the first image acquisition device 10 is a PTZ (Pan, Tilt, Zoom) image acquisition device as shown in FIG. 3b. In this case, the control unit 100 may change the PTZ value to change the shooting range of the first image so that the event area 420b is positioned within the predetermined range 531, for example, at the center. The predetermined range 530 may be set by the user and may be located at the center of the image 530 or alternatively at one side of the image 530 as shown in the figure.

이로써 본 발명은 이벤트 영역(420b)이 어느 방향으로 이동하여도 이벤트에 대한 보다 완전한 영상을 획득할 수 있다.Thus, the present invention can obtain a more complete image of the event no matter which direction the event area 420b moves.

도 5는 제어부(100)에 의해 수행되는 영상 처리 방법을 설명하기 위한 흐름도이다. 이하에서는 도 1 내지 도 4에서 설명한 내용과 중복하는 내용의 상세한 설명은 생략한다.5 is a flowchart for explaining an image processing method performed by the control unit 100. Referring to FIG. Hereinafter, detailed description of the contents overlapping with those described in Figs. 1 to 4 will be omitted.

일 실시예에 따른 제어부(100)는 제2 영상 획득 장치(20)로부터 제2 해상도의 제2 영상 내에서 기준객체를 기준으로 한 이벤트 영역의 대표 좌표인 제2 대표 좌표를 수신할 수 있다.(S51)The controller 100 may receive a second representative coordinate, which is a representative coordinate of the event region, based on the reference object in the second image having the second resolution, from the second image capturing apparatus 20 according to an exemplary embodiment. (S51)

일 실시예에 따른 제어부(100)는 기준객체가 제1 영상에 포함되어 있는지 여부를 판단하고(S52), 기준객체가 제1 영상에 포함되어 있지 않은 경우 제1 영상의 촬영 범위를 변경 하여, 변경된 촬영 범위에 따른 제1 영상에 기준객체가 포함되어있는지 여부를 확인할 수 있다.(S53)The controller 100 determines whether the reference object is included in the first image (S52). If the reference object is not included in the first image, the control unit 100 changes the shooting range of the first image, It is possible to confirm whether or not the reference object is included in the first image according to the changed shooting range (S53)

단계 S52에서 기준객체가 제1 영상에 포함되어 있다고 판단되었거나, 단계 S53에서 제1 영상에 기준객체가 포함되도록 촬영범위를 변경한 경우, 일 실시예에 따른 제어부(100)는 제2 영상 획득 장치(20)로부터 수신한 제2 대표 좌표와 제2 해상도에 기초하여, 제1 영상 내에서 기준객체의 좌표로부터 제2 대표 좌표와 대응되는 제1 대표 좌표를 산출 할 수 있다.(S54)If it is determined in step S52 that the reference object is included in the first image or if the shooting range is changed to include the reference object in the first image in step S53, The first representative coordinate corresponding to the second representative coordinate can be calculated from the coordinates of the reference object in the first image based on the second representative coordinate and the second resolution received from the second representative coordinate system.

보다 상세히, 제어부(100)는 제2 영상의 종방향의 크기값과 제2 대표 좌표와 제2 영상 내에서의 기준객체의 좌표의 종방향 성분의 차이값의 비율이, 제1 영상의 종방향의 크기값과 제1 대표 좌표와 제1 영상 내에서의 기준객체의 좌표의 종방향 성분의 차이값의 비율과 대응되도록 제1 대표 좌표의 종방향으로의 값을 산출할 수 있다. More specifically, the controller 100 determines whether the ratio of the magnitude in the vertical direction of the second image to the difference in magnitude in the vertical direction between the second representative coordinate and the coordinates of the reference object in the second image is greater than the vertical direction of the first image The value in the longitudinal direction of the first representative coordinate can be calculated so as to correspond to the ratio of the magnitude value of the first representative coordinate and the longitudinal component of the coordinates of the reference object in the first image.

또한 제어부(100)는 이와 유사하게 제2 영상의 횡방향의 크기값과 제2 대표 좌표와 제2 영상 내에서의 기준객체의 좌표의 횡방향 성분의 차이값의 비율이, 제1 영상의 횡방향의 크기값과 제1 대표 좌표와 제1 영상 내에서의 기준객체의 좌표의 횡방향 성분의 차이값의 비율과 대응되도록 제1 대표 좌표의 횡방향으로의 값을 산출할 수 있다.Similarly, the control unit 100 determines whether the ratio of the magnitude of the lateral direction of the second image and the difference between the second representative coordinate and the lateral component of the coordinates of the reference object in the second image is larger than the lateral magnitude of the first image A value in the horizontal direction of the first representative coordinate may be calculated so as to correspond to the ratio of the magnitude value of the direction and the first representative coordinate and the lateral component of the coordinates of the reference object in the first image.

일 실시예에 따른 제어부(100)는 제1 대표 좌표가 제1 영상에서 기 설정된 범위 내에 위치하도록 제1 영상의 촬영 범위를 변경할 수 있다.(S55) 이 때 기 설정된 범위는 사용자에 의해 설정될 수 있다. The control unit 100 according to the embodiment may change the shooting range of the first image so that the first representative coordinate is within a predetermined range in step S55. At this time, the preset range is set by the user .

본 발명의 실시예에 따른 영상 처리 방법은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.The image processing method according to the embodiment of the present invention can be implemented as a computer-readable code on a computer-readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. Examples of the computer-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like. In addition, the computer-readable recording medium may be distributed over network-connected computer systems so that computer readable codes can be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the present invention can be easily inferred by programmers of the technical field to which the present invention belongs.

본 발명은 첨부된 도면에 도시된 일 실시예를 참고로 설명되었으나, 이는 예시적인 것에 불과하며, 당해 기술분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 수 있을 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is clearly understood that the same is by way of illustration and example only and is not to be taken by way of limitation, You will understand.

10: 제1 영상 획득 장치
100: 제어부
200: 메모리
300: 광학부
20: 제2 영상 획득 장치
30: 네트워크
410: 기준객체
420: 이벤트 영역
431: 제1 영상 획득 장치의 촬영범위
432: 제2 영상 획득 장치의 촬영범위
10: First image acquisition device
100:
200: memory
300: optical part
20: Second image acquisition device
30: Network
410: reference object
420: Event area
431: photographing range of the first image acquiring device
432: photographing range of the second image acquiring device

Claims (5)

제1 해상도의 제1 영상을 획득하는 제1 영상 획득 장치가, 제2 영상 획득 장치로부터 제2 해상도의 제2 영상 내에서 기준객체를 기준으로 한 이벤트 영역의 대표 좌표인 제2 대표 좌표를 수신하는 단계; 및
상기 제2 대표 좌표와 상기 제2 해상도에 기초하여, 상기 제1 해상도의 제1 영상 내에서 상기 기준객체의 좌표로부터 상기 제2 대표 좌표와 대응되는 제1 대표 좌표를 산출하는 단계;를 포함하는, 영상 처리 방법.
The first image acquiring device for acquiring the first image of the first resolution receives the second representative coordinate which is the representative coordinate of the event area based on the reference object in the second image of the second resolution from the second image acquiring device ; And
And calculating a first representative coordinate corresponding to the second representative coordinate from the coordinates of the reference object in the first image of the first resolution based on the second representative coordinate and the second resolution , Image processing method.
제1 항에 있어서
상기 제1 대표 좌표를 산출하는 단계는
상기 제2 영상의 종방향의 크기값과 상기 제2 대표 좌표와 상기 제2 영상 내에서의 상기 기준객체의 좌표의 종방향 성분의 차이값의 비율이, 상기 제1 영상의 상기 종방향의 크기값과 상기 제1 대표 좌표와 상기 제1 영상 내에서의 상기 기준객체의 좌표의 종방향 성분의 차이값의 비율과 대응되도록 상기 제1 대표 좌표의 상기 종방향으로의 값을 산출하는 단계; 및
상기 제2 영상의 횡방향의 크기값과 상기 제2 대표 좌표와 상기 제2 영상 내에서의 상기 기준객체의 좌표의 횡방향 성분의 차이값의 비율이, 상기 제1 영상의 상기 횡방향의 크기값과 상기 제1 대표 좌표와 상기 제1 영상 내에서의 상기 기준객체의 좌표의 횡방향 성분의 차이값의 비율과 대응되도록 상기 제1 대표 좌표의 상기 횡방향으로의 값을 산출하는 단계;를 포함하는 영상 처리 방법.
The method of claim 1, wherein
The step of calculating the first representative coordinate
Wherein the ratio of the magnitude in the longitudinal direction of the second image to the difference in magnitude in the longitudinal direction between the second representative coordinate and the coordinate of the reference object in the second image is greater than the magnitude of the longitudinal direction of the first image Calculating a value of the first representative coordinate in the vertical direction so as to correspond to a ratio of the first representative coordinate to a difference value of the longitudinal component of the coordinates of the reference object in the first image; And
Wherein a ratio between a magnitude in the horizontal direction of the second image and a difference value in the horizontal direction component between the second representative coordinate and the coordinate of the reference object in the second image is smaller than the magnitude in the horizontal direction of the first image Calculating a value of the first representative coordinate in the lateral direction so as to correspond to a ratio of the first representative coordinate to a difference value of the lateral component of the coordinates of the reference object in the first image; An image processing method comprising:
제1 항에 있어서
상기 기준객체가 상기 제1 영상에 포함되어있지 않은 경우,
상기 제1 영상의 촬영 범위를 변경하여, 변경된 촬영 범위에 따른 제1 영상에 상기 기준객체가 포함되어있는지 여부를 확인하는 기준객체 검색 단계;를 더 포함하는, 영상 처리 방법.
The method of claim 1, wherein
If the reference object is not included in the first image,
Further comprising: a reference object searching step of changing a shooting range of the first image to determine whether the reference object is included in the first image according to the changed shooting range.
제3 항에 있어서
상기 제1 영상 획득 장치가 PTZ(Pan, Tilt, Zoom) 영상 획득 장치인 경우,
상기 기준객체 검색 단계는
상기 제1 영상 획득 장치의 PTZ 값 중 적어도 하나를 변경하며 상기 제1 영상에 상기 기준객체가 포함되는지 여부를 확인하는 단계;를 포함하는, 영상 처리 방법.
The method of claim 3, wherein
If the first image acquisition device is a PTZ (Pan, Tilt, Zoom) image acquisition device,
The reference object searching step
Changing at least one of the PTZ values of the first image acquiring device and checking whether the reference object is included in the first image.
제3 항에 있어서
상기 제1 영상 획득 장치가 NON-PTZ 영상 획득 장치인 경우,
상기 기준객체 검색 단계는
상기 제1 영상의 적어도 일부 영역을 확대하여 상기 제1 영상에 상기 기준객체가 포함되는지 여부를 확인하는 단계;를 포함하는, 영상 처리 방법.
The method of claim 3, wherein
If the first image acquisition device is a NON-PTZ image acquisition device,
The reference object searching step
And enlarging at least a part of the first image to check whether the reference object is included in the first image.
KR1020160092902A 2016-07-21 2016-07-21 Method for image processing KR102584525B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160092902A KR102584525B1 (en) 2016-07-21 2016-07-21 Method for image processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160092902A KR102584525B1 (en) 2016-07-21 2016-07-21 Method for image processing

Publications (2)

Publication Number Publication Date
KR20180010590A true KR20180010590A (en) 2018-01-31
KR102584525B1 KR102584525B1 (en) 2023-10-04

Family

ID=61083005

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160092902A KR102584525B1 (en) 2016-07-21 2016-07-21 Method for image processing

Country Status (1)

Country Link
KR (1) KR102584525B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114339209A (en) * 2021-12-29 2022-04-12 苏州浪潮智能科技有限公司 Method for measuring and calculating image inclination value, image acquisition system, image acquisition device and medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100135103A (en) * 2009-06-16 2010-12-24 (주)캠톤 Security system using a different kind camera and security method thereof
KR20150083350A (en) * 2014-01-09 2015-07-17 (주) 넥스트칩 Method and apparatus for changing angle of view of lens

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100135103A (en) * 2009-06-16 2010-12-24 (주)캠톤 Security system using a different kind camera and security method thereof
KR20150083350A (en) * 2014-01-09 2015-07-17 (주) 넥스트칩 Method and apparatus for changing angle of view of lens

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114339209A (en) * 2021-12-29 2022-04-12 苏州浪潮智能科技有限公司 Method for measuring and calculating image inclination value, image acquisition system, image acquisition device and medium
CN114339209B (en) * 2021-12-29 2023-11-14 苏州浪潮智能科技有限公司 Method for measuring and calculating image inclination value, image acquisition system, device and medium

Also Published As

Publication number Publication date
KR102584525B1 (en) 2023-10-04

Similar Documents

Publication Publication Date Title
KR101825045B1 (en) Alarm method and device
JP6532217B2 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING SYSTEM
US20120020524A1 (en) Tracked object determination device, tracked object determination method and tracked object determination program
US11089228B2 (en) Information processing apparatus, control method of information processing apparatus, storage medium, and imaging system
CN110072078B (en) Monitoring camera, control method of monitoring camera, and storage medium
CN110278408B (en) Image processing apparatus, image processing method, and storage medium
JP2012253723A (en) Image display device and image display method
CN107493407B (en) Photographing device and photographing method
US20150116471A1 (en) Method, apparatus and storage medium for passerby detection
US10200607B2 (en) Image capturing apparatus, method of controlling the same, monitoring camera system, and storage medium
US9031355B2 (en) Method of system for image stabilization through image processing, and zoom camera including image stabilization function
JP5911227B2 (en) Determination apparatus, determination method, and program
US20150381886A1 (en) Camera Controlling Apparatus For Controlling Camera Operation
JP4198536B2 (en) Object photographing apparatus, object photographing method and object photographing program
JP2004015516A (en) Automatic tracking photographing method and automatic tracking photographing device for motion picture
JP2009147607A (en) Person tracking device
KR20180010590A (en) Method for image processing
JP2007068008A (en) Automatic tracking apparatus
JP2012119971A (en) Monitoring video display unit
CN113518174A (en) Shooting method, device and system
JP5132705B2 (en) Image processing device
KR100761817B1 (en) A ccd camera system for effectively tracking a motion of objects and a method thereof
CN102469247A (en) Photographic device and dynamic focusing method thereof
KR20190056650A (en) Method for controlling PTZ camera using values obtained by analyzing images obtained from a fixed camera
KR101915199B1 (en) Apparatus and method of searching image based on imaging area of the PTZ camera

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant