KR20150019230A - Method and apparatus for tracking object using multiple camera - Google Patents

Method and apparatus for tracking object using multiple camera Download PDF

Info

Publication number
KR20150019230A
KR20150019230A KR20130095820A KR20130095820A KR20150019230A KR 20150019230 A KR20150019230 A KR 20150019230A KR 20130095820 A KR20130095820 A KR 20130095820A KR 20130095820 A KR20130095820 A KR 20130095820A KR 20150019230 A KR20150019230 A KR 20150019230A
Authority
KR
South Korea
Prior art keywords
camera
object tracking
tracking message
information
movement
Prior art date
Application number
KR20130095820A
Other languages
Korean (ko)
Inventor
오창남
Original Assignee
주식회사 에스원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에스원 filed Critical 주식회사 에스원
Priority to KR20130095820A priority Critical patent/KR20150019230A/en
Publication of KR20150019230A publication Critical patent/KR20150019230A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6815Motion detection by distinguishing pan or tilt from motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

A method and apparatus for tracking an object using multiple cameras are disclosed. The method for tracking an object using multiple cameras comprises the steps of: determining whether an object moves by using a first camera; generating an object tracking message based on the movement of the object; transmitting the object tracking message generated by the first camera to a second camera; and controlling the operation of the second camera based on the object tracking message, wherein the object tracking message may include the identifier information of the first camera and information related to the movement of the object. Therefore, the movement of an object may be effectively tracked by using the cameras.

Description

복수의 카메라를 이용한 객체 추적 방법 및 장치{METHOD AND APPARATUS FOR TRACKING OBJECT USING MULTIPLE CAMERA}TECHNICAL FIELD The present invention relates to an object tracking method and apparatus using a plurality of cameras,

본 발명은 영상 처리 방법에 관한 것으로서, 보다 상세하게는 영상에서 객체를 추적하는 방법 및 장치에 관한 것이다.The present invention relates to an image processing method, and more particularly, to a method and apparatus for tracking an object in an image.

객체를 인식하고 추적하는 기술은 영상 합성, 모션캡처, 보안 감시 시스템, Human Computer Interaction(HCI)등의 많은 분야에서 널리 적용된다. 특히 최근 실생활에서의 보안, 감시에 대한 요구사항이 늘어남에 따라 비디오 감시 시스템에서의 객체 인식 및 추적 기술은 날로 그 중요성이 증가하고 있다.Object recognition and tracking techniques are widely applied in many fields such as image synthesis, motion capture, security surveillance, and Human Computer Interaction (HCI). Especially, as the requirements for security and surveillance in real life have been increasing recently, object recognition and tracking technology in video surveillance system has become increasingly important.

최근까지 객체 인식 및 추적을 위한 많은 알고리즘들이 개발되어 왔다. 객체 인식 및 추적을 위한 많은 알고리즘으로 예를 들어, 적응적 배경 생성과 배경 차분 기법, 영역 기반의 객체 추적 기법, 그리고 형태 정보 기반 객체 추출 기법 등이 있다. 하지만 기존의 영상 처리 시스템의 이동 물체 검출 기법은 아직 안정성에 있어서 문제점이 존재한다. 또한, 검출하는 과정에 따른 파워소모와 정확성, 처리 속도에 있어서도 역시 문제점들이 존재한다. Until recently, many algorithms for object recognition and tracking have been developed. Many algorithms for object recognition and tracking include, for example, adaptive background generation and background difference techniques, area based object tracking, and shape information based object extraction techniques. However, there is still a problem in the stability of the moving object detection technique of the existing image processing system. There are also problems with power consumption, accuracy, and processing speed according to the detection process.

영상에서 물체 인식이란 입력된 영상에서 목표 물체의 위치를 찾아내는 일련의 과정을 말한다. 영상에서 물체 인식을 수행함에 있어 같은 물체라고 하더라도 개개의 영상 안에서는 물체의 크기, 방향, 위치, 포즈 등이 다르게 나타날 수 있다. 또한 한 영상 내에 여러 개의 물체가 포함되어 있거나, 목표 물체가 다른 물체에 의해 가리워져 그 일부분만 볼 수 있는 경우도 발생할 수 있다. 이러한 모든 조건하에서도 강인하게 동작하는 물체 인식 방법은 쉽지 않은 문제이다. 그 동안 영상에서 물체 인식 기법에 대한 많은 연구가 진행되어 왔고 현재에도 여러 가지 접근방식이 활발하게 모색되고 있다.In object recognition, object recognition is a series of processes for locating a target object on an input image. In performing the object recognition in the image, the size, direction, position, pose, and the like of the object may appear differently in the individual images even if they are the same object. Also, there may be cases where a plurality of objects are contained in one image, or a target object is covered by another object and only a part of the object is visible. A robust object recognition method under all these conditions is a difficult problem. In the meantime, many researches on object recognition technique have been carried out in image, and various approaches are actively sought now.

이러한 영상에서 물체를 인식하는 기술은 다양한 기술 분야에서 활용될 수 있다. 예를 들어, 영상에서 물체를 인식하는 기술은 군사 시설, 공항, 주차장, 지하철, 고속도로, 할인점, 주유소, 건설 현장, 유치원, 병원 교통 시스템, ATM 및 편의점 등 다양한 곳에서 보안을 위해 사용할 수 있다. 현재 이러한 영상 보안 시장은 지속적으로 증가하고 있다. 또한, 영상을 편집하는 기술에서도 영상에서 물체를 인식하는 기술이 사용될 수 있다. 이러한 다양한 분야에서 사용되기 위해 영상에서 물체를 인식하기 위한 정확도를 높이기 위한 기술이 필요하다.The technique of recognizing objects in such images can be utilized in various technical fields. For example, the technology of recognizing objects in images can be used for security in various places such as military facilities, airports, parking lots, subways, highways, discount stores, gas stations, construction sites, kindergartens, hospital transportation systems, ATMs and convenience stores. Currently, the market for video security is steadily increasing. Also, a technique of recognizing an object in an image may be used in a technique of editing an image. In order to be used in these various fields, there is a need for a technique for increasing the accuracy for recognizing an object in an image.

본 발명의 제1 목적은 복수의 카메라를 이용한 객체 추적 방법을 제공하는 것이다.A first object of the present invention is to provide an object tracking method using a plurality of cameras.

본 발명의 제2 목적은 복수의 카메라를 이용한 객체 추적 방법을 수행하는 장치를 제공하는 것이다.A second object of the present invention is to provide an apparatus for performing an object tracking method using a plurality of cameras.

상술한 본 발명의 제1 목적을 달성하기 위한 본 발명의 일 측면에 따른 복수의 카메라에 기반한 객체 추적 방법은 제1 카메라에서 객체의 이동 여부를 판단하는 단계, 상기 객체의 이동에 기반하여 객체 추적 메시지를 생성하는 단계, 상기 제1 카메라에서 생성된 상기 객체 추적 메시지를 제2 카메라로 전송하는 단계와 상기 제2 카메라에서 상기 객체 추적 메시지를 기반으로 상기 제2 카메라의 동작을 제어하는 단계를 포함할 수 있되, 상기 객체 추적 메시지는 상기 제1 카메라의 식별자 정보, 상기 객체의 움직임에 관련된 정보를 포함하는 메시지일 수 있다. 상기 제2 카메라에서 상기 객체 추적 메시지를 기반으로 상기 제2 카메라의 동작을 제어하는 단계는 상기 객체의 움직임에 관련된 정보를 기반으로 상기 제2 카메라의 팬(Pan), 틸트(Tilt) 또는 줌(Zoom) 정보를 설정하는 단계와 상기 팬, 상기 틸트 또는 상기 줌 정보에 기반하여 상기 제2 카메라를 구동하는 단계를 포함할 수 있다. 상기 객체 추적 방법은 상기 객체의 이동 및 상기 제1 카메라에 저장된 다른 카메라의 위치 정보에 기반하여 상기 객체 추적 메시지를 전송할 카메라를 결정하는 단계를 더 포함할 수 있다. 상기 객체의 이동에 기반하여 객체 추적 메시지를 생성하는 단계는 상기 객체가 객체 추적 메시지 전송 범위로 이동하였는지 여부를 판단하는 단계와 상기 객체가 상기 객체 추적 메시지 전송 범위로 이동한 경우, 상기 객체 추적 메시지를 생성하는 단계를 포함할 수 있되, 상기 객체 추적 메시지 전송 범위는 상기 객체 추적 메시지를 전송할지 여부를 결정하기 위한 상기 제1 카메라의 촬상 범위 중 일부일 수 있다. 상기 객체의 이동에 기반하여 객체 추적 메시지를 생성하는 단계는 상기 객체가 제1 객체 추적 메시지 전송 범위 또는 제2 객체 추적 메시지 전송범위 중 어떠한 객체 추적 메시지 전송 범위로 이동하였는지 여부를 판단하는 단계와 상기 제1 객체 추적 메시지 전송 범위 또는 상기 제2 객체 추적 메시지 전송 범위 중 상기 객체가 이동한 범위를 기반으로 상기 객체 추적 메시지를 전송할 카메라를 결정하는 단계와 상기 결정된 카메라의 식별자 정보를 포함하는 객체 추적 메시지를 생성하는 단계를 포함할 수 있되, 상기 제2 카메라는 상기 객체 추적 메시지를 전송할 카메라를 결정된 카메라일 수 있다. 상기 제1 카메라에서 생성된 상기 객체 추적 메시지를 제2 카메라로 전송하는 단계는 상기 제1 카메라가 상기 객체 추적 메시지를 상기 제2 카메라로 멀티캐스트하는 단계를 포함할 수 있고, 상기 제2 카메라는 상기 영상 처리 서버에서 멀티캐스트된 상기 객체 추적 메시지를 수신하도록 설정된 멀티캐스트 그룹에 포함되는 카메라일 수 있다. 상기 영상 처리 서버는 상기 제1 카메라에서 전송한 영상 정보 및 객체 추적 메시지 및 상기 제2 카메라에서 전송한 영상 정보 및 객체 추적 메시지를 기반으로 상기 객체의 이동에 관련된 정보를 생성하는 서버일 수 있다.According to one aspect of the present invention, there is provided a method for tracking an object based on a plurality of cameras, the method comprising: determining whether an object is moved in a first camera; Transmitting the object tracking message generated by the first camera to a second camera, and controlling an operation of the second camera based on the object tracking message in the second camera The object tracking message may be a message including identifier information of the first camera and information related to motion of the object. The step of controlling the operation of the second camera based on the object tracking message in the second camera may include a step of controlling the operation of the second camera based on the information related to the movement of the object such as a pan, Zoom) information, and driving the second camera based on the pan, the tilt, or the zoom information. The object tracking method may further include determining a camera to which the object tracking message is to be transmitted, based on movement of the object and position information of another camera stored in the first camera. Wherein the step of generating an object tracking message based on the movement of the object comprises the steps of: determining whether the object has moved to an object tracking message transmission range; and if the object has moved to the object tracking message transmission range, The object tracking message transmission range may be a part of the imaging range of the first camera for determining whether to transmit the object tracking message. Wherein the step of generating the object tracking message based on the movement of the object includes the steps of determining whether the object has moved to the object tracking message transmission range of the first object tracking message transmission range or the second object tracking message transmission range, Determining a camera to which the object tracking message is to be transmitted based on a range of the first object tracking message transmission range or the second object tracking message transmission range; And the second camera may be a camera for transmitting the object tracking message to the determined camera. The transmitting of the object tracking message generated by the first camera to the second camera may include multicasting the object tracking message to the second camera by the first camera, And a camera included in the multicast group configured to receive the object tracking message multicasted by the image processing server. The image processing server may be a server for generating information related to the movement of the object based on the image information and the object tracking message transmitted from the first camera, the image information transmitted from the second camera, and the object tracking message.

상술한 본 발명의 제2 목적을 달성하기 위한 본 발명의 일 측면에 따른 객체 추적을 수행하는 카메라에 있어서, 상기 카메라는 프로세서를 포함하고, 상기 프로세서는 제1 카메라에서 객체의 이동 여부를 판단하고, 상기 객체의 이동에 기반하여 객체 추적 메시지를 생성하고, 상기 제1 카메라에서 생성된 상기 객체 추적 메시지를 제2 카메라로 전송하고 상기 제2 카메라에서 상기 객체 추적 메시지를 기반으로 상기 제2 카메라의 동작을 제어하도록 구현될 수 있되, 상기 객체 추적 메시지는 상기 제1 카메라의 식별자 정보, 상기 객체의 움직임에 관련된 정보를 포함하는 메시지일 수 있다. 상기 프로세서는 상기 객체의 움직임에 관련된 정보를 기반으로 상기 제2 카메라의 팬(Pan), 틸트(Tilt) 또는 줌(Zoom) 정보를 설정하고 상기 팬, 상기 틸트 또는 상기 줌 정보에 기반하여 상기 제2 카메라를 구동하도록 구현될 수 있다. 상기 프로세서는 상기 객체의 이동 및 상기 제1 카메라에 저장된 다른 카메라의 위치 정보에 기반하여 상기 객체 추적 메시지를 전송할 카메라를 결정하도록 구현될 수 있다. 상기 프로세서는 상기 객체가 객체 추적 메시지 전송 범위로 이동하였는지 여부를 판단하고, 상기 객체가 상기 객체 추적 메시지 전송 범위로 이동한 경우, 상기 객체 추적 메시지를 생성하도록 구현될 수 있되, 상기 객체 추적 메시지 전송 범위는 상기 객체 추적 메시지를 전송할지 여부를 결정하기 위한 상기 제1 카메라의 촬상 범위 중 일부일 수 있다. 상기 프로세서는 상기 객체가 제1 객체 추적 메시지 전송 범위 또는 제2 객체 추적 메시지 전송범위 중 어떠한 객체 추적 메시지 전송 범위로 이동하였는지 여부를 판단하고, 상기 제1 객체 추적 메시지 전송 범위 또는 상기 제2 객체 추적 메시지 전송 범위 중 상기 객체가 이동한 범위를 기반으로 상기 객체 추적 메시지를 전송할 카메라를 결정하고, 상기 결정된 카메라의 식별자 정보를 포함하는 객체 추적 메시지를 생성하도록 구현될 수 있되, 상기 제2 카메라는 상기 객체 추적 메시지를 전송할 카메라를 결정된 카메라일 수 있다. 상기 프로세서는 상기 제1 카메라가 상기 객체 추적 메시지를 상기 제2 카메라로 멀티캐스트하도록 구현될 수 있되, 상기 제2 카메라는 상기 영상 처리 서버에서 멀티캐스트된 상기 객체 추적 메시지를 수신하도록 설정된 멀티캐스트 그룹에 포함되는 카메라일 수 있다. 상기 영상 처리 서버는 상기 제1 카메라에서 전송한 영상 정보 및 객체 추적 메시지 및 상기 제2 카메라에서 전송한 영상 정보 및 객체 추적 메시지를 기반으로 상기 객체의 이동에 관련된 정보를 생성하는 서버일 수 있다.In order to achieve the second object of the present invention, there is provided a camera for tracking an object according to an aspect of the present invention, the camera including a processor, Generating an object tracking message based on the movement of the object, transmitting the object tracking message generated by the first camera to the second camera, and transmitting the object tracking message to the second camera based on the object tracking message, The object tracking message may be a message including identifier information of the first camera and information related to movement of the object. Wherein the processor sets pan, tilt, or zoom information of the second camera based on information related to movement of the object, and based on the pan, the tilt, or the zoom information, 2 < / RTI > camera. The processor may be configured to determine a camera to which to transmit the object tracking message based on movement of the object and location information of another camera stored in the first camera. The processor may be configured to determine whether the object has moved to an object tracking message transmission range and to generate the object tracking message when the object has moved to the object tracking message transmission range, The range may be part of the imaging range of the first camera for determining whether to transmit the object tracking message. Wherein the processor determines whether the object has moved to an object tracking message transmission range of the first object tracking message transmission range or the second object tracking message transmission range and transmits the first object tracking message transmission range or the second object tracking message transmission range Determining a camera to which the object tracking message is to be transmitted based on a range of movement of the object in the message transmission range and generating an object tracking message including the determined identifier of the camera, The camera to which the object tracking message is to be sent may be a determined camera. The processor may be configured such that the first camera multicasts the object tracking message to the second camera, wherein the second camera comprises a multicast group configured to receive the object tracking message multicasted at the image processing server, As shown in FIG. The image processing server may be a server for generating information related to the movement of the object based on the image information and the object tracking message transmitted from the first camera, the image information transmitted from the second camera, and the object tracking message.

상술한 바와 같이 본 발명의 실시예에 따른 복수의 카메라를 이용한 객체 추적 방법 및 장치는 객체의 이동에 따른 정보를 복수의 카메라 및/또는 영상 처리 서버 사이에서 메시지를 송신 및 수신하는 방법을 통해 공유함으로써 정확하게 객체에 대한 추적을 수행할 수 있다. 따라서, 복수의 카메라를 이용하여 효과적으로 객체의 이동을 추적할 수 있다.As described above, the object tracking method and apparatus using a plurality of cameras according to an embodiment of the present invention can share information on movement of an object through a method of transmitting and receiving messages between a plurality of cameras and / or image processing servers Thereby enabling accurate tracking of the object. Therefore, the movement of the object can be effectively tracked by using a plurality of cameras.

도 1은 본 발명의 실시예에 따른 분산형 카메라에서 객체를 추적하는 방법을 나타낸 개념도이다.
도 2는 본 발명의 실시예에 따른 객체의 위치 추적을 수행하는 카메라를 나타낸 개념도이다.
도 3은 본 발명의 실시예에 따른 카메라가 분산형으로 배치된 경우 객체를 추적하는 방법을 나타낸 개념도이다.
도 4는 본 발명의 실시예에 따른 객체 추적 방법을 나타낸 흐름도이다.
도 5는 본 발명의 실시예에 따른 영상 처리 서버를 기반으로 객체 추적을 수행하는 방법을 나타낸 개념도이다.
도 6은 본 발명의 실시예에 따른 객체의 이동에 따른 카메라의 제어 방법을 나타낸 개념도이다.
1 is a conceptual diagram illustrating a method of tracking an object in a distributed camera according to an exemplary embodiment of the present invention.
FIG. 2 is a conceptual diagram illustrating a camera that performs location tracking of an object according to an embodiment of the present invention.
3 is a conceptual diagram illustrating a method of tracking an object when a camera according to an embodiment of the present invention is disposed in a distributed manner.
4 is a flowchart illustrating an object tracking method according to an embodiment of the present invention.
5 is a conceptual diagram illustrating a method for performing object tracking based on an image processing server according to an embodiment of the present invention.
6 is a conceptual diagram illustrating a method of controlling a camera according to movement of an object according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail. It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention. Like reference numerals are used for like elements in describing each drawing.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. And / or < / RTI > includes any combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어"있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다거나 "직접 접속되어"있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the terms "comprises" or "having" and the like are used to specify that there is a feature, a number, a step, an operation, an element, a component or a combination thereof described in the specification, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 이하, 도면상의 동일한 구성 요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성 요소에 대해서 중복된 설명은 생략한다.
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. Hereinafter, the same reference numerals will be used for the same constituent elements in the drawings, and redundant explanations for the same constituent elements will be omitted.

도 1은 본 발명의 실시예에 따른 분산형 카메라에서 객체를 추적하는 방법을 나타낸 개념도이다.1 is a conceptual diagram illustrating a method of tracking an object in a distributed camera according to an exemplary embodiment of the present invention.

도 1에서는 복수의 카메라가 설치된 일정한 공간에서 객체의 움직임이 발생된 경우, 복수의 카메라가 객체의 움직임 정보를 공유하고 공유된 움직임 정보를 기반으로 카메라의 동작을 제어하는 방법을 나타낸다.1 shows a method in which a plurality of cameras share motion information of an object and control the operation of the camera based on shared motion information when motion of an object occurs in a predetermined space in which a plurality of cameras are installed.

도 1을 참조하면, 제2 카메라(100)가 우선적으로 객체의 움직임을 감지한 것을 가정하여 설명한다. 제2 카메라(100)가 객체의 움직임을 감지한 경우, 제2 카메라(100)는 객체의 움직임 및/또는 카메라의 위치 정보를 포함한 메시지를 생성하여 다른 카메라 및/또는 영상 정보 수신 서버로 전송할 수 있다. 이하에서는 객체의 움직임 및 카메라의 위치 정보와 같은 객체를 추적하기 위한 정보를 포함하는 메시지를 객체 추적 메시지라는 용어로 정의하여 사용한다.Referring to FIG. 1, it is assumed that the second camera 100 senses the movement of an object first. When the second camera 100 detects the movement of the object, the second camera 100 may generate a message including the movement of the object and / or the location information of the camera and transmit the message to another camera and / have. Hereinafter, a message including information for tracking an object such as an object motion and a camera position information is defined and used as an object tracking message.

객체 추적 메시지에는 객체의 이동 방향에 대한 정보, 카메라 자신의 위치에 관련된 정보, 카메라의 식별자 정보, 객체를 촬상한 방향에 관련된 정보 및 기타 부가 정보 중 적어도 하나의 정보를 포함할 수 있다.The object tracking message may include at least one of information on the moving direction of the object, information on the position of the camera itself, identifier information on the camera, information on the direction in which the object is picked up, and other additional information.

제2 카메라(100)는 객체 추적 메시지를 상호 간에 네트워크가 형성되어 상호 데이터를 송신 및 수신할 수 있는 다른 카메라(예를 들어,제1 카메라(110), 제3 카메라(130)) 및 영상 처리 서버(150)로 전송할 수 있다. 이하, 네트워크가 형성된 다른 카메라(예를 들어,제1 카메라(110), 제3 카메라(130)) 및 영상 처리 서버(150)와 같이 객체 추적 메시지를 수신하는 장치를 객체 추적 메시지 수신 장치라는 용어로 정의하여 사용하고 객체 추적 메시지를 송신하는 카메라를 객체 추적 메시지 송신 장치라는 용어로 정의하여 사용한다. 영상 처리 서버(150)는 복수의 카메라로부터 송신된 영상 정보를 처리하고, 복수의 카메라의 동작을 제어하는 서버일 수 있다.The second camera 100 may transmit object tracking messages to other cameras (for example, the first camera 110 and the third camera 130), which are mutually connected to each other and can transmit and receive data, To the server (150). Hereinafter, a device receiving an object tracking message, such as another camera (e.g., first camera 110, third camera 130) and an image processing server 150 having a network, And the object tracking message transmission apparatus is defined as the object tracking message transmission apparatus. The image processing server 150 may be a server that processes image information transmitted from a plurality of cameras and controls the operation of a plurality of cameras.

객체 추적 메시지는 멀티캐스트를 기반으로 객체 추적 메시지 수신 장치로 전송할 수 있다. 객체 추적 메시지 수신 장치는 객체 추적 메시지를 수신한 경우, 수신 완료 메시지를 객체 추적 메시지 송신 장치로 전송할 수 있다. 또 다른 예시로, 객체 추적 메시지 수신 장치는 메시지를 수신한 경우, 수신 완료 메시지를 따로 전송하지 않을 수도 있다. 이러한 경우, 객체 추적 메시지 송신 장치는 객체 추적 메시지를 중복적으로 객체 추적 메시지 수신 장치로 송신할 수 있다.The object tracking message can be transmitted to the object tracking message receiving device based on multicast. When receiving the object tracking message, the object tracking message receiving apparatus can transmit the receiving complete message to the object tracking message transmitting apparatus. In another example, the object tracking message receiving apparatus may not transmit the reception complete message separately when receiving the message. In this case, the object tracking message transmitting apparatus can repeatedly transmit the object tracking message to the object tracking message receiving apparatus.

객체 추적 메시지를 수신한 객체 추적 메시지 수신 장치(예를 들어, 카메라)는 객체 추적 메시지를 수신하고 이를 기반으로 카메라의 동작을 제어할 수 있다. 즉, 객체 추적 메시지 수신 장치인 카메라의 경우, 객체의 위치 정보를 기반으로 객체가 촬영 범위(예를 들어, PTZ(pan/tilt/zoom)) 내에 해당하는지 또는 객체가 촬영 범위 내로 접근하는지 여부를 확인할 수 있다.The object tracking message receiving device (for example, a camera) receiving the object tracking message can receive the object tracking message and control the operation of the camera based on the object tracking message. That is, in the case of a camera that is an object tracking message receiving device, it is determined whether the object is within the shooting range (for example, PTZ (pan / tilt / zoom)) based on the position information of the object or whether the object is within the shooting range Can be confirmed.

본 발명의 실시예에 따르면, 객체 추적 메시지를 송신 및 수신하기 위한 카메라로 다양한 카메라가 사용될 수 있다. 이하,본 발명의 실시예에서는 설명의 편의상 객체 추적 메시지를 생성하고 송신 및 수신하는 카메라를 PTZ(pan/tilt/zoom) 카메라로 가정하여 설명한다.
According to an embodiment of the present invention, various cameras can be used as a camera for transmitting and receiving object tracking messages. Hereinafter, an embodiment of the present invention will be described on the assumption that a camera for generating and transmitting and receiving an object tracking message is a PTZ (pan / tilt / zoom) camera for convenience of explanation.

도 2는 본 발명의 실시예에 따른 객체 추적 메시지를 송신 및 수신하는 카메라를 나타낸 개념도이다. 2 is a conceptual diagram illustrating a camera for transmitting and receiving an object tracking message according to an embodiment of the present invention.

도 2를 참조하면, PTZ(Pan/Tilt/Zoom) 카메라는 통상의 고정식 CCD(charge coupled device) 또는 CMOS(complementary metal-oxide semiconductor) 카메라에 모터를 이용해 팬(Pan:수평 방향), 틸트(Tilt:수직 방향), 줌(Zoom:광학적 줌 배율) 조정이 가능하도록 일체화된 카메라이다. 일반 고정식 CCTV(closed circuit television) 카메라에 비해 상대적으로 가격이 고가지만 여러가지 장점을 가질 수 있다. 예를 들어, PTZ 카메라의 경우, 경비 대상의 위치가 바뀌어도 설치 후 수시로 조정이 가능하다. 또한, 경비 인원이 있는 경우 카메라를 실시간 원격 운전이 가능해 넓은 범위를 경비하므로 고정식 여러 대의 범위를 한대의 카메라로 대체할 수 있는 장점이 있다.Referring to FIG. 2, a PTZ (Pan / Tilt / Zoom) camera includes a pan (horizontal), a tilt (tilt) : Vertical direction), and zoom (Zoom: optical zoom magnification). Compared to general fixed-type closed-circuit television (CCTV) cameras, the price is relatively high but can have many advantages. For example, in the case of a PTZ camera, it can be adjusted from time to time even after the position of the expense object changes. In addition, since the camera can be operated in real time and remote operation is possible when there is a guard person, a wide range of security can be secured, so that the range of a fixed type can be replaced with a single camera.

도 2를 참조하면, 본 발명의 실시예에 따른 객체 추적 카메라는 촬상부(200), 구동부(210), 디스플레이(220), 프로세서(250), 통신부(230)를 포함할 수 있다. 2, an object tracking camera according to an embodiment of the present invention may include an imaging unit 200, a driving unit 210, a display 220, a processor 250, and a communication unit 230.

촬상부(200)는 객체를 촬영하기 위해 구현될 수 있다. 촬상부(200)는 렌즈와 영상 처리부를 포함할 수 있다. 렌즈는 줌 기능이 없는 고정형, 수동 줌, 전동 줌형으로 구분할 수 있다. 전동 줌형의 경우 카메라의 프로세서(250)로부터 전송된 줌 명령에 따라 작은 스텝 모터로 렌즈를 해당 배율이 되도록 움직인다. 이때 피사체의 거리에 따라 초점이 맞지 않을 수 있으므로 이미지 센서의 영상을 분석해 이를 오토 포커스(Auto Focus) 기능으로 렌즈를 움직여 초점을 조절할 수 있다.The image pickup section 200 can be implemented to photograph an object. The image pickup unit 200 may include a lens and an image processing unit. The lens can be divided into fixed type with no zoom function, manual zoom type and motorized zoom type. In the case of the motorized zoom type, the lens is moved by the small step motor to the magnification according to the zoom command transmitted from the processor 250 of the camera. At this time, depending on the distance of the subject, the focus may not be focused. Therefore, it is possible to analyze the image of the image sensor and adjust the focus by moving the lens with the auto focus function.

영상 처리부는 주로 컬러 또는 흑백 CCD 이미지 센서를 기반으로 렌즈를 통해 입력된 영상을 프로세싱할 수 있다. 영상 처리부에서는 이미지 센서를 기반으로 아날로그 신호를 디지털로 변환하고 변환된 데이터를 프로세싱하는 동작을 수행할 수 있다.The image processing unit can mainly process an image input through a lens based on a color or monochrome CCD image sensor. The image processing unit may perform an operation of converting an analog signal into digital based on an image sensor and processing the converted data.

구동부(210)는 예를 들어, 팬/틸트를 제어하기 위한 모터를 포함할 수 있다. 팬/틸트 모터는 전술한 촬상부(200)를 움직여 원하는 팬 및 틸트 각도로 카메라가 촬영을 수행하도록 카메라 및 렌즈를 구동시킬 수 있다. 따라서 팬/틸트 모터는 원하는 각도로 정확하게 카메라를 설정하는 역할을 수행하기 위한 모터로 스텝(Step) 모터, BLDC(blushless DC) 모터 등이 구동용으로 사용될 수 있다. 구동부(210)는 프로세서(250)로부터의 전송된 구동 명령에 기반하여 팬/틸트 모터를 구동시킬 수 있다. The driving unit 210 may include, for example, a motor for controlling the pan / tilt. The pan / tilt motor can drive the camera and the lens so that the camera performs the photographing at the desired pan and tilt angle by moving the imaging unit 200 described above. Therefore, the fan / tilt motor can be used for driving a step motor, a BLDC (blushless DC) motor or the like for performing a role of setting the camera accurately at a desired angle. The driving unit 210 may drive the fan / tilt motor based on the driving command transmitted from the processor 250.

디스플레이(220)는 사용자가 선택할 수 있는 설정 메뉴나 시간, 위치, 경보 상태 등과 같은 정보들을 비디오 신호에 오버레이시켜 표시하기 위해 구현될 수 있다. 디스플레이(220)는 프로세서(250)로부터 메뉴나 정보를 전달받아 내장된 폰트로 디스플레이할 수 있다.The display 220 can be implemented to overlay and display information such as a setting menu, a time, a position, an alarm state, etc., which the user can select, on the video signal. The display 220 may receive a menu or information from the processor 250 and display it in an embedded font.

프로세서(250)는 객체 추적 카메라의 각 구성부의 동작을 제어하기 위해 구현될 수 잇다. 예를 들어, 프로세서(250)는 (1)카메라 조절 (2)팬/틸트 모터 구동 (3)메뉴나 정보를 디스플레이하기 위해 구현될 수 있다. 또한 프로세서(250)는 전술한 객체 추적 메시지를 생성하도록 구현될 수 있다. 프로세서(250)는 촬영된 영상을 기반으로 객체의 이동 방향에 대한 정보를 분석하여 객체 이동 방향에 대한 정보를 생성할 수 있다. 프로세서(250)에서는 분석된 객체의 이동 방향에 대한 정보, 카메라 자신의 위치에 관련된 정보, 카메라의 식별자 정보, 객체의 특징에 대한 정보 등과 같은 객체를 추적하기 위한 정보를 기반으로 객체 추적 메시지를 생성할 수 있다.The processor 250 may be implemented to control the operation of each component of the object tracking camera. For example, the processor 250 may be implemented to display (1) a camera control (2) a pan / tilt motor drive (3) menu or information. The processor 250 may also be implemented to generate the object tracking message described above. The processor 250 may generate information on the object moving direction by analyzing the information on the moving direction of the object based on the photographed image. The processor 250 generates an object tracking message based on the information for tracking the object, such as information on the direction of the analyzed object, information related to the position of the camera itself, identifier information of the camera, information on the characteristics of the object, can do.

또한 프로세서(250)는 후술할 객체 추적 메시지 전송 범위에 객체가 존재하는지 여부를 판단하고 이에 기반하여 객체 추적 메시지를 생성하여 이를 특정한 카메라에게 전송하기 위해 구현될 수 있다. 전송 방법으로 다양한 방법(예를 들어, 유니캐스트, 멀티 캐스트 또는 브로드캐스트)가 사용될 수 있다. 이러한 전송 방법은 카메라의 동작을 제어할 수 있는 영상 처리 서버의 설정 또는 카메라의 판단에 따라 전송 방법으로 어떠한 방법을 사용할지에 대해 결정될 수 있다.In addition, the processor 250 may be configured to determine whether an object exists in an object tracking message transmission range to be described later, generate an object tracking message based on the object tracking message, and transmit the generated object tracking message to a specific camera. Various methods (e.g., unicast, multicast, or broadcast) may be used as the transmission method. Such a transmission method can be determined depending on the setting of the image processing server which can control the operation of the camera or which method is used as the transmission method according to the judgment of the camera.

통신부(230)는 객체 추적 메시지에 대한 정보 및/또는 촬상된 정보를 다른 카메라 및/또는 영상 처리 서버로 전송하기 위해 구현될 수 있다. 또한, 통신부(230)를 통해 영상 처리 서버로부터 전송된 메시지를 수신하여 이를 기반으로 카메라의 동작을 수행할 수도 있다. 즉, 통신부(230)는 다른 카메라 및 영상 수신 서버와 유무선 네트워크를 형성하고, 형성된 네트워크를 기반으로 다양한 정보(예를 들어 객체 추적 메시지에 관련된 정보, 촬상된 영상에 대한 정보)를 송신 및 수신할 수 있다.The communication unit 230 may be implemented to transmit the information about the object tracking message and / or the captured information to another camera and / or image processing server. In addition, a message transmitted from the image processing server through the communication unit 230 may be received, and the camera may be operated based on the received message. That is, the communication unit 230 forms a wired / wireless network with other cameras and image receiving servers, and transmits / receives various information (for example, information related to the object tracking message, information about the sensed image) .

위와 같은 구성은 설명의 편의상 기능상 각 구성부를 분리하여 표현한 것으로 하나의 구성부로 표현된 경우도 복수의 구성부로 나뉠 수 있고 복수의 구성부도 하나의 구성부로 합쳐질 수 있다. 또한, 개체 추적을 위한 카메라의 일부의 구성부, 예를 들어, 디스플레이(220)와 같은 구성은 구현되지 않을 수도 있다.For the sake of convenience of description, the above-described structure is expressed by separating each constituent part from the functional point. Even when expressed by one constituent part, the constituent parts can be divided into a plurality of constituent parts, and a plurality of constituent parts can also be combined into one constituent part. Also, some components of the camera for object tracking, such as the display 220, may not be implemented.

다시 도 1을 참조하면, 객체 추적 메시지를 수신한 제1 카메라(110) 및 제3 카메라(130)는 수신한 객체 추적 메시지를 기반으로 객체가 촬상 범위에 포함되어 있는지 여부, 객체가 촬상 범위 내로 이동하는지 여부 등을 판단할 수 있다. 판단 결과, 객체가 촬상 범위에 포함되어 있는 경우, 객체를 추적할 수 있다. 또한, 객체가 촬상 범위에 포함될 것으로 예측되는 경우, 예측되는 객체의 위치로 촬상 범위를 변경하여 객체에 대한 촬영을 대기할 수 있다.
Referring back to FIG. 1, the first camera 110 and the third camera 130, which have received the object tracking message, determine whether the object is included in the imaging range based on the received object tracking message, Whether or not it is moving. As a result of the determination, if the object is included in the imaging range, the object can be traced. In addition, when the object is predicted to be included in the imaging range, the imaging range can be changed to the position of the predicted object to wait for the object to be photographed.

도 3은 본 발명의 실시예에 따른 카메라가 분산형으로 배치된 경우 객체를 추적하는 방법을 나타낸 개념도이다.3 is a conceptual diagram illustrating a method of tracking an object when a camera according to an embodiment of the present invention is disposed in a distributed manner.

도 3에서는 9개의 공간에 설치된 카메라를 기반으로 객체의 이동을 판단하는 방법을 나타낸다. FIG. 3 shows a method of determining movement of an object based on cameras installed in nine spaces.

도 3을 참조하면, 예를 들어, 제1 공간에 위치한 제1 카메라(300)가 우선적으로 객체의 존재를 감지할 수 있다. 제1 카메라(300)는 제1 공간에서 감지된 객체의 이동을 분석하여 객체 추적 메시지를 생성하여 다른 카메라 및/또는 영상 처리 서버로 전송할 수 있다. 객체 추적 메시지는 객체 추적 메시지를 수신한 다른 카메라가 객체를 추적하기 위해 사용되는 정보가 포함될 수 있다. 예를 들어, 객체 추적 메시지에는 전술한 바와 같이 객체의 이동 방향에 대한 정보, 객체를 추적하는데 사용한 카메라의 촬영 정보, 카메라의 식별자 정보, 객체의 특징 정보 등이 포함되어 있을 수 있다.Referring to FIG. 3, for example, a first camera 300 located in a first space may preferentially detect the presence of an object. The first camera 300 may analyze the movement of the object sensed in the first space, generate an object tracking message, and transmit the object tracking message to another camera and / or an image processing server. The object tracking message may include information used by another camera that has received the object tracking message to track the object. For example, as described above, the object tracking message may include information on the moving direction of the object, photographing information of the camera used to track the object, identifier information of the camera, characteristic information of the object, and the like.

객체가 제1 공간에서 제2 공간으로 이동하는 경우, 제2 공간에 설치된 제2 카메라(320)는 수신한 객체 추적 메시지를 기반으로 미리 객체의 이동할 방향으로 카메라의 촬상 위치를 제어할 수 있다. 객체가 제2 공간으로 이동하는 경우 제2 카메라는 객체 추적 메시지를 기반으로 제어된 촬상 위치를 기반으로 객체를 촬영을 수행할 수 있다. When the object moves from the first space to the second space, the second camera 320 installed in the second space can control the imaging position of the camera in a direction in which the object moves in advance based on the received object tracking message. When the object moves to the second space, the second camera can perform shooting of the object based on the controlled imaging position based on the object tracking message.

동일한 방식으로 제2 카메라(320)도 객체의 이동 방향을 기반으로 객체 추적 메시지를 생성하여 다른 카메라로 송신할 수 있다. 객체가 제5 공간 및 제6 공간으로 이동하였다고 가정하는 경우, 제5 공간에 포함되는 제5 카메라(350) 및 제6 공간에 포함되는 제6 카메라(360)가 객체의 이동을 감지하여 동일한 방식으로 객체 추적 메시지를 다른 카메라 및/또는 영상 처리 서버로 전송할 수 있다.
In the same manner, the second camera 320 can also generate an object tracking message based on the moving direction of the object and transmit the object tracking message to another camera. If it is assumed that the object has moved to the fifth space and the sixth space, the fifth camera 350 included in the fifth space and the sixth camera 360 included in the sixth space detect the movement of the object, The object tracking message can be transmitted to another camera and / or image processing server.

도 4는 본 발명의 실시예에 따른 객체 추적 방법을 나타낸 흐름도이다.4 is a flowchart illustrating an object tracking method according to an embodiment of the present invention.

도 4를 참조하면, 객체 추적 방법은 영상 처리 서버, 복수의 객체 추적 카메라를 기반으로 수행될 수 있다. Referring to FIG. 4, an object tracking method may be performed based on an image processing server and a plurality of object tracking cameras.

영상 처리 서버는 객체 추적 카메라에 대한 초기 설정 정보를 전송할 수 있다(단계 400).The image processing server may transmit initialization information for the object tracking camera (step 400).

예를 들어, 영상 처리 서버는 객체 추적 카메라들이 상호 간에 네트워크를 형성하기 위한 설정 정보, 객체 추적 카메라가 동작하는 지능형 알고리즘 정보 등이 포함된 정보를 복수의 객체 추적 카메라로 전송할 수 있다. 또한 영상 처리 서버는 각각의 객체 추적 카메라의 동작에 관련된 정보(카메라의 위도, 경도, 높이 설정, 카메라의 유효 PTZ 반경 설정)를 제어할 수 있다. 또한, 멀티캐스트를 수행할 경우 각각의 객체 추적 카메라의 식별자 정보(멀티캐스트 IP, 통신 포트 정보)를 설정할 수 있다. 또한, 영상 처리 서버는 복수의 카메라가 전송한 영상 정보 및 추적 메시지를 저장하여 이를 기반으로 객체에 대한 정보, 객체의 동선에 대한 정보를 확인할 수 있도록 구현될 수 있다.For example, the image processing server may transmit information including object setting information for forming a network between the object tracking cameras and intelligent algorithm information for the object tracking camera to a plurality of object tracking cameras. Also, the image processing server can control the information related to the operation of each object tracking camera (setting the latitude, longitude and height of the camera, and setting the effective PTZ radius of the camera). In addition, when multicasting is performed, identifier information (multicast IP, communication port information) of each object tracking camera can be set. Also, the image processing server may be configured to store image information and a tracking message transmitted by a plurality of cameras and to confirm information about the object and the information about the object of the object based on the image information and the tracking message.

객체 추적 카메라의 식별 정보를 설정한다(단계 S410).The identification information of the object tracking camera is set (step S410).

객체 추적 카메라는 영상 처리 서버로부터 전송된 객체 추적 카메라에 대한 초기 설정 정보를 기반으로 상호 간에 데이터를 송신 및 수신하기 위한 식별자 정보(예를 들어, 멀티캐스트 IP, 통신 포트)를 설정할 수 있다.The object tracking camera may set identifier information (e.g., multicast IP, communication port) for transmitting and receiving data between the object tracking camera and the object tracking camera based on initial setting information transmitted from the image processing server.

객체 추적 카메라가 객체의 움직임을 감지한다(단계 S420).The object tracking camera detects the movement of the object (step S420).

객체 추적 카메라는 설정된 지능형 알고리즘을 기반으로 특정한 이벤트(객체의 등장 또는 이동)의 발생을 감지할 수 있다. Object Tracking The camera can detect the occurrence of a specific event (appearance or movement of an object) based on the set intelligent algorithm.

객체 추적 메시지를 전송한다(단계 S430).And transmits the object tracking message (step S430).

객체 추적 카메라는 다른 카메라 및/또는 영상 처리 서버로 객체를 추적하기 위한 정보가 포함된 메시지를 전송할 수 있다. 객체 추적 메시지에는 객체에 관련된 정보(예를 들어, 객체의 움직임(침입, 배회, 객체 방향에 대한 정보), 카메라 자신의 위도, 경도 높이에 대한 정보, 객체의 특성에 관련된 정보 등)을 포함할 수 있다.The object tracking camera may send a message containing information for tracking the object to another camera and / or image processing server. The object tracking message includes information related to the object (for example, information about the motion of the object (intrusion, roaming, object orientation), the latitude of the camera itself, information about the height of the object, .

수신한 객체 추적 메시지를 분석하여 카메라를 제어한다(단계 S440).And analyzes the received object tracking message to control the camera (step S440).

객체 추적 카메라는 수신한 객체 추적 메시지를 기반으로 카메라의 구동을 제어할 수 있다. 예를 들어, 객체가 추적 가능 범위에 있는지 여부, 수신한 메시지가 중복 메시지인지 여부 또는 자신이 보낸 메시지인지 여부, 객체가 이동하는 방향에 대한 정보 등을 객체 추적 메시지를 기반으로 판단할 수 있다. 객체 추적 메시지를 분석한 결과 객체가 객체 추적 카메라의 추적이 가능한 특정한 범위로 이동하는 경우, 객체의 예상 이동 방향을 기반으로 객체에 대한 추적을 수행할 수 있다. 객체 추적 카메라가 PTZ 카메라인 경우, 카메라의 PTZ를 제어하여 예상되는 객체에 대한 추적을 수행할 수 있다.The object tracking camera can control the camera operation based on the received object tracking message. For example, the object tracking message can be used to determine whether an object is in a traceable range, whether the received message is a duplicate message, whether it is a message sent by the object, and information about the direction in which the object moves. If the object tracking message is analyzed and the object moves to a specific range that can be traced by the object tracking camera, the object tracking can be performed based on the expected moving direction of the object. Object Tracking If the camera is a PTZ camera, you can track the expected object by controlling the PTZ of the camera.

복수의 카메라 각각에서 객체를 추적하여 촬상한 화면은 영상 처리 서버로 전송되어 저장될 수 있다(단계 S450).The image obtained by tracking the object in each of the plurality of cameras may be transmitted to the image processing server and stored (step S450).

본 발명의 다른 실시예에 따르면, 추적을 수행하는 객체가 복수 개일 경우, 객체 추적 메시지에 객체의 특징적인 정보를 포함하여 전송할 수도 있다. 예를 들어, 영상에 촬상된 복수개의 객체를 추적하기 위해, 개별적인 객체에 대한 모델링을 수행하거나, 윤곽선을 산출하는 방법, 얼굴 인식 방법 등을 통해 객체의 특징을 추출할 수 있다. 이러한 객체별 특징 정보는 객체 추적 메시지에 포함되어 다른 카메라로 전송될 수 있고, 이를 객체를 추적하기 위한 용도로 활용할 수 있다. 즉, 객체의 특징 정보 또한, 객체 추적 메시지로 전송되어 추적 객체 별로 추적을 수행시 복수의 객체를 구분하여 추적을 수행하기 위해 사용될 수 있다. 예를 들어, 제1 객체가 제1 카메라 방향으로 이동하고, 제2 객체가 제2 카메라 방향으로 이동하는 경우, 제1 카메라로 전송하는 객체 추적 메시지에 포함된 정보에는 제1 객체에 관련된 메시지만을 포함하여 전송하고, 제2 카메라로 전송하는 객체 추적 메시지에는 제2 객체에 관련된 메시지만을 포함하여 전송할 수 있다.According to another embodiment of the present invention, when there are a plurality of objects performing tracking, the object tracking message may include characteristic information of the object and may be transmitted. For example, in order to track a plurality of objects photographed in an image, features of an object can be extracted through modeling of individual objects, a method of calculating an outline, and a face recognition method. The object-specific feature information may be included in the object tracking message and transmitted to another camera, and may be used for tracking the object. That is, the feature information of the object may also be transmitted to the object tracking message to be used for performing tracking by dividing a plurality of objects when performing tracking for each tracking object. For example, when the first object moves in the first camera direction and the second object moves in the second camera direction, the information included in the object tracking message transmitted to the first camera includes only a message related to the first object And transmits only the message related to the second object to the object tracking message transmitted to the second camera.

또한, 카메라에서 사람의 이동만을 추적할 수 있도록 카메라에 촬상된 객체가 사람인지 여부를 판단하는 절차를 추가적으로 수행할 수 있다. 예를 들어, 사람을 모델링한 템플릿 또는 윤곽선을 기반으로 영상에 촬상된 객체가 사람인지 여부에 대해 우선적으로 판단을 수행한 후 사람으로 판단된 객체에 대해서만 카메라가 추적을 수행하도록 제어할 수 있다.
In addition, a procedure may be additionally performed to determine whether the object photographed by the camera is a person so that only the movement of a person can be tracked by the camera. For example, it is possible to control the camera to perform tracking only on an object determined as a human after first determining whether the object photographed on the image is a human based on a template or a contour modeling a person.

본 발명의 또 다른 실시예에 따르면, 각 카메라는 각자의 위치에 대한 정보를 공유하고 공유된 위치 정보를 기반으로 특정한 카메라로 객체 추적 메시지를 수신하는 방법을 사용할 수도 있다. According to another embodiment of the present invention, each camera may use a method of sharing information about its own position and receiving an object tracking message with a specific camera based on the shared position information.

도 5는 본 발명의 실시예에 따른 복수에 카메라에 기반한 객체 추적 방법을 나타내는 개념도이다.5 is a conceptual diagram illustrating a camera-based object tracking method based on a plurality of cameras according to an embodiment of the present invention.

도 5에서는 복수의 카메라의 위치 정보를 기반으로 특정한 카메라로 객체 추적 메시지를 전송하는 방법에 대해 개시한다.FIG. 5 illustrates a method of transmitting an object tracking message to a specific camera based on position information of a plurality of cameras.

야외에 설치된 CCTV로 복수의 카메라가 사용되는 경우, 복수의 카메라의 위치 정보는 GPS(global positioning system)와 같은 지리적인 정보에 기반한 시스템을 기반으로 산출될 수 있다. 복수의 카메라의 위치에 대한 정보가 산출될 수 있다. 복수의 카메라 사이에 설정된 네트워크에 기반하여 복수의 카메라 상호간에 카메라 위치에 대한 정보를 공유할 수 있다. 이렇게 공유된 위치 정보에 기반하여 복수의 카메라를 이용하여 객체 추적을 수행할 수 있다. 예를 들어, 제1 카메라(510)가 설치된 지역에서 객체(500)의 이동이 감지되고, 객체(500)가 제1 카메라(510)의 촬영 범위를 벋어나 이동을 수행할 수 있다. 이러한 경우, 제1 카메라(510)는 객체(500)의 이동 방향을 기반으로 객체(500)의 이동 방향에 존재하는 카메라인 제2 카메라(520)로 객체 추적 메시지를 전송할 수 있다. 즉, 제1 카메라(510)는 GPS 정보를 기반으로 특정한 위치에 존재하는 카메라(제2 카메라)에 대한 정보를 설정받고 이에 기반하여 객체 추적 메시지를 특정한 위치에 존재하는 카메라로 전송할 수 있다. 전송 방법으로는 특정한 카메라로 유니캐스트하거나 특정 그룹의 카메라로 멀티캐스트 전송 또는 카메라를 특정하지 않고, 브로트캐스트 전송을 할 수도 있다.When a plurality of cameras are used in outdoor CCTV, the position information of a plurality of cameras can be calculated based on a system based on geographical information such as a global positioning system (GPS). Information on the positions of a plurality of cameras can be calculated. Information about the camera position can be shared among a plurality of cameras based on a network established between the plurality of cameras. Based on the shared location information, object tracking can be performed using a plurality of cameras. For example, the movement of the object 500 may be detected in an area where the first camera 510 is installed, and the object 500 may move while moving away from the shooting range of the first camera 510. In this case, the first camera 510 may transmit the object tracking message to the second camera 520, which is a camera existing in the moving direction of the object 500, based on the moving direction of the object 500. That is, the first camera 510 may set information on a camera (second camera) existing at a specific position based on the GPS information, and may transmit the object tracking message to a camera located at a specific location based on the information. The transmission method may be unicast with a specific camera, or multicast transmission to a specific group of cameras or broadcast transmission without specifying a camera.

위치 정보는 GPS 뿐만 아니라 복수의 카메라를 제어하는 영상 처리 서버에서 설정될 수도 있다.The location information may be set not only by the GPS but also by an image processing server that controls a plurality of cameras.

본 발명의 또 다른 실시예로, 영상 처리 서버는 복수의 카메라가 설치된 위치를 기반으로 카메라의 동작 범위를 설정할 수 있다. 예를 들어, 제1 카메라에서 촬상된 객체가 오른쪽으로 이동시 제2 카메라가 동작하고, 제1 카메라에서 촬상된 객체가 왼쪽으로 이동시 제3 카메라가 동작하도록 객체의 이동에 따른 카메라의 동작 범위를 영상 처리 서버에서 직접적으로 제어할 수 있다. 영상 처리 서버에서 수행되는 카메라의 동작에 대한 판단은 카메라의 설치 위치에 대한 정보, 카메라의 촬상 위치에 대한 정보를 기반으로 산출될 수 있다. 이하에서는 영상 처리 서버를 기반으로 복수의 카메라를 이용한 객체 추적 방법에 대해 개시한다.According to another embodiment of the present invention, the image processing server can set the operation range of the camera based on the position where the plurality of cameras are installed. For example, if the second camera operates when the object photographed by the first camera moves to the right and the third camera operates when the object photographed by the first camera moves to the left, Can be directly controlled by the processing server. The determination of the operation of the camera performed by the image processing server can be performed based on the information about the installation position of the camera and the information about the imaging position of the camera. Hereinafter, an object tracking method using a plurality of cameras based on an image processing server will be described.

도 6은 본 발명의 실시예에 따른 영상 처리 서버를 기반으로 복수의 카메라에서 객체 추적을 수행하는 방법을 나타낸 개념도이다.6 is a conceptual diagram illustrating a method of performing object tracking in a plurality of cameras based on an image processing server according to an embodiment of the present invention.

도 6을 참조하면, 영상 처리 서버는 수신한 영상 정보를 기반으로 복수의 카메라의 동작을 제어할 수 있다. Referring to FIG. 6, the image processing server can control the operation of a plurality of cameras based on the received image information.

제1 카메라(600)에 의해 객체가 탐지되고, 제1 카메라(600)는 객체를 촬상한 정보를 영상 처리 서버(650)로 전송할 수 있다. 영상 처리 서버(650)는 수신한 영상 정보를 기반으로 영상을 분석하여 객체의 이동 방향에 대해 판단을 수행할 수 있다. 영상 처리 서버(650)는 판단한 결과를 기반으로 객체가 제1 카메라(600)의 촬상 범위를 벋어난 경우, 다음으로 촬영을 수행할 카메라(670)를 결정할 수 있다. 영상 처리 서버(650)는 다음 객체를 촬영기 위해 결정된 카메라(670)로 객체에 대한 특징 정보 및 객체가 등장할 경우 촬영을 수행할 설정 정보(예를 들어, PTZ 정보) 등과 같은 카메라 설정 정보를 전송할 수 있다. 영상 처리 서버(650)로부터 촬영 설정 정보를 수신한 카메라(670)는 설정된 정보에 기반하여 동작을 수행할 수 있다.An object is detected by the first camera 600, and the first camera 600 can transmit the image of the object to the image processing server 650. The image processing server 650 may analyze the image based on the received image information to determine the moving direction of the object. The image processing server 650 can determine the camera 670 to perform shooting next if the object is out of the imaging range of the first camera 600 based on the determination result. The image processing server 650 transmits the camera setting information such as the characteristic information about the object to the camera 670 determined for photographing the next object and the setting information (for example, PTZ information) for performing shooting when the object appears . The camera 670, which has received the photographing setting information from the image processing server 650, can perform an operation based on the set information.

객체가 제1 카메라의 촬상 범위를 벋어난 경우, 다음으로 촬영을 수행할 카메라에 대한 정보는 위치 정보는 GPS 뿐만 아니라 복수의 카메라를 제어하는 영상 처리 서버에서 카메라의 설치 위치 및 촬상 범위에 기반하여 결정될 수 있다.
When the object is out of the imaging range of the first camera, the information on the camera to be next photographed is based on the installation position and the imaging range of the camera in the image processing server that controls the plurality of cameras as well as the GPS Can be determined.

본 발명의 또 다른 실시예에 따르면, 객체가 카메라의 일정한 촬상 범위에 존재할 경우에만, 객체 추적 메시지를 생성하여 다른 카메라 또는 영상 처리 서버로 전송하거나 영상 처리 서버에서 객체의 이동에 따른 카메라 설정을 수행할 수 있다. According to another embodiment of the present invention, an object tracking message is generated and transmitted to another camera or an image processing server only when the object exists in a predetermined imaging range of the camera, or camera setting is performed according to the movement of the object in the image processing server can do.

도 7은 본 발명의 실시예에 따른 객체의 이동에 따른 카메라의 제어 방법을 나타낸 개념도이다. 7 is a conceptual diagram illustrating a method of controlling a camera according to movement of an object according to an embodiment of the present invention.

도 7을 참조하면, 카메라의 촬상 범위는 일정한 반경으로 형성될 수 있다. 일정한 촬상 범위 내에서 구역을 분할하여 객체 추적 메시지를 생성할지 여부에 대해 판단하고, 일정한 촬상 범위를 넘을 경우에만 객체 추적 메시지를 생성하여 다른 카메라로 전송할 수 있다. 즉, 특정된 촬상 범위를 벋어나서 객체가 다른 카메라의 촬상 범위로 이동할 가능성이 많은 경우에만, 객체 추적 메시지를 생성하여 다른 카메라로 전송하는 방법을 사용함으로써 불필요한 메시지의 송신 및 수신을 방지할 수 있다.Referring to Fig. 7, the imaging range of the camera can be formed with a constant radius. It is judged whether or not an object tracking message should be generated by dividing a region within a certain imaging range and an object tracking message can be generated and transmitted to another camera only when the object tracking message is exceeded. That is, it is possible to prevent transmission and reception of unnecessary messages by using a method of generating an object tracking message and transmitting the object tracking message to another camera only when there is a high probability that the object moves to the imaging range of another camera while leaving a specified imaging range .

이하에서는 설명의 편의상 제1 카메라(710), 제2 카메라(720), 제3 카메라(730)가 존재하는 경우를 가정하여 설명한다. 제1 카메라(710)의 촬상 범위 중 반경이 일정한 범위 이내에서 객체가 이동하는 경우 제1 카메라(710)는 객체의 이동을 추적하고, 객체 추적 메시지는 전송하지 않는다. 하지만, 객체가 제1 카메라(710)의 일정한 촬상 범위를 벋어나는 경우, 제1 카메라(710)에서 객체 추적 메시지를 생성하여 다른 카메라 및/또는 영상 처리 장치로 전송할 수 있다. 이러한 촬상 범위를 객체 추적 메시지 전송 범위라는 용어로 정의한다. Hereinafter, it is assumed that the first camera 710, the second camera 720, and the third camera 730 are present for convenience of explanation. When the object moves within a predetermined range of the imaging range of the first camera 710, the first camera 710 tracks movement of the object, and does not transmit the object tracking message. However, when the object is out of the predetermined imaging range of the first camera 710, the first camera 710 may generate an object tracking message and transmit the object tracking message to another camera and / or an image processing apparatus. This imaging range is defined as the term "object tracking message transmission range".

객체 추적 카메라가 카메라가 객체 추적 메시지를 전송하는 일정한 범위는 미리 설정된 값이거나, 주변의 다른 카메라의 촬상 범위를 고려하여 산출되는 값일 수 있다. 예를 들어, 복수의 카메라의 촬상 범위가 겹치는 경우, 촬상 범위가 겹치기 이전에 존재하는 공간을 추적 메시지 전송 범위로 정의할 수 있다. 객체가 추적 메시지 전송 범위에 존재하는 경우, 객체 추적 카메라는 객체 추적 메시지를 생성하여 다른 카메라 또는 영상 처리 서버로 전송할 수 있다.The object tracking camera may have a predetermined range in which the camera transmits the object tracking message, or may be a value calculated in consideration of the imaging range of other cameras in the vicinity. For example, when the imaging ranges of a plurality of cameras overlap, the space existing before the imaging range overlaps can be defined as the range of the tracking message transmission. If the object exists in the trace message transmission range, the object tracking camera can generate the object tracking message and transmit it to another camera or image processing server.

복수의 카메라가 존재하는 경우, 제1 카메라(710)가 객체 추적 메시지를 전송하는 촬상 범위가 좀 더 세분화될 수 있다.In the case where a plurality of cameras exist, the imaging range in which the first camera 710 transmits the object tracking message can be further subdivided.

도 7을 참조하면, 제1 카메라(710)의 우측에 제2 카메라(720)가 존재하고, 제1 카메라(710)의 하단에 제3 카메라(730)가 존재하는 경우를 가정할 수 있다. 이러한 경우, 객체 추적 메시지를 전송하는 객체 추적 메시지 전송 범위를 2개의 구역으로 분할할 수 있다. 만약, 제1 객체 추적 메시지 전송 범위(760)로 객체가 이동하는 경우 제2 카메라(720)로 객체 추적 메시지를 전송하고, 제2 객체 추적 메시지 전송 범위(750)로 객체가 이동하는 경우 제3 카메라(730)로 객체 추적 메시지를 전송할 수 있다. 즉, 객체의 구체적인 이동 방향에 기반하여 객체 추적 메시지를 전송하는 카메라를 결정하여 결정된 카메라로 객체 추적 메시지를 전송할 수 있다.Referring to FIG. 7, it is assumed that a second camera 720 exists on the right side of the first camera 710 and a third camera 730 exists on the lower side of the first camera 710. In this case, the transmission range of the object tracking message transmitting the object tracking message can be divided into two zones. If the object moves to the first object tracking message transmission range 760, the second camera 720 transmits the object tracking message to the second object tracking message transmission range 750. If the object moves to the second object tracking message transmission range 750, The object tracking message may be transmitted to the camera 730. That is, the camera that transmits the object tracking message may be determined based on the specific moving direction of the object, and the object tracking message may be transmitted to the determined camera.

도 7은 카메라에서 객체의 이동을 판단하여 객체 추적 메시지를 전송하는 경우를 가정하여 설명한 것이다. 전술한 바와 같이 영상 처리 장치에서 객체의 이동을 판단하여 복수의 카메라를 제어하는 경우에는 영상 처리 장치에서 객체의 이동을 판단하여 객체가 카메라의 특정한 객체 추적 메시지 전송 범위로 이동한 경우, 특정한 카메라로 카메라 동작 제어 정보를 전송하여 카메라의 동작을 제어할 수 있다.
FIG. 7 illustrates the case in which the object tracking message is transmitted by determining movement of the object in the camera. In the case of controlling the plurality of cameras by judging the movement of the object in the image processing apparatus as described above, the movement of the object is determined by the image processing apparatus. When the object moves to a specific object tracking message transmission range of the camera, The operation of the camera can be controlled by transmitting the camera operation control information.

이상 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined in the appended claims. It will be possible.

Claims (14)

복수의 카메라에 기반한 객체 추적 방법에 있어서,
제1 카메라에서 객체의 이동 여부를 판단하는 단계;
상기 제1 카메라에서 상기 객체의 이동에 기반하여 객체 추적 메시지를 생성하는 단계;
상기 제1 카메라에서 생성된 상기 객체 추적 메시지를 제2 카메라로 전송하는 단계; 및
상기 제2 카메라에서 상기 객체 추적 메시지를 기반으로 상기 제2 카메라의 동작을 제어하는 단계를 포함하되,
상기 객체 추적 메시지는 상기 제1 카메라의 식별자 정보, 상기 객체의 움직임에 관련된 정보를 포함하는 메시지인 객체 추적 방법.
A method for tracking an object based on a plurality of cameras,
Determining whether an object is moved in a first camera;
Generating an object tracking message based on the movement of the object in the first camera;
Transmitting the object tracking message generated by the first camera to a second camera; And
And controlling an operation of the second camera based on the object tracking message in the second camera,
Wherein the object tracking message is a message including identifier information of the first camera and information related to movement of the object.
제1항에 있어서, 상기 제2 카메라에서 상기 객체 추적 메시지를 기반으로 상기 제2 카메라의 동작을 제어하는 단계는,
상기 객체의 움직임에 관련된 정보를 기반으로 상기 제2 카메라의 팬(Pan), 틸트(Tilt) 또는 줌(Zoom) 정보를 설정하는 단계; 및
상기 팬, 상기 틸트 또는 상기 줌 정보에 기반하여 상기 제2 카메라를 구동하는 단계를 포함하는 객체 추적 방법.
2. The method of claim 1, wherein controlling the operation of the second camera based on the object tracking message in the second camera comprises:
Setting pan, tilt, or zoom information of the second camera based on information related to movement of the object; And
And driving the second camera based on the pan, the tilt, or the zoom information.
제2항에 있어서,
상기 객체의 이동 및 상기 제1 카메라에 저장된 다른 카메라의 위치 정보에 기반하여 상기 객체 추적 메시지를 전송할 카메라를 결정하는 단계를 더 포함하는 객체 추적 방법.
3. The method of claim 2,
Determining a camera to which the object tracking message is to be transmitted based on movement of the object and location information of another camera stored in the first camera.
제1항에 있어서, 상기 객체의 이동에 기반하여 객체 추적 메시지를 생성하는 단계는,
상기 객체가 객체 추적 메시지 전송 범위로 이동하였는지 여부를 판단하는 단계; 및
상기 객체가 상기 객체 추적 메시지 전송 범위로 이동한 경우, 상기 객체 추적 메시지를 생성하는 단계를 포함하되,
상기 객체 추적 메시지 전송 범위는 상기 객체 추적 메시지를 전송할지 여부를 결정하기 위한 상기 제1 카메라의 촬상 범위 중 일부인 객체 추적 방법.
2. The method of claim 1, wherein generating an object tracking message based on movement of the object comprises:
Determining whether the object has moved to an object tracking message transmission range; And
And generating the object tracking message when the object has moved to the object tracking message transmission range,
Wherein the object tracking message transmission range is part of an imaging range of the first camera for determining whether to transmit the object tracking message.
제1항에 있어서, 상기 제1 카메라에서 상기 객체의 이동에 기반하여 객체 추적 메시지를 생성하는 단계는,
상기 객체가 제1 객체 추적 메시지 전송 범위 또는 제2 객체 추적 메시지 전송범위 중 어떠한 객체 추적 메시지 전송 범위로 이동하였는지 여부를 판단하는 단계;
상기 제1 객체 추적 메시지 전송 범위 또는 상기 제2 객체 추적 메시지 전송 범위 중 상기 객체가 이동한 범위를 기반으로 상기 객체 추적 메시지를 전송할 카메라를 결정하는 단계; 및
상기 결정된 카메라의 식별자 정보를 포함하는 객체 추적 메시지를 생성하는 단계를 포함하되,
상기 제2 카메라는 상기 객체 추적 메시지를 전송할 카메라를 결정된 카메라인 객체 추적 방법.
The method of claim 1, wherein generating an object tracking message based on movement of the object in the first camera comprises:
Determining whether the object has moved to an object tracking message transmission range of the first object tracking message transmission range or the second object tracking message transmission range;
Determining a camera to which the object tracking message is to be transmitted based on a range of movement of the object among the first object tracking message transmission range or the second object tracking message transmission range; And
And generating an object tracking message including identifier information of the determined camera,
And the second camera is a determined camera for transmitting the object tracking message.
제1항에 있어서, 상기 제1 카메라에서 생성된 상기 객체 추적 메시지를 제2 카메라로 전송하는 단계는,
상기 제1 카메라가 상기 객체 추적 메시지를 상기 제2 카메라로 멀티캐스트하는 단계를 포함하고,
상기 제2 카메라는 상기 영상 처리 서버에서 멀티캐스트된 상기 객체 추적 메시지를 수신하도록 설정된 멀티캐스트 그룹에 포함되는 카메라인 객체 추적 방법.
The method of claim 1, wherein the transmitting the object tracking message generated by the first camera to the second camera comprises:
Wherein the first camera multicasts the object tracking message to the second camera,
Wherein the second camera is included in a multicast group configured to receive the object tracking message multicasted by the image processing server.
제6항에 있어서, 상기 영상 처리 서버는,
상기 제1 카메라에서 전송한 영상 정보 및 객체 추적 메시지 및 상기 제2 카메라에서 전송한 영상 정보 및 객체 추적 메시지를 기반으로 상기 객체의 이동에 관련된 정보를 생성하는 서버인 객체 추적 방법.
7. The image processing apparatus according to claim 6,
Wherein the server generates information related to movement of the object based on the image information and the object tracking message transmitted from the first camera and the image information and the object tracking message transmitted from the second camera.
객체 추적을 수행하는 카메라에 있어서, 상기 카메라는 프로세서를 포함하고,
상기 프로세서는 제1 카메라에서 객체의 이동 여부를 판단하고, 상기 제1카메라에서 상기 객체의 이동에 기반하여 객체 추적 메시지를 생성하고, 상기 제1 카메라에서 생성된 상기 객체 추적 메시지를 제2 카메라로 전송하고 상기 제2 카메라에서 상기 객체 추적 메시지를 기반으로 상기 제2 카메라의 동작을 제어하도록 구현되되,
상기 객체 추적 메시지는 상기 제1 카메라의 식별자 정보, 상기 객체의 움직임에 관련된 정보를 포함하는 메시지인 객체 추적 카메라.
A camera for performing object tracking, the camera comprising a processor,
Wherein the processor is configured to determine whether an object is moved in a first camera, generate an object tracking message based on movement of the object in the first camera, and transmit the object tracking message generated in the first camera to a second camera And to control the operation of the second camera based on the object tracking message in the second camera,
Wherein the object tracking message is a message including identifier information of the first camera and information related to motion of the object.
제8항에 있어서, 상기 프로세서는,
상기 객체의 움직임에 관련된 정보를 기반으로 상기 제2 카메라의 팬(Pan), 틸트(Tilt) 또는 줌(Zoom) 정보를 설정하고 상기 팬, 상기 틸트 또는 상기 줌 정보에 기반하여 상기 제2 카메라를 구동하도록 구현되는 객체 추적 카메라.
9. The apparatus of claim 8,
The method of claim 1, further comprising setting pan, tilt, or zoom information of the second camera based on information related to motion of the object, and setting the pan, tilt, An object tracking camera implemented to operate.
제9항에 있어서, 상기 프로세서는
상기 객체의 이동 및 상기 제1 카메라에 저장된 다른 카메라의 위치 정보에 기반하여 상기 객체 추적 메시지를 전송할 카메라를 결정하도록 구현되는 객체 추적 카메라.
10. The apparatus of claim 9, wherein the processor
Wherein the object tracking camera is configured to determine a camera to transmit the object tracking message based on movement of the object and position information of another camera stored in the first camera.
제8항에 있어서, 상기 프로세서는,
상기 객체가 객체 추적 메시지 전송 범위로 이동하였는지 여부를 판단하고, 상기 객체가 상기 객체 추적 메시지 전송 범위로 이동한 경우, 상기 객체 추적 메시지를 생성하도록 구현되되,
상기 객체 추적 메시지 전송 범위는 상기 객체 추적 메시지를 전송할지 여부를 결정하기 위한 상기 제1 카메라의 촬상 범위 중 일부인 객체 추적 카메라.
9. The apparatus of claim 8,
Determining whether the object has moved to an object tracking message transmission range and generating the object tracking message when the object has moved to the object tracking message transmission range,
Wherein the object tracking message transmission range is part of an imaging range of the first camera for determining whether to transmit the object tracking message.
제8항에 있어서, 상기 프로세서는,
상기 객체가 제1 객체 추적 메시지 전송 범위 또는 제2 객체 추적 메시지 전송범위 중 어떠한 객체 추적 메시지 전송 범위로 이동하였는지 여부를 판단하고, 상기 제1 객체 추적 메시지 전송 범위 또는 상기 제2 객체 추적 메시지 전송 범위 중 상기 객체가 이동한 범위를 기반으로 상기 객체 추적 메시지를 전송할 카메라를 결정하고, 상기 결정된 카메라의 식별자 정보를 포함하는 객체 추적 메시지를 생성하도록 구현되되,
상기 제2 카메라는 상기 객체 추적 메시지를 전송할 카메라를 결정된 카메라인 객체 추적 카메라.
9. The apparatus of claim 8,
Determining whether the object has moved to the object tracking message transmission range of the first object tracking message transmission range or the second object tracking message transmission range, and if the object tracking message transmission range or the second object tracking message transmission range Determining a camera to which the object tracking message will be transmitted based on a range of movement of the object, and generating an object tracking message including the determined camera identifier information,
Wherein the second camera is a camera whose camera to transmit the object tracking message is determined.
제8항에 있어서, 상기 프로세서는,
상기 제1 카메라가 상기 객체 추적 메시지를 상기 제2 카메라로 멀티캐스트하도록 구현되되,
상기 제2 카메라는 상기 영상 처리 서버에서 멀티캐스트된 상기 객체 추적 메시지를 수신하도록 설정된 멀티캐스트 그룹에 포함되는 카메라인 객체 추적 카메라.
9. The apparatus of claim 8,
Wherein the first camera is configured to multicast the object tracking message to the second camera,
Wherein the second camera is included in a multicast group configured to receive the object tracking message multicasted by the image processing server.
제13항에 있어서, 상기 영상 처리 서버는,
상기 제1 카메라에서 전송한 영상 정보 및 객체 추적 메시지 및 상기 제2 카메라에서 전송한 영상 정보 및 객체 추적 메시지를 기반으로 상기 객체의 이동에 관련된 정보를 생성하는 서버인 객체 추적 방법.
14. The image processing system according to claim 13,
Wherein the server generates information related to movement of the object based on the image information and the object tracking message transmitted from the first camera and the image information and the object tracking message transmitted from the second camera.
KR20130095820A 2013-08-13 2013-08-13 Method and apparatus for tracking object using multiple camera KR20150019230A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20130095820A KR20150019230A (en) 2013-08-13 2013-08-13 Method and apparatus for tracking object using multiple camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20130095820A KR20150019230A (en) 2013-08-13 2013-08-13 Method and apparatus for tracking object using multiple camera

Publications (1)

Publication Number Publication Date
KR20150019230A true KR20150019230A (en) 2015-02-25

Family

ID=52578405

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20130095820A KR20150019230A (en) 2013-08-13 2013-08-13 Method and apparatus for tracking object using multiple camera

Country Status (1)

Country Link
KR (1) KR20150019230A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110264743A (en) * 2019-05-22 2019-09-20 梁嘉麟 The electronic display system of vehicle location and first running track is found using over-speed vehicles monitoring camera in network of highways
KR20210002288A (en) * 2019-06-28 2021-01-08 장찬희 Cctv surveillance system using cctv combined drones
CN112950905A (en) * 2021-02-01 2021-06-11 航天科技控股集团股份有限公司 Gas station early warning system and method based on Internet of things
KR102442910B1 (en) * 2022-04-26 2022-09-15 주식회사 제노시스 Video Monitoring Device
KR20220139540A (en) * 2021-04-08 2022-10-17 주식회사 에스원 Method and apparatus for tracking object of ptz camera

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110264743A (en) * 2019-05-22 2019-09-20 梁嘉麟 The electronic display system of vehicle location and first running track is found using over-speed vehicles monitoring camera in network of highways
KR20210002288A (en) * 2019-06-28 2021-01-08 장찬희 Cctv surveillance system using cctv combined drones
CN112950905A (en) * 2021-02-01 2021-06-11 航天科技控股集团股份有限公司 Gas station early warning system and method based on Internet of things
KR20220139540A (en) * 2021-04-08 2022-10-17 주식회사 에스원 Method and apparatus for tracking object of ptz camera
KR102442910B1 (en) * 2022-04-26 2022-09-15 주식회사 제노시스 Video Monitoring Device

Similar Documents

Publication Publication Date Title
US10614311B2 (en) Automatic extraction of secondary video streams
US7583815B2 (en) Wide-area site-based video surveillance system
US7385626B2 (en) Method and system for performing surveillance
JP5688456B2 (en) Security camera tracking and monitoring system and method using thermal image coordinates
US8289392B2 (en) Automatic multiscale image acquisition from a steerable camera
US9363487B2 (en) Scanning camera-based video surveillance system
EP2710801B1 (en) Surveillance system
US8848053B2 (en) Automatic extraction of secondary video streams
US20150244928A1 (en) Camera control method, and camera control device for same
US20100013917A1 (en) Method and system for performing surveillance
US20050134685A1 (en) Master-slave automated video-based surveillance system
CN103686131A (en) Monitoring apparatus and system using 3d information of images and monitoring method using the same
JP2007158860A (en) Photographing system, photographing device, image switching device, and data storage device
KR101530255B1 (en) Cctv system having auto tracking function of moving target
KR20150019230A (en) Method and apparatus for tracking object using multiple camera
KR101290782B1 (en) System and method for Multiple PTZ Camera Control Based on Intelligent Multi-Object Tracking Algorithm
KR101410985B1 (en) monitoring system and monitoring apparatus using security camera and monitoring method thereof
US20120026292A1 (en) Monitor computer and method for monitoring a specified scene using the same
WO2005120070A2 (en) Method and system for performing surveillance
JP7369623B2 (en) Information processing system and information processing method
KR101623331B1 (en) Detection and close up shooting method using images of moving objects
Liao et al. Incorporation of GPS and IP camera for people tracking
Liao et al. An Automatic Calibration Method Based on Feature Point Matching for the Cooperation of Wide-Angle and Pan-Tilt-Zoom Cameras
KR101623332B1 (en) Detection and close up shooting method using images of moving objects
TW201814587A (en) Method for performing cooperative counting with aid of multiple cameras, and associated apparatus

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application