KR102282470B1 - Camera apparatus and method of object tracking using the same - Google Patents

Camera apparatus and method of object tracking using the same Download PDF

Info

Publication number
KR102282470B1
KR102282470B1 KR1020150015574A KR20150015574A KR102282470B1 KR 102282470 B1 KR102282470 B1 KR 102282470B1 KR 1020150015574 A KR1020150015574 A KR 1020150015574A KR 20150015574 A KR20150015574 A KR 20150015574A KR 102282470 B1 KR102282470 B1 KR 102282470B1
Authority
KR
South Korea
Prior art keywords
camera
target
size
area
metadata
Prior art date
Application number
KR1020150015574A
Other languages
Korean (ko)
Other versions
KR20150130901A (en
Inventor
김경현
김대성
박종인
Original Assignee
한화테크윈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화테크윈 주식회사 filed Critical 한화테크윈 주식회사
Priority to CN201510245931.2A priority Critical patent/CN105100596B/en
Priority to US14/712,039 priority patent/US10334150B2/en
Publication of KR20150130901A publication Critical patent/KR20150130901A/en
Application granted granted Critical
Publication of KR102282470B1 publication Critical patent/KR102282470B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6815Motion detection by distinguishing pan or tilt from motion
    • H04N5/23261
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • H04N5/225
    • H04N5/23245

Abstract

본 발명은 객체를 검출 및 추적할 수 있는 카메라 장치를 개시한다.
본 발명의 일 실시예에 따른 카메라 장치는, 감시 영역의 제1 방향에서 적어도 하나의 객체를 검출하고, 상기 적어도 하나의 객체에 대한 메타데이터를 생성하는 카메라; 및 상기 적어도 하나의 객체 중 선정된 타겟의 메타데이터를 기초로 상기 카메라의 팬, 틸트 및 줌 중 적어도 하나를 제어하는 카메라 제어부;를 포함한다.
The present invention discloses a camera device capable of detecting and tracking an object.
A camera device according to an embodiment of the present invention includes: a camera that detects at least one object in a first direction of a monitoring area and generates metadata for the at least one object; and a camera controller configured to control at least one of pan, tilt, and zoom of the camera based on metadata of a target selected from among the at least one object.

Description

카메라 장치 및 이를 이용한 객체 추적 방법{Camera apparatus and method of object tracking using the same}Camera apparatus and method of object tracking using the same

본 발명은 객체를 검출 및 추적할 수 있는 카메라 장치에 관한 것이다. The present invention relates to a camera device capable of detecting and tracking an object.

영상 센서를 통하여 획득한 영상 내에서 영상 분석 장치를 통하여 이동하는 객체를 식별하고, 이동하는 객체를 지속적으로 추적하기 위하여 팬/틸트/줌을 구동하는 자동 추적 기능이 사용되고 있다. An automatic tracking function of driving pan/tilt/zoom is used to identify a moving object through an image analysis device in an image acquired through an image sensor and continuously track the moving object.

본 발명은 영상을 분석하지 않고 카메라의 팬/틸트/줌을 구동함으로써 비용을 절감할 수 있는 카메라 장치를 제공하고자 한다. An object of the present invention is to provide a camera device capable of reducing costs by driving pan/tilt/zoom of a camera without analyzing an image.

본 발명의 바람직한 일 실시예에 따른 카메라 장치는, 감시 영역의 제1 방향에서 적어도 하나의 객체를 검출하고, 상기 적어도 하나의 객체에 대한 메타데이터를 생성하는 카메라; 및 상기 적어도 하나의 객체 중 선정된 타겟의 메타데이터를 기초로 상기 카메라의 팬, 틸트 및 줌 중 적어도 하나를 제어하는 카메라 제어부;를 포함한다. A camera device according to a preferred embodiment of the present invention includes: a camera that detects at least one object in a first direction of a monitoring area and generates metadata for the at least one object; and a camera controller configured to control at least one of pan, tilt, and zoom of the camera based on metadata of a target selected from among the at least one object.

상기 메타데이터는 객체의 좌표를 포함할 수 있다. The metadata may include coordinates of an object.

상기 카메라 제어부는, 상기 카메라가 상기 제1 방향을 유지하는 동안 생성한 메타데이터로부터, 상기 객체의 크기 및 중심 좌표를 산출하고, 상기 객체의 중심 좌표의 변화로부터 상기 객체의 벡터 정보를 산출할 수 있다. The camera control unit may calculate the size and center coordinates of the object from metadata generated while the camera maintains the first direction, and calculate vector information of the object from changes in the center coordinates of the object there is.

상기 벡터 정보는 객체의 이동거리, 이동방향 및 이동속도를 포함할 수 있다. The vector information may include a moving distance, a moving direction, and a moving speed of the object.

상기 카메라 제어부는, 상기 타겟의 크기 및 벡터 정보와 타 객체의 크기 및 벡터 정보의 비교에 의해 상기 타 객체를 필터링할 수 있다. The camera controller may filter the other object by comparing the size and vector information of the target with the size and vector information of the other object.

상기 카메라 제어부는, 기 설정된 크기를 갖는 객체를 타겟으로 설정할 수 있다. The camera controller may set an object having a preset size as a target.

상기 카메라 제어부는, 상기 카메라가 상기 제1 방향에서 획득한 영상에 제1 영역을 설정하고, 상기 타겟이 상기 제1 영역을 벗어나면, 상기 카메라가 상기 타겟을 향하는 제2 방향으로 이동하도록 상기 카메라의 팬 및 틸트를 제어할 수 있다. The camera control unit sets a first area in the image obtained by the camera in the first direction, and when the target leaves the first area, the camera moves in a second direction toward the target. You can control the pan and tilt of

상기 카메라 제어부는, 상기 제2 방향에서 타겟의 크기가 상기 제1 방향에서 타겟의 크기와 동일하도록 상기 카메라의 줌을 제어할 수 있다. The camera controller may control the zoom of the camera so that the size of the target in the second direction is the same as the size of the target in the first direction.

상기 카메라 제어부는, 상기 타겟의 이동속도를 기초로 상기 타겟에 제2 영역을 설정하고, 상기 제2 영역 외의 메타데이터를 제외하여 상기 제2 영역 외의 객체를 필터링할 수 있다. The camera controller may set a second area in the target based on the moving speed of the target, and filter objects other than the second area by excluding metadata other than the second area.

상기 카메라 제어부는, 상기 제2 영역 내에 존재하는 타 객체의 크기 및 벡터 정보와 상기 타겟의 크기 및 벡터 정보의 비교에 의해 상기 타 객체를 필터링할 수 있다. The camera controller may filter the other object by comparing the size and vector information of the other object existing in the second area with the size and vector information of the target.

본 발명의 바람직한 일 실시예에 따른 카메라를 이용한 객체 추적 방법은, 카메라가 감시 영역의 제1 방향에서 검출된 적어도 하나의 객체에 대한 메타데이터를 생성하는 단계; 카메라 제어부가 상기 메타데이터를 분석한 결과를 기초로 상기 적어도 하나의 객체 중 타겟을 선정하는 단계; 및 상기 선정된 타겟의 메타데이터를 기초로 상기 카메라의 팬, 틸트 및 줌 중 적어도 하나를 제어하는 제어신호를 출력하는 단계;를 포함한다. An object tracking method using a camera according to an embodiment of the present invention includes: generating, by the camera, metadata for at least one object detected in a first direction of a surveillance area; selecting, by a camera controller, a target among the at least one object based on a result of analyzing the metadata; and outputting a control signal for controlling at least one of pan, tilt, and zoom of the camera based on the metadata of the selected target.

상기 메타데이터는 객체의 좌표를 포함할 수 있다. The metadata may include coordinates of an object.

상기 제어신호 출력 단계는, 상기 카메라가 상기 제1 방향을 유지하는 동안 생성한 메타데이터로부터, 상기 객체의 크기 및 중심 좌표를 산출하는 단계; 및 상기 객체의 중심 좌표의 변화로부터 상기 객체의 벡터 정보를 산출하는 단계;를 포함할 수 있다. The outputting of the control signal may include: calculating the size and center coordinates of the object from metadata generated while the camera maintains the first direction; and calculating vector information of the object from a change in the center coordinates of the object.

상기 벡터 정보는 객체의 이동거리, 이동방향 및 이동속도를 포함할 수 있다. The vector information may include a moving distance, a moving direction, and a moving speed of the object.

상기 제어신호 출력 단계는, 상기 타겟의 크기 및 벡터 정보와 타 객체의 크기 및 벡터 정보의 비교에 의해 상기 타 객체를 필터링하는 단계;를 포함할 수 있다. The outputting of the control signal may include filtering the other object by comparing the size and vector information of the target with the size and vector information of the other object.

상기 타겟 선정 단계는, 기 설정된 크기를 갖는 객체를 타겟으로 설정하는 단계;를 포함할 수 있다. The target selection step may include setting an object having a preset size as a target.

상기 제어신호 출력 단계는, 상기 카메라가 상기 제1 방향에서 획득한 영상에 제1 영역을 설정하는 단계; 및 상기 타겟이 상기 제1 영역을 벗어나면, 상기 카메라가 상기 타겟을 향하는 제2 방향으로 이동하도록 상기 카메라의 팬 및 틸트 이동량을 산출하는 단계;를 포함할 수 있다. The step of outputting the control signal may include: setting, by the camera, a first region in the image acquired in the first direction; and calculating a pan and tilt movement amount of the camera so that the camera moves in a second direction toward the target when the target leaves the first area.

상기 제어신호 출력 단계는, 상기 제2 방향에서 타겟의 크기가 상기 제1 방향에서 타겟의 크기와 동일하도록 상기 카메라의 줌을 제어하는 제어신호를 출력하는 단계;를 포함할 수 있다. The outputting of the control signal may include outputting a control signal for controlling the zoom of the camera so that the size of the target in the second direction is the same as the size of the target in the first direction.

상기 제어신호 출력 단계는, 상기 타겟의 이동속도를 기초로 상기 타겟에 제2 영역을 설정하는 단계; 및 상기 제2 영역 외의 메타데이터를 제외하여 상기 제2 영역 외의 객체를 필터링하는 단계;를 포함할 수 있다. The step of outputting the control signal may include: setting a second area on the target based on the moving speed of the target; and filtering objects other than the second region by excluding metadata other than the second region.

상기 제어신호 출력 단계는, 상기 제2 영역 내에 존재하는 타 객체의 크기 및 벡터 정보와 상기 타겟의 크기 및 벡터 정보의 비교에 의해 상기 타 객체를 필터링하는 단계;를 포함할 수 있다. The outputting of the control signal may include filtering the other object by comparing the size and vector information of the other object existing in the second area with the size and vector information of the target.

본 발명의 실시예들은 영상 분석 없이, 객체의 메타데이터만을 이용하여 객체를 추적함으로써 비용을 절감할 수 있고, 움직이는 객체의 지속적인 추적이 가능한 카메라 장치를 제공할 수 있다.Embodiments of the present invention can reduce costs by tracking an object using only metadata of the object without image analysis, and provide a camera device capable of continuously tracking a moving object.

도 1은 본 발명의 실시예에 따른 카메라 시스템의 구성도이다.
도 2는 본 발명의 실시예에 따른 카메라 장치의 구성을 개략적으로 도시한 블록도이다.
도 3은 본원발명의 실시예에 따른 타겟 추적을 위한 가상 영역 설정을 나타내는 도면이다.
도 4는 본 발명의 실시예에 따른 카메라 장치의 객체 추적 방법을 설명하는 도면이다.
도 5는 본 발명의 실시예에 따른 카메라의 자세 제어 방법을 설명하는 흐름도이다.
도 6은 본 발명의 실시예에 따른 객체의 추적 방법을 설명하는 흐름도이다.
도 7은 본 발명의 다른 실시예에 따른 카메라 장치의 객체 추적 방법을 설명하는 도면이다.
도 8은 본 발명의 다른 실시예에 따른 객체 추적 방법을 설명하는 흐름도이다.
도 9는 본 발명의 실시예에 따른 객체 식별 방법을 설명하는 흐름도이다.
1 is a configuration diagram of a camera system according to an embodiment of the present invention.
2 is a block diagram schematically illustrating a configuration of a camera device according to an embodiment of the present invention.
3 is a diagram illustrating a virtual area setting for target tracking according to an embodiment of the present invention.
4 is a view for explaining an object tracking method of a camera device according to an embodiment of the present invention.
5 is a flowchart illustrating a method for controlling a posture of a camera according to an embodiment of the present invention.
6 is a flowchart illustrating a method of tracking an object according to an embodiment of the present invention.
7 is a view for explaining an object tracking method of a camera device according to another embodiment of the present invention.
8 is a flowchart illustrating an object tracking method according to another embodiment of the present invention.
9 is a flowchart illustrating an object identification method according to an embodiment of the present invention.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. Since the present invention can apply various transformations and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and it should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention. In describing the present invention, if it is determined that a detailed description of a related known technology may obscure the gist of the present invention, the detailed description thereof will be omitted.

이하의 실시예에서, 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. In the following embodiments, terms such as first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.

이하의 실시예에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 이하의 실시예에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in the following examples are only used to describe specific examples, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the following examples, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification is present, but one or more It should be understood that this does not preclude the possibility of addition or presence of other features or numbers, steps, operations, components, parts, or combinations thereof.

본 발명의 실시예들은 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 발명의 실시예들은 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 본 발명의 실시예의 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 본 발명의 실시예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 발명의 실시예들은 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. 매커니즘, 요소, 수단, 구성과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.Embodiments of the present invention may be represented by functional block configurations and various processing steps. These functional blocks may be implemented in any number of hardware and/or software configurations that perform specific functions. For example, embodiments of the present invention may be implemented directly, such as memory, processing, logic, look-up table, etc., capable of executing various functions by control of one or more microprocessors or other control devices. Circuit configurations may be employed. Similar to how components of an embodiment of the invention may be implemented as software programming or software elements, embodiments of the invention may include various algorithms implemented in combinations of data structures, processes, routines, or other programming constructs. , C, C++, Java, assembler, etc. may be implemented in a programming or scripting language. Functional aspects may be implemented in an algorithm running on one or more processors. Also, embodiments of the present invention may employ conventional techniques for electronic configuration, signal processing, and/or data processing, and the like. Terms such as mechanism, element, means, and configuration may be used broadly and are not limited to mechanical and physical configurations. The term may include the meaning of a series of routines of software in association with a processor or the like.

또한, 본 명세서 및 도면에 있어서, 실질적으로 동일한 구성을 갖는 구성 요소에 대해서는, 동일한 부호를 사용함으로써 중복 설명을 생략한다. In addition, in this specification and drawing, about the component which has substantially the same structure, duplicate description is abbreviate|omitted by using the same code|symbol.

도 1은 본 발명의 실시예에 따른 카메라 시스템의 구성도이다.1 is a configuration diagram of a camera system according to an embodiment of the present invention.

도 1을 참조하면, 본 실시예의 카메라 시스템은 카메라 장치(100), 및 통합 제어부(710)와 디스플레이부(720)를 포함하는 중앙 관리부(700)를 포함할 수 있다. 카메라 장치(100)는 유선 또는 무선의 네트워크(600)를 통하여 중앙 관리부(300)와 연결될 수 있다.Referring to FIG. 1 , the camera system according to the present embodiment may include a camera device 100 and a central management unit 700 including an integrated control unit 710 and a display unit 720 . The camera device 100 may be connected to the central management unit 300 through a wired or wireless network 600 .

카메라 장치(100)는 설정된 팬/틸트/줌으로 화각 내의 주변 환경을 연속적으로 촬영하여, 화각 내의 복수의 객체를 검출 및 추적할 수 있다. The camera device 100 may continuously photograph the surrounding environment within the field of view by using the set pan/tilt/zoom to detect and track a plurality of objects within the field of view.

카메라 장치(100)는 영상을 촬영하는 적어도 하나 이상의 네트워크 카메라(110) 및 적어도 하나 이상의 아날로그 카메라(160)를 포함할 수 있다. 네트워크 카메라(110)는 촬영한 영상을 저장하는 디지털 비디오 레코더(DVR: digital video recorder) 또는 네트워크 비디오 레코더(NVR: network video recorder)를 포함할 수 있다. 아날로그 카메라(160)는 촬영한 영상을 인코딩하는 인코더를 포함할 수 있다. 여기서 카메라 장치(100)는 상술한 내용으로 한정되지 않고, 네트워크(600)와 연결되어 중앙 관리부(700)로 영상을 전송할 수 있는 어떠한 장치도 가능하다.The camera device 100 may include at least one or more network cameras 110 and at least one analog camera 160 for capturing images. The network camera 110 may include a digital video recorder (DVR) or a network video recorder (NVR) that stores the captured image. The analog camera 160 may include an encoder for encoding the captured image. Here, the camera device 100 is not limited to the above description, and any device capable of transmitting an image to the central management unit 700 by being connected to the network 600 may be used.

중앙 관리부(700)는 카메라 장치(100)로부터 네트워크(600)를 통하여 영상을 수신할 수 있다. 중앙 관리부(700)는 카메라 장치(100)로부터 영상과 함께 객체 검출 및 추적에 따라 생성된 메타데이터를 함께 수신할 수 있다. The central management unit 700 may receive an image from the camera device 100 through the network 600 . The central management unit 700 may receive metadata generated according to object detection and tracking together with an image from the camera device 100 .

중앙 관리부(700)는 수신한 카메라 장치(100)의 영상들을 디스플레이하고, 디스플레이 중인 영상들을 모니터링할 수 있다. 중앙 관리부(700)는 카메라 장치(100)의 객체 검출 및 추적 결과와 카메라 장치(100)가 촬영한 영상을 분석하여 카메라 장치(100)를 제어할 수 있다.The central management unit 700 may display the received images of the camera device 100 and monitor the images being displayed. The central management unit 700 may control the camera device 100 by analyzing an object detection and tracking result of the camera device 100 and an image captured by the camera device 100 .

통합 제어부(710)는 중앙 관리부(700)의 동작을 제어하고, 제어 내용을 디스플레이부(720)에 표시할 수 있다.The integrated control unit 710 may control the operation of the central management unit 700 and display the control contents on the display unit 720 .

본 실시 예에서 통합 제어부(710)는 내부에 DSP 또는 영상 분석부(미도시)를 포함하여 네트워크(600)를 통해 수신한 카메라 장치(100)의 영상들로부터 이벤트를 감지할 수 있다. 통합 제어부(710)는 카메라 장치(100)로부터 수신한 영상을 분석하여 설정된 이벤트 발생 조건에 만족하는 경우 이벤트를 발생시킬 수 있다. In this embodiment, the integrated control unit 710 may include a DSP or an image analysis unit (not shown) therein to detect an event from images of the camera device 100 received through the network 600 . The integrated control unit 710 may generate an event when a set event generation condition is satisfied by analyzing the image received from the camera device 100 .

도 2는 본 발명의 실시예에 따른 카메라 장치의 구성을 개략적으로 도시한 블록도이다. 2 is a block diagram schematically illustrating a configuration of a camera device according to an embodiment of the present invention.

도 2를 참조하면, 카메라 장치(100)는 카메라(200), 카메라 제어부(300) 및 팬/틸트 모터(400)를 포함할 수 있다. Referring to FIG. 2 , the camera device 100 may include a camera 200 , a camera controller 300 , and a pan/tilt motor 400 .

카메라 장치(100)는 사무실, 주택, 병원은 물론 은행이나 보안이 요구되는 공공건물 등의 내외에 일체로 설치되어 출입관리나 방범용으로 사용되며, 그 설치 장소 및 사용목적에 따라 일자형, 돔형 등 다양한 형태를 가질 수 있다. The camera device 100 is integrally installed inside and outside of an office, house, hospital, as well as a bank or a public building requiring security, and is used for access control or crime prevention, and depending on the installation location and purpose of use, a straight-line type, a dome type, etc. It may have various forms.

카메라(200)는 광학부(201), 영상센서(202), 영상처리부(203), 객체감지부(204), 통신부(205), 전송부(206), 및 줌제어부(207)를 포함하고, 제1하우징(미도시)에 수용되며 촬영을 위해서 일부 구성요소는 제1하우징의 밖으로 돌출하도록 배치될 수 있다. The camera 200 includes an optical unit 201 , an image sensor 202 , an image processing unit 203 , an object detection unit 204 , a communication unit 205 , a transmission unit 206 , and a zoom control unit 207 , and , is accommodated in the first housing (not shown), and some components may be arranged to protrude out of the first housing for photographing.

광학부(201)는 줌 렌즈 및 포커스 렌즈, 광량 조절을 위한 조리개(iris) 등의 광학계를 포함할 수 있다. The optical unit 201 may include an optical system such as a zoom lens, a focus lens, and an iris for adjusting the amount of light.

영상센서(202)는 광학부(201)를 통과한 빛을 전기적인 영상 신호로 변환시킨다. 영상센서(202)는 CCD(Charge Coupled Device) 또는 CMOS(Complementary Metal-Oxide-Semiconductor) 등의 촬상소자를 포함한다. The image sensor 202 converts the light passing through the optical unit 201 into an electrical image signal. The image sensor 202 includes an image pickup device such as a Charge Coupled Device (CCD) or a Complementary Metal-Oxide-Semiconductor (CMOS).

영상처리부(203)는 영상센서(202)로부터의 디지털 영상 신호 또는 영상센서(202)로부터의 아날로그 영상 신호를 변경한 디지털 영상 신호에 대해 노이즈 제거 등 영상 신호 처리를 수행하고, 신호 처리된 영상 신호를 객체 감지부(204)와 전송부(206)로 각각 전송한다. 영상처리부(203)는 신호 처리된 디지털 영상 신호를 전송하거나, 아날로그 영상 신호로 변환하여 전송할 수 있다. The image processing unit 203 performs image signal processing such as noise removal on the digital image signal obtained by changing the digital image signal from the image sensor 202 or the analog image signal from the image sensor 202, and the signal-processed image signal is transmitted to the object detection unit 204 and the transmission unit 206 , respectively. The image processing unit 203 may transmit a signal-processed digital image signal or convert it into an analog image signal and transmit it.

객체감지부(204)는 영상처리부(203)로부터 수신한 영상 신호(이하, "영상"이라 함)로부터 객체를 검출할 수 있다. 예를 들어, 객체감지부(204)는 카메라(200)가 한 방향을 주시한 상태에서 획득한 현재 영상과 기준 영상 간의 차이 영상으로 객체의 국부 움직임을 검출할 수 있다. 기준 영상은 객체 감지를 위한 움직임 감지 기능이 활성화되는 순간 촬영되어 결정된다. 현재 영상은 기준 영상이 결정된 후 촬영된 영상이다. 기준 영상과 현재 영상은 카메라(200)의 화각에 의해 결정된다. 객체감지부(204)는 동일한 방향에서 생성된 기준 영상과 현재 영상의 단순 비교에 의해 객체를 검출할 수 있다. 본 발명의 객체감지부(204)가 객체의 국부 움직임을 검출하는 방법은 전술된 영상 차이를 이용하는 방법에 제한되지 않으며, 공지의 다양한 방법이 적용될 수 있음은 물론이다. The object detection unit 204 may detect an object from an image signal (hereinafter, referred to as “image”) received from the image processing unit 203 . For example, the object detecting unit 204 may detect the local motion of the object as a difference image between the current image and the reference image obtained while the camera 200 gazes in one direction. The reference image is captured and determined at the moment the motion detection function for object detection is activated. The current image is an image taken after the reference image is determined. The reference image and the current image are determined by the angle of view of the camera 200 . The object detecting unit 204 may detect an object by simple comparison of a reference image and a current image generated in the same direction. The method of detecting the local motion of the object by the object detecting unit 204 of the present invention is not limited to the method using the above-described image difference, and of course, various known methods may be applied.

객체감지부(204)는 객체 검출 결과의 집합인 메타데이터를 생성할 수 있다. 메타데이터는 영상 내에서 검출된 객체의 개수 및 각 객체의 좌표를 포함할 수 있다. 객체의 좌표는 객체 블럭의 좌측 상단 좌표 및 우측 하단 좌표를 포함할 수 있다. The object detection unit 204 may generate metadata that is a set of object detection results. The metadata may include the number of objects detected in the image and coordinates of each object. The coordinates of the object may include upper-left coordinates and lower-right coordinates of the object block.

통신부(205)는 생성된 메타데이터를 카메라 제어부(300)로 전송한다. The communication unit 205 transmits the generated metadata to the camera control unit 300 .

전송부(206)는 영상처리부(203)로부터 수신한 영상을 원격의 중앙 관리부(300)로 전송할 수 있다. The transmission unit 206 may transmit the image received from the image processing unit 203 to the remote central management unit 300 .

줌제어부(207)는 카메라 제어부(300)로부터 수신한 줌 이동량을 기초로 줌 제어신호를 생성하여 광학부(201)의 줌 렌즈 및 포커스 렌즈를 조절하여 주밍(Zooming, Zoom-in 또는 Zoom-out)을 수행하도록 할 수 있다. The zoom control unit 207 generates a zoom control signal based on the zoom movement amount received from the camera control unit 300 and adjusts the zoom lens and the focus lens of the optical unit 201 to zoom (Zooming, Zoom-in, or Zoom-out). ) can be done.

카메라가 영상을 획득하여 DSP(Digital Signal Processor) 또는 영상 분석부로 전송하여 객체를 검출하고 추적하는 방식은, DSP에서 영상을 분석하여 카메라의 자세를 결정한다. 예를 들어, 영상에는 카메라 이동에 의해 발생하는 전역 움직임과 객체의 국부 움직임이 동시에 존재하는데, 카메라가 이동함으로 인해 화면 전체가 움직임으로 감지될 수 있다. DSP는 일정 시간 간격으로 입력되는 연속하는 두 개의 이전 영상과 현재 영상 사이의 전역 움직임을 추정하고, 전역 움직임이 보상된 이전 영상을 획득할 수 있다. DSP는 보상된 이전 영상과 현재 영상 간의 특징점 추출(예를 들어, 휘도 정보, 색상 정도, 에지 정보, 위치 정보 등)에 의해 객체를 감지할 수 있다. 즉, DSP는 화면 전체에 대해 움직임을 검출함으로써 연산량이 많고, 또한 실시간 적용을 위해 성능이 좋은 DSP를 사용하는 경우 비용을 증가시킨다. The camera acquires an image and transmits it to a digital signal processor (DSP) or an image analyzer to detect and track an object. The DSP analyzes the image to determine the camera's posture. For example, in an image, a global motion generated by a camera movement and a local motion of an object exist at the same time, and the entire screen may be detected as a motion due to the camera movement. The DSP may estimate a global motion between two consecutive previous images and a current image input at a predetermined time interval, and obtain a previous image in which the global motion is compensated. The DSP may detect an object by extracting feature points between the compensated previous image and the current image (eg, luminance information, color depth, edge information, location information, etc.). That is, the DSP has a large amount of computation by detecting motion on the entire screen, and also increases the cost when a DSP with good performance is used for real-time application.

본 발명의 실시예는 카메라 제어부(300)가 DSP를 구비하지 않고, 카메라(200)가 설정된 자세를 유지한 상태에서 입력되는 영상으로부터 적은 연산량으로 객체의 국부 움직임을 검출하여 메타데이터를 생성하고, 카메라 제어부(300)로 영상이 아닌 메타데이터만을 전송한다. 카메라 제어부(300)는 메타데이터를 분석 및 처리하여 카메라(200)의 자세를 제어할 수 있다. 이에 따라, 본 발명의 실시예에 따른 카메라 장치(100)는 객체 추적을 위한 연산량과 처리 시간을 줄이면서 비용을 절감함과 동시에, 실시간으로 객체를 추적할 수 있다. In an embodiment of the present invention, the camera control unit 300 does not have a DSP, and the camera 200 generates metadata by detecting a local motion of an object with a small amount of computation from an input image while maintaining a set posture, Only metadata, not an image, is transmitted to the camera controller 300 . The camera controller 300 may control the posture of the camera 200 by analyzing and processing metadata. Accordingly, the camera device 100 according to an embodiment of the present invention can reduce the amount of computation and processing time for object tracking, reduce costs, and simultaneously track the object in real time.

카메라 제어부(300)는 제1하우징 또는 제1하우징과 결합된 제2하우징(미도시) 내에 수용될 수 있다. 카메라 제어부(300)는 카메라(200)의 팬/틸트/줌 제어, 즉 자세를 제어할 수 있다. The camera controller 300 may be accommodated in a first housing or a second housing (not shown) coupled to the first housing. The camera controller 300 may control the pan/tilt/zoom control of the camera 200 , that is, the posture.

카메라 제어부(300)는 통신부(301), 메타데이터 처리부(303) 및 모터제어부(305)를 포함할 수 있다. The camera control unit 300 may include a communication unit 301 , a metadata processing unit 303 , and a motor control unit 305 .

통신부(301)는 카메라(200)의 통신부(205)와 시리얼 포트 등으로 접속될 수 있고, 카메라(200)의 통신부(205)로부터 객체 각각에 대한 메타데이터를 수신할 수 있다. The communication unit 301 may be connected to the communication unit 205 of the camera 200 through a serial port or the like, and may receive metadata for each object from the communication unit 205 of the camera 200 .

메타데이터 처리부(303)는 수신한 메타데이터와 카메라(200)의 줌 배율을 분석한다. 메타데이터 처리부(303)는 메타데이터에 포함된 객체의 좌표로부터 객체의 크기(폭 및 높이) 및 중심 좌표(X,Y)를 산출할 수 있다. 메타데이터 처리부(303)는 객체의 좌표 변화, 즉 객체의 중심 좌표의 변화로부터 벡터 정보를 산출할 수 있다. 벡터 정보는 객체의 이동거리, 이동방향 및 이동속도를 포함할 수 있다. 이하에서는 객체의 크기 및 벡터 정보를 객체의 움직임 정보라 한다. The metadata processing unit 303 analyzes the received metadata and the zoom magnification of the camera 200 . The metadata processing unit 303 may calculate the size (width and height) and center coordinates (X,Y) of the object from the coordinates of the object included in the metadata. The metadata processing unit 303 may calculate vector information from a change in the coordinates of the object, that is, a change in the center coordinates of the object. The vector information may include a moving distance, a moving direction, and a moving speed of the object. Hereinafter, the size and vector information of the object is referred to as motion information of the object.

예를 들어, 메타데이터 처리부(303)는 객체의 이전 좌표와 현재 좌표 간의 X축 및 Y축의 이동거리 및 이동방향을 계산할 수 있다. 소정 시간 간격으로 입력된 객체의 제1 중심 좌표(X1,Y1)와 제2 중심 좌표(X2,Y2)를 가지고 벡터 정보를 추출할 수 있다. 이 경우 X축으로의 이동거리는 (X2-X1)이 되고, 이동방향은 연산된 값이 0보다 클 때는 정방향, 0보다 작을 때는 역방향으로 추정할 수 있다. 마찬가지로 Y축으로의 이동거리는 (Y2-Y1)이 되고, 이동방향은 연산된 값이 0보다 클 때는 정방향, 0보다 작을 때는 역방향으로 추정할 수 있다. For example, the metadata processing unit 303 may calculate the movement distance and movement direction of the X-axis and Y-axis between the previous coordinates and the current coordinates of the object. Vector information may be extracted with the first center coordinates (X1, Y1) and the second center coordinates (X2, Y2) of the object input at predetermined time intervals. In this case, the movement distance along the X-axis becomes (X2-X1), and the movement direction can be estimated in the forward direction when the calculated value is greater than 0, and in the reverse direction when the calculated value is less than 0. Similarly, the movement distance along the Y axis becomes (Y2-Y1), and the movement direction can be estimated in the forward direction when the calculated value is greater than 0, and in the reverse direction when the calculated value is less than 0.

그리고, 메타데이터 처리부(303)는 객체의 이동속도를 계산할 수 있다. 이동속도는 이동거리 및 줌 배율에 따라 달라질 수 있다. 이동거리에 비례하여 이동속도는 빨라지고, 줌 배율이 증가하여 화각이 줄어드는 비율만큼 이동속도는 감소한다. In addition, the metadata processing unit 303 may calculate the moving speed of the object. The moving speed may vary depending on the moving distance and zoom magnification. The movement speed increases in proportion to the movement distance, and the movement speed decreases by the rate at which the angle of view decreases as the zoom magnification increases.

또한, 메타데이터 처리부(303)는 팬(PAN) 및 틸트(TILT)를 동시 구동 시에 동기화를 위해 X축과 Y축 보간법을 적용하여 벡터 정보를 산출할 수 있다. In addition, the metadata processing unit 303 may calculate vector information by applying an X-axis and Y-axis interpolation method for synchronization when the pan and the tilt TILT are simultaneously driven.

메타데이터 처리부(303)는 객체의 크기를 기초로 추적 대상, 즉 타겟을 선정할 수 있다. 타겟 선정 기준은 영상의 세로 길이의 소정 비율 또는 가로 길이의 소정 비율로 설정될 수 있다. 메타데이터 처리부(303)는 객체의 가로 길이(폭) 및 세로 길이(높이) 중 적어도 하나가 타겟 선정 기준에 해당하면 타겟으로 선정할 수 있다. 객체의 폭은 객체의 좌측 상단 좌표와 우측 하단 좌표의 x값의 차이로부터 산출될 수 있다. 객체의 높이는 객체의 좌측 상단 좌표와 우측 하단 좌표의 y값의 차이로부터 산출될 수 있다. 예를 들어, 메타데이터 처리부(303)는 영상의 세로 길이의 1/4, 1/2, 또는 3/4의 세로 길이(높이)를 갖는 객체가 일정 시간(예를 들어, 10 개의 영상 프레임) 동안 연속으로 움직이는 것으로 감지될 때 타겟으로 선정할 수 있다. 타겟 선정 기준은 전술된 비율에 한하지 않는다. The metadata processing unit 303 may select a tracking target, that is, a target based on the size of the object. The target selection criterion may be set to a predetermined ratio of a vertical length or a predetermined ratio of a horizontal length of the image. When at least one of a horizontal length (width) and a vertical length (height) of the object corresponds to the target selection criterion, the metadata processing unit 303 may select the object as a target. The width of the object may be calculated from the difference between the x value of the upper left coordinate and the lower right coordinate of the object. The height of the object may be calculated from a difference between the y value of the upper left coordinate and the lower right coordinate of the object. For example, the metadata processing unit 303 determines that an object having a vertical length (height) of 1/4, 1/2, or 3/4 of the vertical length of the image is displayed for a certain period of time (eg, 10 image frames). It can be selected as a target when it is detected as moving continuously during a period of time. The target selection criterion is not limited to the above-described ratio.

메타데이터 처리부(303)는 타겟이 카메라의 화각 범위를 이탈하는 것을 방지하도록 카메라(200)의 팬/틸트/줌을 제어할 수 있다. 메타데이터 처리부(303)는 영상의 중앙에 타겟의 중심 좌표가 위치하도록 카메라(200)를 이동시키는 팬/틸트/줌 이동량을 산출할 수 있다. The metadata processing unit 303 may control the pan/tilt/zoom of the camera 200 to prevent the target from departing from the range of the camera's angle of view. The metadata processing unit 303 may calculate a pan/tilt/zoom movement amount for moving the camera 200 so that the center coordinates of the target are located in the center of the image.

메타데이터 처리부(303)는 제1 방향에서 촬영된 제1 영상에 가상의 제1 영역을 설정할 수 있다. 제1 영역은 제1 영상의 중심을 기준으로 설정된 카메라(200)의 팬/틸트 이동 임계 영역이다. 제1 영역의 범위는 사용자의 설정에 따라 또는 타겟(타겟의 유형, 타겟의 이동속도 등)에 따라 조정 가능하다. 제1 영상의 중앙에 위치했던 타겟이 제1 영역을 벗어나면 메타데이터 처리부(303)는 카메라(200)를 제2 방향으로 이동시키기 위한 팬 및 틸트 이동량을 산출할 수 있다. 제2 방향은 타겟이 제2 방향에서 획득된 제2 영상의 중앙에 위치하도록 하는 방향이다. 메타데이터 처리부(303)는 제2 영상의 중앙에 위치한 타겟의 크기가 제1 영상의 중앙에 타겟이 위치할 때의 크기와 동일하도록 카메라(200)의 줌을 제어하는 줌 이동량을 산출할 수 있다. 메타데이터 처리부(303)는 카메라(200)의 줌 이동량을 통신부(301)를 통해 카메라(200)로 전송할 수 있다. The metadata processing unit 303 may set a first virtual region in the first image captured in the first direction. The first region is a critical region for pan/tilt movement of the camera 200 set based on the center of the first image. The range of the first area can be adjusted according to a user's setting or a target (type of target, moving speed of the target, etc.). When the target located at the center of the first image deviates from the first area, the metadata processing unit 303 may calculate a pan and tilt movement amount for moving the camera 200 in the second direction. The second direction is a direction in which the target is positioned at the center of the second image acquired in the second direction. The metadata processing unit 303 may calculate a zoom movement amount for controlling the zoom of the camera 200 so that the size of the target located in the center of the second image is the same as the size when the target is located in the center of the first image. . The metadata processing unit 303 may transmit the zoom movement amount of the camera 200 to the camera 200 through the communication unit 301 .

메타데이터 처리부(303)는 타겟에 가상의 제2 영역을 설정할 수 있다. 제2 영역은 타겟의 이동속도를 고려하여 결정되는 타겟의 이동 가능 범위이다. 메타데이터 처리부(303)는 제2 영역 외의 메타데이터를 제외하고, 제2 영역의 메타데이터만을 분석함으로써, 타겟의 이동 가능 범위 외에 있는 타겟이 아닌 객체를 필터링할 수 있다. The metadata processing unit 303 may set a second virtual region in the target. The second area is a movable range of the target determined in consideration of the target's moving speed. The metadata processing unit 303 may filter out non-target objects outside the movable range of the target by excluding metadata other than the second area and analyzing only the metadata of the second area.

메타데이터 처리부(303)는 타겟이 제1 영역을 벗어나는 경우, 타겟의 이전 메타데이터 분석 결과를 타 객체의 현재 메타데이터 분석 결과와 비교하여 타겟을 식별함으로써 타겟을 추적할 수 있다. 타겟의 중심 좌표가 제1 영역에 속하지 않으면 제1 영역을 벗어나는 것으로 판단할 수 있다. 메타데이터 처리부(303)는 타겟의 크기, 이동거리, 이동방향을 타 객체의 크기, 이동거리, 이동방향과 비교하여 타겟을 식별할 수 있다. 메타데이터 처리부(303)는 크기, 이동거리, 이동방향의 일부 또는 전부를 비교할 수 있다. 예를 들어, 메타데이터 처리부(303)는 크기를 먼저 비교하고, 크기가 동일하면 이동거리를 비교하고, 이동거리가 동일한 경우 이동방향을 비교할 수 있다. When the target is out of the first area, the metadata processing unit 303 may track the target by comparing the previous metadata analysis result of the target with the current metadata analysis result of another object to identify the target. If the center coordinates of the target do not belong to the first area, it may be determined that the target is out of the first area. The metadata processing unit 303 may identify the target by comparing the size, movement distance, and movement direction of the target with the size, movement distance, and movement direction of other objects. The metadata processing unit 303 may compare some or all of the size, movement distance, and movement direction. For example, the metadata processing unit 303 may compare sizes first, compare the movement distances if the sizes are the same, and compare the movement directions if the movement distances are the same.

메타데이터 처리부(303)는 타겟에 설정된 제2 영역 내에 타 객체가 존재하는 경우에도 타겟의 이전 메타데이터 분석 결과를 타 객체의 현재 메타데이터 분석 결과와 비교하여 타겟을 식별함으로써 타겟을 추적할 수 있다. The metadata processing unit 303 may track the target by identifying the target by comparing the previous metadata analysis result of the target with the current metadata analysis result of the other object even when another object exists in the second area set in the target. .

모터제어부(305)는 팬 및 틸트 이동량을 기초로 팬/틸트 모터(400)의 구동을 제어하는 모터 제어신호를 생성할 수 있다. 모터제어부(305)는 객체의 움직임 정보와 모터 스텝각, 기어비, 마이크로 스텝 등 카메라 장치(100)의 조건을 고려하여, 팬 및 틸트 이동량을 모터 구동을 위한 펄스 신호로 변환할 수 있다. The motor controller 305 may generate a motor control signal for controlling the driving of the pan/tilt motor 400 based on the amount of pan and tilt movement. The motor controller 305 may convert the amount of pan and tilt movement into a pulse signal for driving the motor in consideration of the motion information of the object and conditions of the camera device 100 such as a motor step angle, a gear ratio, and a micro step.

팬/틸트 모터(400)는 팬 모터와 틸트 모터를 포함하고, 팬 모터와 틸트 모터는 각각 제1하우징 또는 제2하우징에 수용될 수 있다. 팬 모터와 틸트 모터는 스텝 모터 또는 펄스 모터로 구현될 수 있다. 팬 모터는 팬 모터 구동 펄스 신호에 따라 카메라(200)를 좌우 방향으로 회전시키고, 틸트 모터는 틸트 모터 구동 펄스 신호에 따라 카메라(200)를 상하 방향으로 조절할 수 있다. 팬 모터와 틸트 모터는 각각 별도로 또는 동시에 제어될 수 있다. The pan/tilt motor 400 includes a pan motor and a tilt motor, and the pan motor and the tilt motor may be accommodated in the first housing or the second housing, respectively. The pan motor and the tilt motor may be implemented as a step motor or a pulse motor. The pan motor rotates the camera 200 in the left and right directions according to the fan motor driving pulse signal, and the tilt motor may control the camera 200 in the vertical direction according to the tilt motor driving pulse signal. The pan motor and tilt motor can each be controlled separately or simultaneously.

도 3은 본원발명의 실시예에 따른 타겟 추적을 위한 가상 영역 설정을 나타내는 도면이다.3 is a diagram illustrating a virtual area setting for target tracking according to an embodiment of the present invention.

도 3(a)에 도시된 바와 같이, 메타데이터 처리부(303)는 영상에 가상의 제1 영역(LA)을 설정할 수 있다. 메타데이터 처리부(303)는 타겟(A)이 제1 영역(LA)을 벗어나면, 카메라(200)의 팬/틸트 이동량을 산출하고, 모터 제어부(305)가 팬/틸트 제어신호를 출력하여 카메라(200)를 이동시킨다. 이에 따라 타겟(A)이 다시 영상의 중앙(P)에 위치된다. 메타데이터 처리부(303)는 카메라(200)의 팬/틸트가 제어된 후 타겟(A)의 크기가 일정하도록 카메라(200)의 줌 배율을 제어할 수 있다. As shown in FIG. 3A , the metadata processing unit 303 may set a virtual first area LA in the image. The metadata processing unit 303 calculates the pan/tilt movement amount of the camera 200 when the target A leaves the first area LA, and the motor control unit 305 outputs a pan/tilt control signal to the camera (200) is moved. Accordingly, the target (A) is again located in the center (P) of the image. The metadata processing unit 303 may control the zoom magnification of the camera 200 so that the size of the target A is constant after the pan/tilt of the camera 200 is controlled.

도 3(b)에 도시된 바와 같이, 메타데이터 처리부(303)는 영상에 가상의 제1 영역(LA)을 설정하고, 타겟에 가상의 제2 영역(MA)을 설정할 수 있다. 메타데이터 처리부(303)는 타겟(A)이 제1 영역(LA)을 벗어나면, 카메라(200)의 팬/틸트 이동량을 산출하고, 모터 제어부(305)가 팬/틸트 제어신호를 출력하여 카메라(200)를 이동시킨다. 이에 따라 타겟(A)이 다시 영상의 중앙(P)에 위치된다. 메타데이터 처리부(303)는 카메라(200)의 팬/틸트가 제어된 후 타겟(A)의 크기가 일정하도록 카메라(200)의 줌 배율을 제어할 수 있다. 메타데이터 처리부(303)는 제2 영역(MA) 내의 메타데이터만 이용함으로써, 제2 영역(MA) 외의 영역에 존재하는 타 객체를 타겟으로 인식하여 추적하는 오류를 줄일 수 있다. As illustrated in FIG. 3B , the metadata processing unit 303 may set a virtual first area LA in the image and set a virtual second area MA in the target. The metadata processing unit 303 calculates the pan/tilt movement amount of the camera 200 when the target A leaves the first area LA, and the motor control unit 305 outputs a pan/tilt control signal to the camera (200) is moved. Accordingly, the target (A) is again located in the center (P) of the image. The metadata processing unit 303 may control the zoom magnification of the camera 200 so that the size of the target A is constant after the pan/tilt of the camera 200 is controlled. By using only metadata within the second area MA, the metadata processing unit 303 may reduce errors in recognizing and tracking other objects existing in areas other than the second area MA as targets.

도 4는 본 발명의 실시예에 따른 카메라 장치의 객체 추적 방법을 설명하는 예이다. 4 is an example for explaining an object tracking method of a camera device according to an embodiment of the present invention.

카메라 제어부(300)는 카메라(200)로부터 복수의 객체들(A, B, C)에 대한 메타데이터를 수신한다. 카메라 제어부(300)는 복수의 객체들(A, B, C)의 메타데이터를 분석한다. 카메라 제어부(300)는 복수의 객체들(A, B, C) 중 타겟 선정 기준에 매칭하는 객체(A)를 타겟으로 선정한다. 카메라 제어부(300)는 도 4(a)에 도시된 바와 같이, 복수의 객체들(A, B, C) 중 타겟(A)이 영상의 중앙(P)에 위치하도록 카메라(200)의 팬/틸트/줌을 제어한다. The camera controller 300 receives metadata for the plurality of objects A, B, and C from the camera 200 . The camera controller 300 analyzes metadata of the plurality of objects A, B, and C. The camera controller 300 selects, as a target, an object A matching a target selection criterion among a plurality of objects A, B, and C. As shown in FIG. 4( a ), the camera control unit 300 controls the camera 200 so that the target A among the plurality of objects A, B, and C is located at the center P of the image. Tilt/zoom control.

카메라 제어부(300)는 카메라(200)의 줌 이동량을 카메라(200)로 전송하고, 카메라(200)의 팬/틸트 이동량에 대응하는 자세 제어값을 생성한다. 팬/틸트 모터(400)는 자세 제어값에 따라 패닝 및 틸팅함으로써 카메라(200)의 팬/틸트가 제어된다. 카메라(200)는 줌 이동량에 따라 줌 렌즈와 포커스 렌즈를 조절하여 타겟(A)의 크기를 일정하게 유지한다. The camera controller 300 transmits the zoom movement amount of the camera 200 to the camera 200 and generates an attitude control value corresponding to the pan/tilt movement amount of the camera 200 . The pan/tilt motor 400 controls the pan/tilt of the camera 200 by panning and tilting according to the attitude control value. The camera 200 maintains the size of the target A constant by adjusting the zoom lens and the focus lens according to the zoom movement amount.

타겟(A)이 제1 영역(LA) 내에 존재하는 동안에는 카메라(200)의 팬/틸트/줌은 고정된다. 즉 카메라(200)는 일정한 자세로 정면의 영상을 획득하고, 획득된 영상에서 복수의 객체들(A, B, C)의 메타데이터를 생성하고, 카메라 제어부(300)는 수신되는 메타데이터를 분석하여 산출된 객체별 움직임 정보를 메모리(미도시)에 저장할 수 있다. While the target A exists in the first area LA, the pan/tilt/zoom of the camera 200 is fixed. That is, the camera 200 acquires an image of the front in a certain posture, generates metadata of a plurality of objects A, B, and C from the acquired image, and the camera controller 300 analyzes the received metadata Thus, the calculated motion information for each object may be stored in a memory (not shown).

도 4(b)에 도시된 바와 같이, 타겟(A)이 제1 영역(LA)을 벗어나면, 카메라 제어부(300)로부터의 팬/틸트/줌 제어신호에 의해 카메라(200)가 팬/틸트되어 카메라(200)는 새로운 자세로 이동한다. 카메라 제어부(300)는 타겟(A)이 제1 영역(LA) 내에 존재하는 동안 산출된 움직임 정보(크기 및 벡터 정보)를 기초로, 특히 타겟(A)이 제1 영역(LA)을 벗어나기 직전의 움직임 정보를 기초로, 제1 영역(LA) 바깥에 존재하는 복수의 객체들 중 타겟(A)을 식별하여 타겟(A)을 추적할 수 있다. 카메라 제어부(300)는 타겟(A)이 제1 영역(LA) 내에 존재하는 동안 산출된 움직임 정보를 기초로, 복수의 객체들에 대하여 실시간으로 수신되는 메타데이터들 중 타겟(A)의 메타데이터를 선별할 수 있다. 예를 들어, 카메라 제어부(300)는 타겟(A)이 제1 영역(LA) 내에 존재하는 동안 산출된 타겟(A)의 이동거리 및 이동방향을 고려하여 다음 이동거리 및 이동방향을 추정할 수 있고, 수신되는 메타데이터들의 분석 결과 중 타겟(A)의 크기와 추정된 이동거리 및 이동방향에 가장 근접한 분석 결과를 주는 메타데이터를 선택할 수 있다. As shown in FIG. 4(b) , when the target A leaves the first area LA, the camera 200 pans/tilts according to a pan/tilt/zoom control signal from the camera controller 300 . and the camera 200 moves to a new posture. The camera controller 300 controls the target A based on the motion information (magnitude and vector information) calculated while the target A is in the first area LA, particularly just before the target A leaves the first area LA. Based on the motion information of , the target A may be tracked by identifying the target A among a plurality of objects existing outside the first area LA. The camera control unit 300 determines the target A's metadata from among the metadata received in real time with respect to the plurality of objects based on the motion information calculated while the target A exists in the first area LA. can be selected. For example, the camera control unit 300 may estimate the next moving distance and moving direction in consideration of the moving distance and moving direction of the target A calculated while the target A is present in the first area LA. Also, it is possible to select metadata that gives an analysis result that is closest to the size of the target A, the estimated movement distance, and the movement direction from among the analysis results of the received metadata.

이하에서는 전술된 내용과 중복하는 내용의 상세한 설명은 생략하겠다. Hereinafter, a detailed description of the content overlapping with the above-described content will be omitted.

도 5는 본 발명의 실시예에 따른 카메라의 자세 제어 방법을 설명하는 흐름도이다. 5 is a flowchart illustrating a method for controlling a posture of a camera according to an embodiment of the present invention.

도 5를 참조하면, 카메라는 현재 카메라가 주시하는 방향의 감시 영역을 촬영한 영상에서 적어도 하나의 객체를 검출할 수 있다(S52). Referring to FIG. 5 , the camera may detect at least one object from an image obtained by photographing a monitoring area in a direction the camera is currently looking at ( S52 ).

카메라는 객체의 정보를 나타내는 메타데이터를 생성할 수 있다(S54). 메타데이터는 영상 내에서 검출된 객체의 개수 및 각 객체의 좌표를 포함할 수 있다. 객체의 좌표는 객체 블럭의 좌측 상단 좌표 및 우측 하단 좌표를 포함할 수 있다. 카메라는 객체의 메타데이터를 카메라 제어부로 전송할 수 있다. The camera may generate metadata representing information of the object (S54). The metadata may include the number of objects detected in the image and coordinates of each object. The coordinates of the object may include upper-left coordinates and lower-right coordinates of the object block. The camera may transmit metadata of the object to the camera controller.

카메라 제어부는 객체의 메타데이터를 수신하고, 메타데이터 및 줌 배율을 기초로 객체의 움직임 정보를 산출할 수 있다(S56). 객체의 좌표로부터 객체의 크기 및 중심 좌표를 산출할 수 있다. 객체의 중심 좌표 변화로부터 객체의 벡터 정보를 산출할 수 있다. 객체의 움직임 정보는 현재의 PTZ 값을 유지한 카메라가 촬영한 영상 내에서 객체의 국부 움직임을 나타내며, 객체의 크기 및 벡터 정보를 포함할 수 있다. 벡터 정보는 객체의 이동거리, 이동방향 및 이동속도를 포함할 수 있다. 카메라 제어부는 각 객체의 크기를 기초로 타겟을 선정할 수 있다. The camera controller may receive the metadata of the object, and calculate motion information of the object based on the metadata and the zoom magnification (S56). The size and center coordinates of the object may be calculated from the coordinates of the object. Vector information of the object can be calculated from the change of the coordinates of the center of the object. The object motion information indicates a local motion of the object in an image captured by a camera that maintains the current PTZ value, and may include object size and vector information. The vector information may include a moving distance, a moving direction, and a moving speed of the object. The camera controller may select a target based on the size of each object.

카메라 제어부는 객체의 움직임 정보를 기초로 카메라의 팬/틸트/줌(PTZ)을 제어할 수 있다(S58). 카메라 제어부는 선정된 타겟이 영상의 중앙에 위치하도록 카메라의 팬/틸트/줌(PTZ)을 제어할 수 있다. 카메라 제어부는 타겟이 영상의 제1 영역을 벗어나면 다시 타겟이 영상의 중앙에 위치하도록 카메라의 팬/틸트/줌(PTZ)을 제어할 수 있다. The camera controller may control pan/tilt/zoom (PTZ) of the camera based on the motion information of the object (S58). The camera controller may control the pan/tilt/zoom (PTZ) of the camera so that the selected target is located in the center of the image. The camera controller may control the pan/tilt/zoom (PTZ) of the camera so that the target is again located in the center of the image when the target is out of the first area of the image.

도 6은 본 발명의 실시예에 따른 객체의 추적 방법을 설명하는 흐름도이다. 6 is a flowchart illustrating a method for tracking an object according to an embodiment of the present invention.

도 6을 참조하면, 카메라 제어부는 선정된 타겟이 영상의 중앙에 위치하도록 카메라의 자세 제어값과 줌 배율을 결정하고, 생성된 자세 제어값과 줌 배율에 의해 카메라의 PTZ가 제어된다(S62). Referring to FIG. 6 , the camera controller determines the posture control value and zoom magnification of the camera so that the selected target is located in the center of the image, and the PTZ of the camera is controlled by the generated posture control value and zoom magnification (S62) .

카메라 제어부는 카메라가 현재의 PTZ 상태에서 촬영되는 영상에 제1 영역을 설정하고, 타겟이 제1 영역 내에 존재하는 동안 카메라로부터 수신되는 타겟의 메타데이터를 분석하여 타겟의 움직임 정보를 산출할 수 있다(S64). The camera controller may set the first area in the image captured by the camera in the current PTZ state, and calculate the target's motion information by analyzing the metadata of the target received from the camera while the target is in the first area. (S64).

카메라 제어부는 타겟이 영상의 제1 영역을 벗어나면 기 산출된 움직임 정보를 기초로 타겟을 추적할 수 있다(S66). 카메라 제어부는 제1 영역 밖에 존재하는 복수의 객체들 중, 타겟이 제1 영역 내에 존재하는 동안 산출된 움직임 정보를 기초로 복수의 객체들 중 타겟을 식별할 수 있다. 카메라 제어부는 타겟의 크기, 이동거리 및 이동방향을 정해진 순서에 따라 객체들의 크기, 이동거리 및 이동방향과 비교하여 복수의 객체들 중 타겟을 식별할 수 있다. 카메라 제어부는 식별된 타겟이 영상의 중앙에 위치하도록 카메라의 자세 제어값 및 줌 배율을 결정하고, 결정된 자세 제어값 및 줌 배율에 의해 카메라의 PTZ가 제어된다. 줌 제어에 의해 타겟의 크기는 일정하게 유지될 수 있다. When the target leaves the first area of the image, the camera control unit may track the target based on pre-calculated motion information (S66). The camera controller may identify a target among a plurality of objects among a plurality of objects existing outside the first area based on motion information calculated while the target exists in the first area. The camera controller may identify the target among the plurality of objects by comparing the size, movement distance, and movement direction of the target with the size, movement distance, and movement direction of the objects in a predetermined order. The camera controller determines the posture control value and zoom magnification of the camera so that the identified target is located in the center of the image, and the PTZ of the camera is controlled by the determined posture control value and zoom magnification. The size of the target may be kept constant by the zoom control.

도 7은 본 발명의 다른 실시예에 따른 카메라 장치의 객체 추적 방법을 설명하는 도면이다. 7 is a view for explaining an object tracking method of a camera device according to another embodiment of the present invention.

도 7(a)에 도시된 바와 같이, 카메라 제어부(300)는 카메라(200)로부터 감시 영역에서 감지된 복수의 객체들(11 내지 14)에 대한 메타데이터를 수신한다. 카메라 제어부(300)는 카메라(200)의 화각에 대응하는 영상 내에서 가상의 제1 영역(LA)을 설정한다. As shown in FIG. 7A , the camera controller 300 receives metadata for a plurality of objects 11 to 14 detected in the monitoring area from the camera 200 . The camera controller 300 sets the virtual first area LA in the image corresponding to the angle of view of the camera 200 .

카메라 제어부(300)는 복수의 객체들(11 내지 14) 중 기 설정된 크기를 갖는 객체를 타겟으로 선택할 수 있다. 예를 들어, 영상의 가로 길이 또는 세로 길이의 소정 비율을 갖는 객체를 타겟으로서 선택할 수 있다. 도 7(a)의 예에서는 객체(13)가 타겟으로 선택되었다. The camera controller 300 may select an object having a preset size among the plurality of objects 11 to 14 as a target. For example, an object having a predetermined ratio of a horizontal length or a vertical length of an image may be selected as a target. In the example of FIG. 7( a ), the object 13 is selected as a target.

도 7(b)에 도시된 바와 같이, 카메라 제어부(300)는 타겟인 객체(13)가 영상의 중앙에 위치하도록 카메라(200)의 팬/틸트를 제어한다. 카메라 제어부(300)는 팬/틸트 이동량에 대응하는 자세 제어값을 생성한다. 팬/틸트 모터(400)는 자세 제어값에 따라 패닝 및 틸팅함으로써 카메라(200)의 팬/틸트를 제어한다. 카메라 제어부(300)는 카메라(200)의 줌 배율을 제어하여 타겟(13)의 크기를 결정한다. As shown in FIG. 7B , the camera controller 300 controls the pan/tilt of the camera 200 so that the target object 13 is located in the center of the image. The camera controller 300 generates an attitude control value corresponding to the pan/tilt movement amount. The pan/tilt motor 400 controls the pan/tilt of the camera 200 by panning and tilting according to the attitude control value. The camera controller 300 determines the size of the target 13 by controlling the zoom magnification of the camera 200 .

카메라 제어부(300)는 카메라(200)가 PTZ를 유지한 상태에서 촬영한 영상의 제1 영역(LA) 내에서 움직이는 타겟(13)에 대한 메타데이터를 분석하여 타겟(13)의 크기 및 중심 좌표를 산출한다. 카메라 제어부(300)는 타겟(13)의 현재 좌표와 이전 좌표를 통해 타겟의 크기 및 벡터 정보를 산출할 수 있다. 벡터 정보는 객체의 이동속도, 이동방향 및 이동거리를 포함한다. The camera control unit 300 analyzes the metadata of the target 13 moving in the first area LA of the image captured by the camera 200 while maintaining the PTZ, and the size and center coordinates of the target 13 . to calculate The camera controller 300 may calculate the size and vector information of the target based on the current coordinates and the previous coordinates of the target 13 . The vector information includes the moving speed, moving direction, and moving distance of the object.

카메라 제어부(300)는 타겟(13)의 이동속도 및 이동방향을 고려하여 타겟(13)에 제2 영역(MR)을 설정할 수 있다. 타겟의 이동속도가 빠를수록 제2 영역(MA)은 넓어지고 이동속도가 느릴수록 제2 영역(MA)은 작아진다. 제2 영역(MA)이 설정됨으로써 주변 환경에 의한 외란이나 다수의 객체에 대한 필터링이 가능하다. 도 7(c)에 도시된 바와 같이, 타겟(13)의 제2 영역(MR)이 설정됨에 따라 제2 영역(MR) 외의 배경 및 주변의 타 객체들(12, 14)을 필터링할 수 있다. The camera controller 300 may set the second region MR on the target 13 in consideration of the moving speed and the moving direction of the target 13 . The faster the moving speed of the target, the wider the second area MA, and the slower the moving speed, the smaller the second area MA. By setting the second area MA, it is possible to filter disturbances caused by the surrounding environment or a plurality of objects. As shown in FIG. 7(c) , as the second area MR of the target 13 is set, the background and other surrounding objects 12 and 14 other than the second area MR may be filtered. .

도 7(d)에 도시된 바와 같이, 타겟(13)이 제1 영역(LA)을 벗어나면, 카메라 제어부(300)는 다시 타겟(13)이 영상의 중앙에 위치하도록 카메라(200)의 팬/틸트를 제어하여 자세를 변경시킬 수 있다. 타겟(13)의 이동에 의해 크기가 작아지거나 커진 경우, 카메라 제어부(300)는 타겟(13)의 크기가 타겟으로 선택되었을 때의 크기가 되도록 카메라(200)를 줌인 또는 줌아웃한다. As shown in FIG. 7( d ), when the target 13 is out of the first area LA, the camera control unit 300 again moves the fan of the camera 200 so that the target 13 is located in the center of the image. You can change the posture by controlling /tilt. When the size of the target 13 is decreased or increased due to the movement of the target 13 , the camera controller 300 zooms in or out the camera 200 so that the size of the target 13 becomes the size when the target 13 is selected.

도 7(e)에 도시된 바와 같이, 타겟(13)에 설정된 제2 영역(MR) 내에 다수의 객체가 존재하는 경우, 카메라 제어부(300)는 지속적으로 모니터링되고 있는 타겟(13)의 크기 및 벡터 정보를 타 객체의 크기 및 벡터 정보와 비교하여 타겟(13)을 식별함으로써 타겟(13)을 놓치지 않고 추적할 수 있다. 도시되지 않았으나, 타겟(13)이 제1 영역(LA)을 벗어난 상태에서 제1 영역(LA) 밖의 영역에 다수의 객체가 존재하는 경우에도, 카메라 제어부(300)는 지속적으로 모니터링되고 있는 타겟(13)의 크기 및 벡터 정보를 타 객체의 크기 및 벡터 정보와 비교하여 타겟(13)을 식별함으로써 타겟(13)을 놓치지 않고 추적할 수 있다. As shown in FIG. 7( e ), when a plurality of objects exist in the second region MR set in the target 13 , the camera control unit 300 controls the size of the continuously monitored target 13 and By comparing the vector information with the size and vector information of other objects to identify the target 13, it is possible to track the target 13 without missing it. Although not shown, even when a plurality of objects exist in an area outside the first area LA while the target 13 is outside the first area LA, the camera control unit 300 controls the continuously monitored target ( By comparing the size and vector information of 13) with the size and vector information of other objects to identify the target 13, it is possible to track the target 13 without missing it.

도 7(f)에 도시된 바와 같이, 타겟(13)을 놓친 경우, 카메라 제어부(300)는 타겟(13)이 마지막으로 위치한 방향으로 카메라(200)가 향하도록 카메라(200)의 팬/틸트를 제어한다. 카메라 제어부(300)는 팬/틸트 이동량에 대응하는 자세 제어값을 생성한다. 팬/틸트 모터(400)는 자세 제어값에 따라 패닝 및 틸팅함으로써 카메라(200)의 팬/틸트를 제어한다. 그리고, 카메라 제어부(300)는 카메라(200)가 줌 아웃하도록 제어하여 타겟(13)의 탐지를 다시 시작한다. 7(f), when the target 13 is missed, the camera control unit 300 pans/tilts the camera 200 so that the camera 200 faces in the direction in which the target 13 was last positioned. control The camera controller 300 generates an attitude control value corresponding to the pan/tilt movement amount. The pan/tilt motor 400 controls the pan/tilt of the camera 200 by panning and tilting according to the attitude control value. Then, the camera control unit 300 controls the camera 200 to zoom out to restart the detection of the target 13 .

도 8은 본 발명의 다른 실시예에 따른 객체 추적 방법을 설명하는 흐름도이다. 8 is a flowchart illustrating an object tracking method according to another embodiment of the present invention.

도 8을 참조하면, 카메라는 현재의 PTZ 상태에서 주시하는 방향의 영상을 촬영하고, 적어도 하나의 객체를 검출할 수 있다(S81). Referring to FIG. 8 , the camera may capture an image in a direction that the camera is looking at in the current PTZ state, and may detect at least one object ( S81 ).

카메라는 객체의 정보를 나타내는 메타데이터를 생성할 수 있다(S82). 메타데이터는 객체의 좌표를 포함할 수 있다. The camera may generate metadata representing information about the object (S82). The metadata may include coordinates of the object.

카메라 제어부는 메타데이터를 수신하여 객체를 식별하고, 객체별 움직임 정보를 산출할 수 있다(S83). 객체의 움직임 정보는 카메라의 현재 PTZ 상태에서 촬영한 영상 내에서 객체의 국부 움직임을 나타내며, 객체의 크기 및 벡터 정보를 포함할 수 있다. 객체의 좌표로부터 객체의 크기 및 중심 좌표가 산출될 수 있다. 객체의 중심 좌표의 변화로부터 객체의 벡터 정보를 산출할 수 있다. 벡터 정보는 객체의 이동거리, 이동방향 및 이동속도를 포함할 수 있다. The camera controller may receive metadata to identify an object and calculate motion information for each object ( S83 ). The object motion information indicates a local motion of the object in an image captured in the current PTZ state of the camera, and may include object size and vector information. The size and center coordinates of the object may be calculated from the coordinates of the object. Vector information of the object can be calculated from the change in the center coordinates of the object. The vector information may include a moving distance, a moving direction, and a moving speed of the object.

카메라 제어부는 객체의 크기를 기초로 타겟을 선정할 수 있다(S84). 타겟 선정 기준은 영상의 세로 길이의 소정 비율 또는 가로 길이의 소정 비율로 설정될 수 있다. The camera controller may select a target based on the size of the object (S84). The target selection criterion may be set to a predetermined ratio of a vertical length or a predetermined ratio of a horizontal length of the image.

카메라 제어부는 타겟이 영상의 중앙에 위치하도록 카메라의 팬/틸트/줌(PTZ)을 제어할 수 있다(S85). 카메라 제어부는 영상에 제1 영역을 설정할 수 있다.The camera controller may control the pan/tilt/zoom (PTZ) of the camera so that the target is located at the center of the image (S85). The camera controller may set the first area in the image.

카메라 제어부는 타겟이 제1 영역을 벗어나는지를 판단하고(S86). 타겟이 제1 영역을 벗어나면, 타겟의 벡터 정보를 이용하여 타겟을 추적하고, 다시 타겟이 영상의 중앙에 위치하도록 카메라의 팬/틸트/줌(PTZ)을 제어할 수 있다(S87). 카메라 제어부는 제1 영역 밖의 객체들의 크기, 이동거리 및 이동방향을 기 산출되었던 타겟의 크기, 이동거리 및 이동방향과 정해진 순서에 따라 비교하여 복수의 객체들 중 타겟을 식별할 수 있다. The camera control unit determines whether the target is out of the first area (S86). When the target is out of the first area, the target is tracked using vector information of the target, and the pan/tilt/zoom (PTZ) of the camera can be controlled so that the target is again located in the center of the image ( S87 ). The camera controller may identify the target among the plurality of objects by comparing the size, movement distance, and movement direction of the objects outside the first area with the previously calculated size, movement distance, and movement direction of the target in a predetermined order.

한편 카메라 제어부는 타겟에 제2 영역을 설정할 수 있다. 카메라 제어부는 제2 영역의 메타데이터만을 이용함으로써 타겟의 이동 범위 밖의 객체를 필터링할 수 있다. 그리고, 카메라 제어부는 타겟에 설정된 제2 영역 내에 타 객체가 존재하는 경우 타 객체의 크기, 이동거리 및 이동방향을 타겟의 크기, 이동거리 및 이동방향과 정해진 순서에 따라 비교하여 타겟을 식별할 수 있다. Meanwhile, the camera controller may set the second area on the target. The camera controller may filter the object outside the movement range of the target by using only the metadata of the second area. In addition, when another object exists in the second area set in the target, the camera controller compares the size, movement distance, and movement direction of the other object with the size, movement distance and movement direction of the target in a predetermined order to identify the target. there is.

도 9는 본 발명의 실시예에 따른 객체 식별 방법을 설명하는 흐름도이다. 9 is a flowchart illustrating an object identification method according to an embodiment of the present invention.

타겟이 제1 영역을 벗어나고 제1 영역 밖에 다수의 객체가 존재하는 경우, 또는 타겟에 설정된 제2 영역에 다수의 객체가 존재하는 경우 카메라 제어부는 타겟과 객체 간의 움직임 정보 비교에 의해 타겟을 식별할 수 있다. When the target leaves the first area and a plurality of objects exist outside the first area, or when a plurality of objects exist in the second area set in the target, the camera control unit identifies the target by comparing the motion information between the target and the object. can

도 9를 참조하면, 카메라 제어부는 카메라로부터 수신한 객체별 메타데이터를 분석하여 각 객체의 움직임 정보를 산출할 수 있다(S91).Referring to FIG. 9 , the camera controller may analyze the metadata for each object received from the camera to calculate motion information of each object ( S91 ).

카메라 제어부는 타겟의 크기와 객체의 크기를 비교하고(S93), 크기가 일치하면 이동거리를 비교하고(S95), 이동거리가 일치하면 이동방향을 비교한다(S97).The camera controller compares the size of the target with the size of the object (S93), compares the movement distance if the sizes match (S95), and compares the movement direction when the movement distances match (S97).

카메라 제어부는 타겟의 크기, 이동거리 및 이동방향이 일치하는 객체를 타겟으로 식별할 수 있다(S99). 즉, 카메라 제어부는 타겟의 크기, 이동거리 및 이동방향 중 적어도 하나가 상이한 객체를 필터링하여 제외할 수 있다. The camera controller may identify an object having the same size, moving distance, and moving direction of the target as the target (S99). That is, the camera controller may filter and exclude objects having different at least one of a size, a movement distance, and a movement direction of the target.

본 발명에 따른 카메라 자세 제어 및 객체 추적 방법은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.The camera posture control and object tracking method according to the present invention can be implemented as computer-readable codes on a computer-readable recording medium. The computer-readable recording medium includes all types of recording devices in which data readable by a computer system is stored. Examples of the computer-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage device. In addition, the computer-readable recording medium is distributed in a computer system connected through a network, so that the computer-readable code can be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the present invention can be easily inferred by programmers in the art to which the present invention pertains.

본 발명의 일 측면들은 첨부된 도면에 도시된 실시예들을 참고로 설명되었으나, 이는 예시적인 것에 불과하며, 당해 기술분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 수 있을 것이다. 따라서, 본 발명의 진정한 보호 범위는 첨부된 청구 범위에 의해서만 정해져야 할 것이다. Aspects of the present invention have been described with reference to the embodiments shown in the accompanying drawings, which are merely exemplary, and that various modifications and equivalent other embodiments are possible therefrom by those skilled in the art. point can be understood. Accordingly, the true protection scope of the present invention should be defined only by the appended claims.

Claims (20)

감시 영역의 제1 방향에서 적어도 하나의 객체를 검출하고, 상기 적어도 하나의 객체에 대한 메타데이터를 생성하는 카메라; 및
상기 적어도 하나의 객체 중 선정된 타겟의 메타데이터를 기초로 상기 카메라의 팬, 틸트 및 줌 중 적어도 하나를 제어하는 카메라 제어부;를 포함하고,
상기 카메라 제어부는,
상기 카메라가 상기 제1 방향에서 획득한 영상에 상기 영상의 중심을 기준으로 제1 영역을 설정하고,
상기 제1 방향에서 획득된 영상에 상기 타겟의 속도 및 이동 방향에 따라 가변하는 크기 및 방향을 갖도록 제2 영역을 설정하고,
상기 제2 영역 외의 메타데이터를 제외하고, 상기 제2 영역 내의 메타데이터를 분석하여 상기 제2 영역 외의 객체를 필터링함으로써 타겟을 추적하고,
상기 타겟이 상기 제1 영역을 벗어나면, 상기 카메라가 상기 타겟을 향하는 제2 방향으로 이동하도록 상기 카메라의 팬 및 틸트 중 적어도 하나를 제어하고,
상기 제1 영역은 상기 카메라의 팬 및 틸트 이동 임계 영역이고,
상기 제2 영역은 상기 타겟의 속도가 빠를수록 더 큰 크기를 갖고, 상기 타겟의 속도가 느릴수록 더 작은 크기를 갖는, 카메라 장치.
a camera for detecting at least one object in a first direction of the monitoring area and generating metadata for the at least one object; and
a camera controller for controlling at least one of pan, tilt, and zoom of the camera based on metadata of a target selected from among the at least one object; and
The camera control unit,
The camera sets a first area based on the center of the image in the image acquired in the first direction,
setting a second region in the image obtained in the first direction to have a size and a direction varying according to the speed and movement direction of the target;
Excluding metadata other than the second area, by analyzing the metadata in the second area to filter objects outside the second area to track the target;
when the target leaves the first area, controlling at least one of pan and tilt of the camera to move the camera in a second direction toward the target;
The first area is a critical area for pan and tilt movement of the camera;
The second area has a larger size as the speed of the target increases, and has a smaller size as the speed of the target decreases.
제1항에 있어서,
상기 메타데이터는 객체의 좌표를 포함하는, 카메라 장치.
According to claim 1,
The metadata includes coordinates of the object.
제2항에 있어서, 상기 카메라 제어부는,
상기 카메라가 상기 제1 방향을 유지하는 동안 생성한 메타데이터로부터, 상기 객체의 크기 및 중심 좌표를 산출하고, 상기 객체의 중심 좌표의 변화로부터 상기 객체의 벡터 정보를 산출하는, 카메라 장치.
According to claim 2, wherein the camera control unit,
The camera device, which calculates the size and center coordinates of the object from metadata generated while the camera maintains the first direction, and calculates vector information of the object from changes in the center coordinates of the object.
제3항에 있어서,
상기 벡터 정보는 객체의 이동거리, 이동방향 및 이동속도를 포함하는 카메라 장치.
4. The method of claim 3,
The vector information is a camera device including a moving distance, a moving direction, and a moving speed of the object.
제3항에 있어서, 상기 카메라 제어부는,
상기 타겟의 크기 및 벡터 정보와 타 객체의 크기 및 벡터 정보의 비교에 의해 상기 타 객체를 필터링하는, 카메라 장치.
According to claim 3, wherein the camera control unit,
Filtering the other object by comparing the size and vector information of the target with the size and vector information of the other object, the camera device.
제1항에 있어서, 상기 카메라 제어부는,
기 설정된 크기를 갖는 객체를 타겟으로 설정하는, 카메라 장치.
According to claim 1, wherein the camera control unit,
A camera device for setting an object having a preset size as a target.
삭제delete 제1항에 있어서, 상기 카메라 제어부는,
상기 제2 방향에서 타겟의 크기가 상기 제1 방향에서 타겟의 크기와 동일하도록 상기 카메라의 줌을 제어하는, 카메라 장치.
According to claim 1, wherein the camera control unit,
and controlling the zoom of the camera so that the size of the target in the second direction is the same as the size of the target in the first direction.
삭제delete 제1항에 있어서, 상기 카메라 제어부는,
상기 제2 영역 내에 존재하는 타 객체의 크기 및 벡터 정보와 상기 타겟의 크기 및 벡터 정보의 비교에 의해 상기 타 객체를 필터링하는, 카메라 장치.
According to claim 1, wherein the camera control unit,
and filtering the other object by comparing the size and vector information of the other object existing in the second area with the size and vector information of the target.
카메라가 감시 영역의 제1 방향에서 검출된 적어도 하나의 객체에 대한 메타데이터를 생성하는 단계;
카메라 제어부가 상기 메타데이터를 분석한 결과를 기초로 상기 적어도 하나의 객체 중 타겟을 선정하는 단계; 및
상기 선정된 타겟의 메타데이터를 기초로 상기 카메라의 팬, 틸트 및 줌 중 적어도 하나를 제어하는 제어신호를 출력하는 단계;를 포함하고,
상기 제어신호 출력 단계는,
상기 카메라가 상기 제1 방향에서 획득한 영상에 상기 영상의 중심을 기준으로 제1 영역을 설정하는 단계;
상기 제1 방향에서 획득된 영상에 상기 타겟의 속도 및 이동 방향에 따라 가변하는 크기 및 방향을 갖도록 제2 영역을 설정하는 단계;
상기 제2 영역 외의 메타데이터를 제외하고, 상기 제2 영역 내의 메타데이터를 분석하여 상기 제2 영역 외의 객체를 필터링함으로써 타겟을 추적하는 단계; 및
상기 타겟이 상기 제1 영역을 벗어나면, 상기 카메라가 상기 타겟을 향하는 제2 방향으로 이동하도록 상기 카메라의 팬 및 틸트 중 적어도 하나를 제어하는 단계;를 포함하고,
상기 제1 영역은 상기 카메라의 팬 및 틸트 이동 임계 영역이고,
상기 제2 영역은 상기 타겟의 속도가 빠를수록 더 큰 크기를 갖고, 상기 타겟의 속도가 느릴수록 더 작은 크기를 갖는, 카메라를 이용한 객체 추적 방법.
generating, by the camera, metadata for at least one object detected in a first direction of the surveillance area;
selecting, by a camera controller, a target among the at least one object based on a result of analyzing the metadata; and
outputting a control signal for controlling at least one of pan, tilt, and zoom of the camera based on the metadata of the selected target;
The control signal output step,
setting, by the camera, a first area in the image acquired in the first direction based on the center of the image;
setting a second region in the image acquired in the first direction to have a size and a direction variable according to the speed and movement direction of the target;
tracking a target by excluding metadata outside the second area, analyzing metadata within the second area, and filtering objects outside the second area; and
When the target leaves the first area, controlling at least one of pan and tilt of the camera so that the camera moves in a second direction toward the target;
The first area is a critical area for pan and tilt movement of the camera,
The second area has a larger size as the speed of the target increases, and has a smaller size as the speed of the target decreases.
제11항에 있어서,
상기 메타데이터는 객체의 좌표를 포함하는, 카메라를 이용한 객체 추적 방법.
12. The method of claim 11,
The metadata includes the coordinates of the object, an object tracking method using a camera.
제12항에 있어서, 상기 제어신호 출력 단계는,
상기 카메라가 상기 제1 방향을 유지하는 동안 생성한 메타데이터로부터, 상기 객체의 크기 및 중심 좌표를 산출하는 단계; 및
상기 객체의 중심 좌표의 변화로부터 상기 객체의 벡터 정보를 산출하는 단계;를 포함하는 카메라를 이용한 객체 추적 방법.
The method of claim 12, wherein the outputting of the control signal comprises:
calculating the size and center coordinates of the object from the metadata generated while the camera maintains the first direction; and
Calculating vector information of the object from a change in the center coordinates of the object; object tracking method using a camera comprising a.
제13항에 있어서,
상기 벡터 정보는 객체의 이동거리, 이동방향 및 이동속도를 포함하는 카메라를 이용한 객체 추적 방법.
14. The method of claim 13,
The vector information is an object tracking method using a camera including a moving distance, a moving direction, and a moving speed of the object.
제13항에 있어서, 상기 제어신호 출력 단계는,
상기 타겟의 크기 및 벡터 정보와 타 객체의 크기 및 벡터 정보의 비교에 의해 상기 타 객체를 필터링하는 단계;를 포함하는 카메라를 이용한 객체 추적 방법.
The method of claim 13, wherein the outputting of the control signal comprises:
and filtering the other object by comparing the size and vector information of the target with the size and vector information of the other object.
제11항에 있어서, 상기 타겟 선정 단계는,
기 설정된 크기를 갖는 객체를 타겟으로 설정하는 단계;를 포함하는 카메라를 이용한 객체 추적 방법.
According to claim 11, wherein the target selection step,
Object tracking method using a camera comprising; setting an object having a preset size as a target.
삭제delete 제11항에 있어서, 상기 제어신호 출력 단계는,
상기 제2 방향에서 타겟의 크기가 상기 제1 방향에서 타겟의 크기와 동일하도록 상기 카메라의 줌을 제어하는 제어신호를 출력하는 단계;를 포함하는 카메라를 이용한 객체 추적 방법.
The method of claim 11, wherein the outputting of the control signal comprises:
and outputting a control signal for controlling the zoom of the camera so that the size of the target in the second direction is the same as the size of the target in the first direction.
삭제delete 제11항에 있어서, 상기 제어신호 출력 단계는,
상기 제2 영역 내에 존재하는 타 객체의 크기 및 벡터 정보와 상기 타겟의 크기 및 벡터 정보의 비교에 의해 상기 타 객체를 필터링하는 단계;를 포함하는 카메라를 이용한 객체 추적 방법.
The method of claim 11, wherein the outputting of the control signal comprises:
and filtering the other object by comparing the size and vector information of the other object existing in the second area with the size and vector information of the target.
KR1020150015574A 2014-05-14 2015-01-30 Camera apparatus and method of object tracking using the same KR102282470B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201510245931.2A CN105100596B (en) 2014-05-14 2015-05-14 Camera apparatus and the method for using camera apparatus tracking object
US14/712,039 US10334150B2 (en) 2014-05-14 2015-05-14 Camera system and method of tracking object using the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20140057948 2014-05-14
KR1020140057948 2014-05-14

Publications (2)

Publication Number Publication Date
KR20150130901A KR20150130901A (en) 2015-11-24
KR102282470B1 true KR102282470B1 (en) 2021-07-28

Family

ID=54845105

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150015574A KR102282470B1 (en) 2014-05-14 2015-01-30 Camera apparatus and method of object tracking using the same

Country Status (1)

Country Link
KR (1) KR102282470B1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102467241B1 (en) * 2017-04-14 2022-11-15 한화테크윈 주식회사 Method for controlling panning and tilting of surveillance camera utilizing edge value
CN112383677B (en) * 2020-11-04 2023-04-28 三星电子(中国)研发中心 Video processing method and device
KR102439678B1 (en) * 2021-03-09 2022-09-01 최지훈 A Integrated Management System using CCTV and LiDAR Sensor
KR102482669B1 (en) * 2021-04-08 2022-12-28 주식회사 에스원 Method and apparatus for tracking object of ptz camera
KR102589573B1 (en) * 2023-03-24 2023-10-16 주식회사 아로텍 Apparatus and method for deciding of photographing area
KR102600418B1 (en) * 2023-04-28 2023-11-09 주식회사 아로텍 Apparatus and method for deciding of area

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060164423A1 (en) * 2004-08-11 2006-07-27 Hsuan-Hsien Lee Interactive device capable of transmitting parameters of image objects
US20080129825A1 (en) * 2006-12-04 2008-06-05 Lynx System Developers, Inc. Autonomous Systems And Methods For Still And Moving Picture Production
US20090316955A1 (en) * 2008-06-24 2009-12-24 Sony Corporation Image processing system, image processing method, and computer program
WO2013001941A1 (en) * 2011-06-27 2013-01-03 日本電気株式会社 Object detection device, object detection method, and object detection program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060164423A1 (en) * 2004-08-11 2006-07-27 Hsuan-Hsien Lee Interactive device capable of transmitting parameters of image objects
US20080129825A1 (en) * 2006-12-04 2008-06-05 Lynx System Developers, Inc. Autonomous Systems And Methods For Still And Moving Picture Production
US20090316955A1 (en) * 2008-06-24 2009-12-24 Sony Corporation Image processing system, image processing method, and computer program
WO2013001941A1 (en) * 2011-06-27 2013-01-03 日本電気株式会社 Object detection device, object detection method, and object detection program

Also Published As

Publication number Publication date
KR20150130901A (en) 2015-11-24

Similar Documents

Publication Publication Date Title
KR102282470B1 (en) Camera apparatus and method of object tracking using the same
US10334150B2 (en) Camera system and method of tracking object using the same
CN109104561B (en) System and method for tracking moving objects in a scene
JP4241742B2 (en) Automatic tracking device and automatic tracking method
JP6532217B2 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING SYSTEM
KR102132248B1 (en) Control apparatus, method of controlling image sensing device, and computer-readable storage medium
KR101530255B1 (en) Cctv system having auto tracking function of moving target
KR101120131B1 (en) Intelligent Panorama Camera, Circuit and Method for Controlling thereof, and Video Monitoring System
JP2006229322A (en) Automatic tracking controller and automatic tracking control method, program, and automatic tracking system
CN107079098B (en) Image playing method and device based on PTZ camera
JP5693147B2 (en) Photographic interference detection method, interference detection device, and surveillance camera system
JP2008154189A (en) Imaging apparatus and imaging method
JP2016076791A (en) Object tracking device, object tracking method, and program
KR20150019230A (en) Method and apparatus for tracking object using multiple camera
KR101410985B1 (en) monitoring system and monitoring apparatus using security camera and monitoring method thereof
KR100656345B1 (en) Method and apparatus for tracking moving object by using two-cameras
KR101738514B1 (en) Monitoring system employing fish-eye thermal imaging camera and monitoring method using the same
KR102107137B1 (en) Method and Apparatus for Detecting Event by Using Pan-Tilt-Zoom Camera
JP2008219452A (en) Camera surveillance device
KR100761817B1 (en) A ccd camera system for effectively tracking a motion of objects and a method thereof
KR101272631B1 (en) Apparatus for detecting a moving object and detecting method thereof
KR101924336B1 (en) Method for Setting Region for Video Surveillance, Apparatus Therefor
KR101471187B1 (en) System and method for controlling movement of camera
KR100872403B1 (en) Monitor system controlling ptz camera by using fixed camera
KR101623331B1 (en) Detection and close up shooting method using images of moving objects

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant