KR101247316B1 - Security system - Google Patents

Security system Download PDF

Info

Publication number
KR101247316B1
KR101247316B1 KR1020110022874A KR20110022874A KR101247316B1 KR 101247316 B1 KR101247316 B1 KR 101247316B1 KR 1020110022874 A KR1020110022874 A KR 1020110022874A KR 20110022874 A KR20110022874 A KR 20110022874A KR 101247316 B1 KR101247316 B1 KR 101247316B1
Authority
KR
South Korea
Prior art keywords
value
network
zoom
component
tilt
Prior art date
Application number
KR1020110022874A
Other languages
Korean (ko)
Other versions
KR20120105202A (en
Inventor
오재윤
Original Assignee
삼성테크윈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성테크윈 주식회사 filed Critical 삼성테크윈 주식회사
Priority to KR1020110022874A priority Critical patent/KR101247316B1/en
Publication of KR20120105202A publication Critical patent/KR20120105202A/en
Application granted granted Critical
Publication of KR101247316B1 publication Critical patent/KR101247316B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

본 발명은 비접촉되어 이동하는 개체의 3차원 위치의 변화량을 측정하여 상기 3차원 위치의 변화량에 대응하는 줌(zoom)값, 팬(pan)값 및 틸트(tilt)값을 도출한 후 상기 도출된 줌(zoom)값, 팬(pan)값 및 틸트(tilt)값을 제어데이터로써 네트워크를 통해 전송하는 제어패널; 및 상기 네트워크를 통해 상기 제어패널을 통해 입력되는 상기 제어데이터에 따라 주밍, 패닝 또는 틸팅을 수행하며 촬영하고, 촬영을 통해 생성한 이미지데이터를 상기 네트워크를 통해 전송하는 감시카메라; 를 포함하는 감시시스템을 개시한다. The present invention measures the amount of change in the three-dimensional position of the object moving in contact with the non-contact to derive the zoom value, pan value and tilt value corresponding to the amount of change in the three-dimensional position is derived A control panel which transmits a zoom value, a pan value, and a tilt value as control data via a network; And a surveillance camera that performs zooming, panning, or tilting according to the control data input through the control panel through the network, and photographs, and transmits the image data generated through photographing through the network. Discloses a surveillance system comprising a.

Description

감시시스템{Security system}Surveillance System

본 발명은 감시시스템에 관한 것으로, 보다 상세하게는 제어패널에 의해 감시카메라의 팬(pan), 틸트(tilt) 및 줌(zoom)이 제어되는 감시시스템에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a surveillance system, and more particularly, to a surveillance system in which a pan, tilt and zoom of a surveillance camera are controlled by a control panel.

감시카메라는 네트워크를 통해 단말기에 연결되어, 획득한 이미지데이터를 네트워크를 통해 단말기로 송신하여 이미지가 디스플레이 되도록 한다. 이에 따라 단말기는 표시부에 실시간 동영상이라고 할 수 있는 라이브뷰 동영상을 디스플레이하게 된다. 물론 감시카메라는 네트워크를 통해 제어패널로부터의 신호를 수신하여 제어되기도 한다.The surveillance camera is connected to the terminal through a network, and transmits the acquired image data to the terminal through the network so that the image is displayed. Accordingly, the terminal displays the live view video, which can be called a real time video, on the display unit. Surveillance cameras may also be controlled by receiving signals from the control panel via the network.

이러한 감시시스템에 있어서, 사용자가 감시카메라를 보다 직관적이고 편리하게 제어할 수 있는 제어패널에 대한 연구가 시급하다. In such a surveillance system, it is urgent to study a control panel that allows a user to control the surveillance camera more intuitively and conveniently.

본 발명은 비접촉식으로 감시카메라의 팬, 틸트, 및 줌을 제어할 수 있는 제어패널을 포함하는 감시시스템을 제공하는 것을 목적으로 한다. An object of the present invention is to provide a surveillance system including a control panel capable of controlling the pan, tilt, and zoom of the surveillance camera in a non-contact manner.

상기 목적을 달성하기 위한 본 발명의 일 측면에 따르면, 비접촉되어 이동하는 개체의 3차원 위치의 변화량을 측정하여 상기 3차원 위치의 변화량에 대응하는 줌(zoom)값, 팬(pan)값 및 틸트(tilt)값을 도출한 후 상기 도출된 줌(zoom)값, 팬(pan)값 및 틸트(tilt)값을 제어데이터로써 네트워크를 통해 전송하는 제어패널; 및 상기 네트워크를 통해 상기 제어패널을 통해 입력되는 상기 제어데이터에 따라 주밍, 패닝 또는 틸팅을 수행하며 촬영하고, 촬영을 통해 생성한 이미지데이터를 상기 네트워크를 통해 전송하는 감시카메라; 를 포함하는 감시시스템을 제공한다. According to an aspect of the present invention for achieving the above object, a zoom value, pan value and tilt corresponding to the change amount of the three-dimensional position by measuring the change amount of the three-dimensional position of the object moving in contact with the non-contact a control panel for deriving a tilt value and transmitting the derived zoom value, pan value, and tilt value as control data through a network; And a surveillance camera that performs zooming, panning, or tilting according to the control data input through the control panel through the network, and photographs, and transmits the image data generated through photographing through the network. It provides a surveillance system comprising a.

이러한 본 발명의 일 특징에 따르면, 상기 제어패널은 상기 비접촉되어 이동하는 개체의 3차원 위치의 변화량을 소정의 시간 간격으로 측정하는 적어도 둘 이상의 센서부; 측정된 상기 3차원 위치의 변화량을 X방향, Y방향 및 Z방향의 성분의 변화량으로 분해하는 분석부; 상기 X방향, Y방향 및 Z방향의 성분 각각의 변화량에 대응하는 줌값, 팬값 및 틸트값을 도출하는 대응부; 및 도출된 상기 줌값, 팬값 및 틸트값을 상기 제어데이터로써상기 네트워크를 통해 상기 감시카메라로 전송하는 송신부; 를 포함한다. According to one aspect of the present invention, the control panel comprises: at least two sensor units for measuring the amount of change in the three-dimensional position of the non-contacted moving object at predetermined time intervals; An analysis unit for decomposing the measured amount of change in the three-dimensional position into the amount of change in the components in the X, Y and Z directions; A counter for deriving a zoom value, a pan value, and a tilt value corresponding to the amount of change of each of the components in the X, Y, and Z directions; And a transmitting unit transmitting the derived zoom value, pan value, and tilt value as the control data to the surveillance camera through the network. It includes.

이러한 본 발명의 일 특징에 따르면, 상기 센서부는 초음파, 적외선 또는 레이저를 사용하여, 상기 비접촉된 개체의 3차원 위치의 변화량을 소정의 시간 간격으로 측정한다. According to one feature of the present invention, the sensor unit measures the amount of change of the three-dimensional position of the non-contacted object at predetermined time intervals using ultrasonic waves, infrared rays, or lasers.

이러한 본 발명의 일 특징에 따르면, 상기 적어도 둘 이상의 센서부는 동일한 평면 상에 위치하며, 상기 센서부가 셋 이상일 경우 각각의 센서부 전체가 동일한 직선 상에 위치하지 않는다. According to one aspect of the present invention, the at least two or more sensor units are located on the same plane, and when the three or more sensor units are three or more, each sensor unit is not located on the same straight line.

이러한 본 발명의 일 특징에 따르면, 상기 X방향의 성분은 상기 센서부가 위치한 평면 상에서, 좌우방향의 성분이며 상기 Y방향의 성분은 상기 센서부가 위치한 평면 상에서, 전후방향의 성분이며 상기 Z방향의 성분은 상기 센서부가 위치한 평면을 기준으로, 상하방향의 성분이다. According to one feature of the present invention, the component in the X direction is a component in the left and right direction on the plane in which the sensor unit is located, and the component in the Y direction is a component in the front and rear direction in the plane where the sensor unit is located, and the component in the Z direction. Is a component in the vertical direction with respect to the plane in which the sensor unit is located.

이러한 본 발명의 일 특징에 따르면, 상기 X방향의 성분의 변화량은 팬값에 대응하며, 상기 Y방향의 성분의 변화량은 틸트값에 대응하며, 상기 Z방향의 성분의 변화량은 줌값에 대응한다. According to one aspect of the present invention, the change amount of the component in the X direction corresponds to the pan value, the change amount of the component in the Y direction corresponds to the tilt value, and the change amount of the component in the Z direction corresponds to the zoom value.

이러한 본 발명의 일 특징에 따르면, 상기 네트워크를 통해 상기 감시카메라로부터 전송된 상기 이미지데이터를 수신하여 표시부에 표시하는 단말기; 를 더 포함한다. According to one aspect of the present invention, a terminal for receiving the image data transmitted from the surveillance camera via the network and displaying on the display unit; .

이러한 본 발명의 일 특징에 따르면, 상기 센서부가 위치한 평면은 상기 단말기의 상기 표시부가 포함된 평면과 실직적으로 평행하다.According to one aspect of the present invention, the plane in which the sensor unit is located is substantially parallel to the plane including the display unit of the terminal.

이러한 본 발명의 일 특징에 따르면, 상기 감시카메라는 줌렌즈를 포함한 렌즈부와, 상기 렌즈부를 통과한 입사광으로부터 이미지 데이터를 생성하는 촬상소자를 포함하는 영상획득부; 줌값에 따라 상기 줌렌즈를 제어하는 줌제어부; 팬값에 따라 상기 영상획득부를 패닝시키는 팬제어부; 및 틸트값에 따라 상기 영상획득부를 틸팅시키는 틸트제어부; 를 포함한다. According to one aspect of the present invention, the surveillance camera comprises: an image acquisition unit including a lens unit including a zoom lens and an image pickup device for generating image data from incident light passing through the lens unit; A zoom control unit controlling the zoom lens according to a zoom value; A fan control unit to pan the image acquisition unit according to a fan value; A tilt controller configured to tilt the image acquisition unit according to a tilt value; It includes.

이러한 본 발명의 일 특징에 따르면, 상기 감시카메라는 상기 네트워크를 통해 상기 제어패널로부터 전송된 상기 줌값, 팬값 및 틸트값을 수신하는 데이터수신부; 및 상기 촬상소자가 생성한 이미지데이터를 상기 네트워크를 통해 단말기로 전송하는 데이터송신부; 를 포함한다. According to one aspect of the present invention, the surveillance camera includes a data receiver for receiving the zoom value, pan value and tilt value transmitted from the control panel via the network; And a data transmitter for transmitting the image data generated by the imaging device to the terminal through the network. It includes.

전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다. Other aspects, features, and advantages other than those described above will become apparent from the following drawings, claims, and detailed description of the invention.

본 발명의 일 실시 예에 의한 감시시스템에 의하면, 제어패널이 비접촉식으로 감시카메라의 팬, 틸트 및 줌을 제어할 수 있어 사용자가 손의 움직임을 통해 편리하고 직관적으로 감시카메라의 제어가 가능한 장점이 있다. According to the surveillance system according to an embodiment of the present invention, the control panel can control the pan, tilt and zoom of the surveillance camera in a non-contact manner, the user can conveniently and intuitively control the surveillance camera through the movement of the hand. have.

또한, 제어패널 상에서 제어를 수행하는 평면과, 이미지데이터가 보여지는 단말기의 평면이 실직적으로 평행하게 위치하여 사용자의 혼동을 방지하고, 정확한 감시카메라의 제어가 가능한 특징이 있다. In addition, the plane to perform the control on the control panel, and the plane of the terminal in which the image data is viewed in parallel parallel position to prevent the user confusion, it is characterized by the precise control of the surveillance camera.

도 1 은 본 발명의 일 실시예에 따른 감시시스템을 개략적으로 도시한 개념도이다.
도 2a는 본 발명의 일 실시예에 따른 감시시스템에 포함된 제어패널을 나타낸 블록도이다.
도 2b는 도 2a의 제어패널의 제어방법을 나타낸 흐름도이다.
도 3은 2개의 센서부로 개체의 이동거리를 도출하는 방법을 나타낸 것이다.
도 4는 본 발명의 일 실시예에 의한 감시시스템에 포함된 감시카메라를 개략적으로 나타낸 블록도이다.
도 5 내지 도 7은 본 발명의 일 실시예에 의한 감시시스템에 포함된 제어패널 상의 사용자의 제어동작에 따라 단말기에 표시되는 이미지를 나타낸 것이다.
1 is a conceptual diagram schematically showing a monitoring system according to an embodiment of the present invention.
Figure 2a is a block diagram showing a control panel included in the monitoring system according to an embodiment of the present invention.
2B is a flowchart illustrating a control method of the control panel of FIG. 2A.
3 illustrates a method of deriving a moving distance of an object with two sensor units.
4 is a block diagram schematically illustrating a surveillance camera included in a surveillance system according to an exemplary embodiment of the present invention.
5 to 7 illustrate an image displayed on a terminal according to a control operation of a user on a control panel included in a monitoring system according to an embodiment of the present invention.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. BRIEF DESCRIPTION OF THE DRAWINGS The present invention is capable of various modifications and various embodiments, and specific embodiments are illustrated in the drawings and described in detail in the detailed description. It is to be understood, however, that the invention is not to be limited to the specific embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. The terms first, second, etc. may be used to describe various elements, but the elements should not be limited by terms. Terms are used only for the purpose of distinguishing one component from another.

본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.

이하 첨부된 도면들에 도시된 본 발명에 관한 실시예를 참조하여 본 발명의 구성 및 작용을 상세히 설명한다. Hereinafter, with reference to the embodiments of the present invention shown in the accompanying drawings will be described in detail the configuration and operation of the present invention.

도 1 은 본 발명의 일 실시예에 따른 감시시스템(100)을 개략적으로 도시한 개념도이다. 1 is a conceptual diagram schematically showing a monitoring system 100 according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 감시시스템(100)은 복수개의 감시카메라(1), 제어패널(3), 및 단말기(4)를 포함한다. 감시카메라들(1)은 유선 또는 무선의 네트워크(2)를 통해 제어패널(3) 및 단말기(4)와 데이터를 통신한다. 구체적으로, 감시카메라들(1)은 제어데이터채널(DCON)을 통해 제어패널(3)로부터 제어데이터를 전달받고, 영상데이터채널(DIMA)을 통해 단말기(3)로 이미지데이터를 전달한다. 물론 복수개의 감시카메라(1)가 아닌 한 개의 감시카메라(1)만 제어패널(3) 및 단말기(4)와 통신할 수도 있고, 한 개의 감시카메라(1) 또는 복수개의 감시카메라들(1)이 복수개의 제어패널(3) 및 단말기(4)와 통신할 수도 있는 등 다양한 변형이 가능함은 물론이다.Referring to FIG. 1, a surveillance system 100 according to an embodiment of the present invention includes a plurality of surveillance cameras 1, a control panel 3, and a terminal 4. The surveillance cameras 1 communicate data with the control panel 3 and the terminal 4 via a wired or wireless network 2. In detail, the surveillance cameras 1 receive the control data from the control panel 3 through the control data channel D CON and transmit the image data to the terminal 3 through the image data channel D IMA . . Of course, only one surveillance camera 1, not the plurality of surveillance cameras 1, may communicate with the control panel 3 and the terminal 4, one surveillance camera 1 or multiple surveillance cameras 1 Of course, various modifications are possible, such as being able to communicate with the plurality of control panels 3 and the terminal 4.

도 1에서는 단말기(4)가 컴퓨터와 유사한 형태를 갖는 것으로 도시하고 있으나 본 실시예에 따른 감시시스템(100)에 포함된 단말기(4)가 도 1에 도시된 것과 같은 형태에 한정되는 것은 아니며, 표시부(410)를 갖는 장치라면 모니터 외에도 어떠한 것이든 가능함은 물론이다. 단말기(4)는 필요에 따라 감시카메라(1)로부터의 라이브뷰 동영상을 저장할 수도 있다.Although FIG. 1 illustrates that the terminal 4 has a form similar to a computer, the terminal 4 included in the monitoring system 100 according to the present embodiment is not limited to the form as illustrated in FIG. 1. Of course, any device having the display unit 410 can be anything other than a monitor. The terminal 4 may store the live view video from the surveillance camera 1 as necessary.

도 2a는 본 발명의 일 실시예에 따른 감시시스템(100)에 포함된 제어패널(3)을 나타낸 블록도이다. 또한 도 2b는 도 2a의 제어패널(3)의 제어방법을 나타낸 흐름도이다. 2A is a block diagram showing a control panel 3 included in the monitoring system 100 according to an embodiment of the present invention. 2B is a flowchart illustrating a control method of the control panel 3 of FIG. 2A.

도 2a 및 도 2b 를 참조하면, 본 발명의 일 실시예에 따른 제어패널(3)은 비접촉하는 개체의 3차원 위치의 변화량을 측정하여 측정한 3차원 위치의 변화량에 대응하는 줌(zoom)값, 팬(pan)값 및 틸트(tilt)값을 도출하여 제어데이터로써 감시카메라(1)에 전송한다. 2A and 2B, the control panel 3 according to an exemplary embodiment of the present invention measures a zoom value corresponding to a change amount of the 3D position measured by measuring the change amount of the 3D position of the non-contacting object. The pan value and the tilt value are derived and transmitted to the surveillance camera 1 as control data.

여기서 개체란, 3차원 위치를 측정하는 센서의 목적물로써 초음파, 적외선 또는 레이저 센서를 사용할 때, 초음파, 적외선 또는 레이저가 목적물에 반사되어 센서로 되돌아가 3차원 위치의 측정이 가능한 모든 물체를 의미한다. 예를 들어, 사용자의 손 등을 포함할 수 있다. Here, the term "object" means any object capable of measuring a three-dimensional position when the ultrasonic, infrared, or laser is reflected on the object and returned to the sensor when the ultrasonic, infrared, or laser sensor is used as the object of the sensor for measuring the three-dimensional position. . For example, the user's hand may be included.

한편, 비접촉 개체란, 개체가 사용자의 손이라고 가정할 때, 종래 손으로 조이스틱을 잡거나, 버튼을 누르는 등의 접촉 방식의 조작이 아니라 손이 제어패널(3)에 접촉하지 않고도 감시카메라(1)를 조작할 수 있는 제어데이터를 생성할 수 있는 것을 의미한다.On the other hand, the non-contact object is a surveillance camera 1 without a hand touching the control panel 3, rather than a conventional touch-type operation such as holding a joystick or pressing a button, assuming that the object is the user's hand. This means that control data that can be manipulated can be generated.

본 발명의 일 실시예에 의한 제어패널(3)은 센서부(310), 분석부(320), 대응부(330) 및 송신부(340)를 포함한다. The control panel 3 according to an embodiment of the present invention includes a sensor 310, an analyzer 320, a counterpart 330, and a transmitter 340.

도 2a 및 도 2b를 참조하면, 센서부(310)는 비접촉되어 이동하는 개체의 3차원 위치의 변화량을 소정의 시간 간격으로 측정한다(S201). 여기서 위치의 변화량이란, 개체의 이동거리 및 이동방향을 의미할 수 있다. 제어패널(3)은 개체의 이동방향인 X방향, Y방향 및 Z방향에 따라 팬, 틸트, 또는 줌을 수행할 것인지 판단하게 된다. 또한, 제어패널(3)은 개체의 이동거리인 각 방향 성분의 변화량에 따라 얼마만큼의 팬, 틸트 또는 줌을 수행할 것인지 판단하게 된다. 따라서, 센서부(310)는 개체의 3차원의 위치 변화량으로써 개체의 이동거리 및 이동방향을 도출할 수 있으면 족하다. 그러나, 본 발명은 이에 한정되지 않고, 개체의 좌표를 3차원 공간에서 얻은 다음 이동하는 개체의 3차원의 위치 변화량을 도출할 수도 있을 것이다. 2A and 2B, the sensor unit 310 measures the amount of change in the three-dimensional position of the object moving in non-contact at predetermined time intervals (S201). Here, the change amount of the position may mean a moving distance and a moving direction of the object. The control panel 3 determines whether to perform pan, tilt, or zoom according to the X, Y, and Z directions of moving objects. In addition, the control panel 3 determines how much to pan, tilt or zoom according to the amount of change in each direction component, which is the moving distance of the object. Therefore, the sensor unit 310 is sufficient to derive the moving distance and the moving direction of the object as the amount of change in the three-dimensional position of the object. However, the present invention is not limited thereto, and the coordinates of the object may be obtained in a three-dimensional space, and then the amount of change in the three-dimensional position of the moving object may be derived.

센서부(310)는 일반적으로 공지된 초음파, 적외선 또는 레이저센서 등을 사용할 수 있다. 따라서, 소정의 시간간격이란, 센서부(310)의 타입에 따라, 매개파동을 수 초, 수 마이크로(μ)초, 수 나노(n)초 등의 간격으로 발사 및 수신하는 것일 수 있다. The sensor unit 310 may use a generally known ultrasonic wave, infrared ray, or laser sensor. Therefore, the predetermined time interval may be to launch and receive the intermediate wave at intervals of several seconds, several micro (μ) seconds, several nano (n) seconds, or the like according to the type of the sensor unit 310.

센서부(310)는 초음파와 같은 매개파동을 발사하는 발사부(미도시) 및 개체에 반사된 초음파를 수신하는 수신부(미도시)를 포함한다. 한편, 센서부는 개체에 반사되어 수신되는 초음파가 기준 평면으로부터 가지는 각도를 측정할 수 있다. 본 발명의 일 실시 예에 의한 제어패널(3)은 센서부(310)를 적어도 2개 이상 포함한다. 2개 이상의 센서부(310)로부터, 개체의 이동거리 및 이동방향을 파악할 수 있기 때문이다. The sensor unit 310 includes a launching unit (not shown) for emitting an intermediate wave such as an ultrasonic wave and a receiving unit (not shown) for receiving the ultrasonic wave reflected from the object. On the other hand, the sensor unit may measure the angle of the ultrasonic wave reflected by the object received from the reference plane. The control panel 3 according to an embodiment of the present invention includes at least two sensor units 310. This is because the moving distance and the moving direction of the object can be grasped from two or more sensor units 310.

한편, 3개 이상의 센서부(310)를 포함하는 경우, 3개 이상의 센서부(310) 모두가 동일한 직선상에 위치하지는 않아야 한다. 예를 들어, 3개의 센서부가 모두 일 직선 상에 위치하는 경우 2개의 센서부를 포함하는 것과 동일한 효과 밖에 얻지 못하기 때문이다. On the other hand, when including three or more sensor unit 310, all three or more sensor unit 310 should not be located on the same straight line. For example, when all three sensor units are located on one straight line, only the same effect as that of including two sensor units is obtained.

도 3은 2개의 센서부(310)로 개체의 이동거리를 도출하는 방법을 나타낸 것이다. 도 3에서는 설명의 편의를 위해, 2개의 센서부(310)를 사용하였으나, 3개 이상의 센서부(310)를 사용하는 경우에도 유사한 방법으로 개체의 이동거리를 도출할 수 있다. 3 illustrates a method of deriving a moving distance of an object with two sensor units 310. In FIG. 3, for convenience of description, two sensor units 310 are used, but when three or more sensor units 310 are used, a moving distance of an object may be derived in a similar manner.

도 3을 참조하면, t1시간의 개체(Ht1)에 S1센서가 초음파를 발사한 후, 반사된 초음파를 수신하여 L1길이를 얻는다. 동시에, S1센서는 t1시간의 개체(Ht1)에 반사되어 수신되는 초음파가 기준평면(P)으로부터 가지는 각도인 θ1을 측정한다. Referring to FIG. 3, after the S1 sensor emits ultrasonic waves to the object Ht1 at t1 time, the reflected ultrasonic waves are received to obtain the L1 length. At the same time, the S1 sensor measures [theta] 1, which is an angle of the ultrasonic wave received by being reflected from the object Ht1 at t1 time from the reference plane P.

다음으로 t2 시간의 개체(Ht2)에 S2센서가 초음파를 발사한 후, 반사된 초음파를 수신하여 R1길이를 얻는다. 동시에, S2센서는 t2시간의 개체(Ht2)에 반사되어 수신되는 초음파가 기준평면(P)으로부터 가지는 각도인 r1을 측정한다. Next, after the S2 sensor emits an ultrasonic wave to the object Ht2 at t2 time, the reflected ultrasonic wave is received to obtain the R1 length. At the same time, the S2 sensor measures r1, which is an angle that the ultrasonic wave received by reflecting on the object Ht2 at t2 time has from the reference plane P.

이렇게 얻은 L1 및 θ1에 삼각함수법을 적용하면, d1의 길이가 계산되고, 마찬가지로, R2 및 r2에 삼각함수법을 적용하면 d2의 길이가 계산된다. S1센서 및 S2센서의 거리인 d는 제품 제조시 설계 사항으로 알 수 있는 것이므로 최종적으로 개체(H)의 이동거리인 Δx를 얻을 수 있다. When the trigonometric method is applied to L1 and θ1 thus obtained, the length of d1 is calculated. Similarly, when the trigonometric method is applied to R2 and r2, the length of d2 is calculated. The distance d of the S1 sensor and the S2 sensor can be known as a design item in the manufacture of the product, and thus, Δx, which is the moving distance of the object H, can be finally obtained.

한편, 도 3에서는 중복된 설명을 피하기 위하여 X방향의 이동거리를 도출하는 방법만 나타내었으나, 이는 Y방향의 이동거리를 도출하는 방법에서도 똑같이 적용할 수 있다 또한, t1시간의 개체(Ht1)에 S1센서 외에도 S2센서도 초음파를 발사하여 L2를 얻을 수 있으나, 이동거리의 계산을 위해 개체에 가까운 위치의 센서로부터 얻은 초음파만을 사용하는 것이다. 같은 취지로, t2시간의 개체(Ht2)에 S2센서 외에도 S1센서도 초음파를 발사하여 R1를 얻을 수 있으나, 이동거리의 계산을 위해 개체에 가까운 위치의 센서로부터 얻은 초음파만을 사용하는 것이다.In FIG. 3, only the method of deriving the moving distance in the X direction is shown to avoid overlapping descriptions, but the same method may be applied to the method of deriving the moving distance in the Y direction. In addition to the S1 sensor, the S2 sensor can also emit L2 by firing ultrasonic waves, but only the ultrasonic waves obtained from the sensor close to the object are used to calculate the moving distance. In the same sense, in addition to the S2 sensor to the object (Ht2) of t2 time, the S1 sensor can also obtain R1 by firing ultrasonic waves, but only the ultrasonic waves obtained from the sensor close to the object are used for the calculation of the moving distance.

한편, 개체의 이동방향은 센서부(310)에서 개체(H)에 반사되어 수신되는 초음파의 길이를 통해 도출할 수 있다. 예를 들어, 시간이 지날수록 S2센서로 짧은 주기로 초음파가 수신된다면, 개체는 S2센서 쪽으로 이동하는 것이다. 만약 복수개의 센서부(310)에서 수신되는 초음파의 주기가 모두 일정하게 느려지거나, 빨라진다면 개체는 Z축의 방향으로 즉, 센서부(310)에 수직한 방향으로 이동하는 것이다. On the other hand, the moving direction of the object may be derived through the length of the ultrasonic wave reflected by the object (H) in the sensor unit 310. For example, if ultrasonic waves are received by the S2 sensor in a short cycle as time passes, the object moves toward the S2 sensor. If all of the periods of the ultrasonic waves received from the plurality of sensor units 310 are constantly slowed down or accelerated, the object moves in the direction of the Z axis, that is, in a direction perpendicular to the sensor unit 310.

다시 도 2a 및 도 2b를 참조하면, 분석부(320)는 센서부(310)에서 측정된 3차원 위치의 변화량을 X방향 성분의 변화량, Y방향 성분의 변화량 및 Z방향 성분의 변화량으로 분리한다(S202). 여기서 상기 X방향의 성분은 복수개의 센서부(310)가 위치한 평면 상에서, 좌우방향의 성분이다(도 5 참조). 또한, Y방향의 성분은 복수개의 센서부(310)가 위치한 평면 상에서, 전후방향의 성분이다(도 6 참조). 마지막으로 Z방향의 성분은 복수개의 센서부가 위치한 평면을 기준으로, 수직방향인 상하방향의 성분이다(도 7 참조). Referring again to FIGS. 2A and 2B, the analysis unit 320 separates the amount of change in the three-dimensional position measured by the sensor unit 310 into the amount of change in the X direction component, the amount of change in the Y direction component, and the amount of change in the Z direction component. (S202). The component in the X direction is a component in the left and right directions on a plane where the plurality of sensor units 310 are located (see FIG. 5). In addition, the component of the Y direction is a component of the front-back direction on the plane in which the several sensor part 310 is located (refer FIG. 6). Finally, the component in the Z direction is a component in the vertical direction in the vertical direction with respect to the plane in which the plurality of sensor units are located (see FIG. 7).

분석부(320)는 센서부(310)에서 측정하는 개체의 이동방향을 X방향 성분, Y방향 성분 및 Z방향 성분으로 나누고, 각 방향 성분에 따라 개체의 이동거리를 변화량으로써 도출한다. 이는 공지된 다양한 위치분석 방법을 사용할 수 있다. 예를 들어, 분석부는 복수개의 센서에서 얻은 각도 및 거리 정보를 통해, 소정의 시간동안 개체의 위치 변화를 3차원의 좌표로 형상화할 수 있다. 이렇게 개체의 위치 변화를 3차원 좌표로 형상화 한 후, X방향 성분, Y방향 성분 및 Z방향 성분을 분리한 다음, 각 방향 성분에서 이동거리를 계산할 수 있다. The analysis unit 320 divides the moving direction of the object measured by the sensor unit 310 into the X-direction component, the Y-direction component, and the Z-direction component, and derives the moving distance of the object according to each direction component as a change amount. It can use a variety of known location analysis methods. For example, the analysis unit may shape the positional change of the object in three-dimensional coordinates for a predetermined time through angle and distance information obtained from the plurality of sensors. In this way, after changing the position of the object in three-dimensional coordinates, after separating the X-direction component, the Y-direction component and the Z-direction component, it is possible to calculate the moving distance in each direction component.

다시 도 2a 및 도 2b를 참조하면, 대응부(330)는 각 방향의 성분의 변화량을 카메라의 팬, 틸트 또는 줌을 수행하는 줌(zoom)값, 팬(pan)값 및 틸트(tilt)값과 같은 제어데이터에 대응시킨다(S203). 감시카메라(1)의 줌, 팬, 틸트 동작에 대해서는 도 4를 설명할 때 한꺼번에 설명하기로 한다. Referring again to FIGS. 2A and 2B, the counterpart 330 zooms, pans, and tilts a pan, tilt, or zoom of the camera to change the amount of the component in each direction. Corresponding to control data such as (S203). The zoom, pan, and tilt operations of the surveillance camera 1 will be described at a time when FIG. 4 is described.

대응부(330)는 각 방향이 성분 변화량과 대응하는 줌값, 팬값 및 틸트값을 룩업테이블(Look up table)로써 메모리에 저장하고 해당 방향 성분 변화량에 맞는 제어값을 도출할 수 있다. 예를 들어, X방향의 성분의 변화량은 팬값에 대응하며, Y방향의 성분의 변화량은 틸트값에 대응하며, Z방향의 성분의 변화량은 줌값에 대응할 수 있다. 그러나, 이러한 대응관계는 일 실시예에 불과하며, Y방향의 성분의 변화량이 줌값에 대응하고 Z방향의 성분의 변화량이 틸트값에 대응할 수도 있을 것이다. The counter 330 may store a zoom value, a pan value, and a tilt value in which each direction corresponds to a component change amount in a memory as a look up table, and derive a control value corresponding to the corresponding component change amount. For example, the change amount of the component in the X direction corresponds to the pan value, the change amount of the component in the Y direction corresponds to the tilt value, and the change amount of the component in the Z direction may correspond to the zoom value. However, this correspondence is only one embodiment, and the amount of change in the component in the Y direction may correspond to the zoom value and the amount of change in the component in the Z direction may correspond to the tilt value.

예를 들어, 아래의 표 1과 같이 X방향의 성분의 변화량이 Δx1 이고, Y방향의 성분의 변화량이 Δy1 이고 Z방향의 성분의 변화량이 Δz1이라고 가정한다. 대응부(330)는 X방향의 성분의 변화량에 대응하는 팬값을 p1로 도출하고, Y방향의 성분의 변화량에 대응하는 틸트값을 tt1으로 도출하고 Z방향의 성분의 변화량에 대응하는 줌값을 z1로 도출한다. 여기서 팬값 p1이란 감시카메라(1)의 팬제어부(도 4의 23)가 통상 포함하는 스텝모터의 회전 수치를 의미할 수 있다. 그리고 틸트값 tt1이란 감시카메라(1)의 틸트제어부(도 4의 25)가 통상 포함하는 스텝모터의 회전 수치를 의미할 수 있다. 한편, 줌값 z1이란, 감시카메라(1)의 줌제어부(도 4의 21)가 통상 포함하는 스텝모터의 회전 수치를 의미할 수 있다. For example, it is assumed that the change amount of the component in the X direction is Δx1, the change amount of the component in the Y direction is Δy1, and the change amount of the component in the Z direction is Δz1 as shown in Table 1 below. The counterpart 330 derives a pan value corresponding to the change amount of the component in the X direction as p1, derives a tilt value corresponding to the change amount of the component in the Y direction as tt1 and calculates a zoom value corresponding to the change amount of the component in the Z direction z1. To derive. Here, the fan value p1 may mean a rotation value of the step motor normally included in the fan control unit 23 of FIG. 4 of the surveillance camera 1. The tilt value tt1 may mean a rotation value of the step motor normally included in the tilt control unit 25 of FIG. 4 of the monitoring camera 1. The zoom value z1 may mean a rotation value of the step motor normally included in the zoom control unit 21 of FIG. 4 of the surveillance camera 1.

X방향 성분의 변화량Amount of change in the X-direction component 팬값Fan value Δx1Δx1 p1p1 Δx2Δx2 p2p2 ...... ...... Y방향 성분의 변화량Amount of change in the Y-direction component 틸트값Tilt value Δy1Δy1 tt1tt1 Δy1Δy1 tt2tt2 ...... ...... Z방향 성분의 변화량Amount of change in Z direction component 줌값Zoom value Δz1Δz1 z1z1 Δz2Δz2 z2z2 ...... ......

한편, +X방향의 성분은 양의 팬값을 도출하며 이는 팬제어부(도 4의 23)가 통상 포함하는 스텝모터의 시계방향의 회전을 의미할 수 있다. 또한, -X방향의 성분은 음의 팬값을 도출하며 이는 팬제어부(도 4의 23)의 스텝모터가 반시계방향으로 회전하는 것을 의미할 수 있다. 그러나 이러한 대응관계는 일 실시예에 불과하며 감시카메라(1)에 포함되는 모터의 종류 및 각 방향의 성분과 모터의 회전방향 등과 관련된 사항은 다양하게 변형될 수 있다. Meanwhile, the component in the + X direction derives a positive fan value, which may mean a clockwise rotation of the step motor which the fan control unit (23 of FIG. 4) normally includes. In addition, the component in the -X direction derives a negative fan value, which may mean that the step motor of the fan control unit 23 (in FIG. 4) rotates counterclockwise. However, this correspondence is only one embodiment, and matters related to the type of the motor included in the surveillance camera 1 and the components in each direction and the rotation direction of the motor may be variously modified.

다시 도 2a 및 도 2b를 참조하면, 송신부(340)는 대응부(330)에서 도출된 줌값, 팬값 및 틸트값을 제어데이터로써 감시카메라(1)로 전송한다(S204). 이 때, 유선 또는 무선 네트워크(2)의 제어데이터채널(DCON)을 통해 전송한다. 2A and 2B, the transmitter 340 transmits the zoom value, the pan value, and the tilt value derived from the counterpart 330 to the monitoring camera 1 as control data (S204). At this time, it transmits through the control data channel (D CON ) of the wired or wireless network (2).

도 4는 본 발명의 일 실시예에 의한 감시시스템(100)에 포함된 감시카메라(1)를 개략적으로 나타낸 블록도이다.4 is a block diagram schematically illustrating a surveillance camera 1 included in the surveillance system 100 according to an exemplary embodiment.

도 4를 참조하면, 감시카메라(1)는 데이터수신부(70), 영상획득부(10), 줌제어부(21), 팬제어부(23), 틸트제어부(25), 데이터송신부(60) 및 메모리(50)를 구비한다. 물론 이 외에도 필요에 따라 도 3에 도시된 바와 같이 A/D 변환부(30), 디지털 신호 처리부(40), CPU(100) 등을 더 구비할 수도 있다.Referring to FIG. 4, the surveillance camera 1 includes a data receiver 70, an image acquisition unit 10, a zoom controller 21, a pan controller 23, a tilt controller 25, a data transmitter 60, and a memory. 50 is provided. Of course, in addition to this, as shown in FIG. 3, the A / D converter 30, the digital signal processor 40, and the CPU 100 may be further provided.

데이터수신부(70)는 네트워크(2)를 통해 제어패널(3)로부터 전송된 제어데이터를 수신한다. 영상획득부(10)는 줌렌즈(11)를 포함한 렌즈부와, 이 렌즈부를 통과한 입사광으로부터 이미지 데이터를 생성하는 촬상소자(13)를 포함한다. 제어패널(3)로부터의 제어데이터가 CPU(100)에 인가됨에 따라 CPU(100)는 그 제어데이터를 파악하여 줌제어부(21), 팬제어부(23) 및 틸트제어부(25)를 제어한다. 이에 따라 각각 줌렌즈(11)의 위치, 영상획득부(10)의 패닝 및 틸팅 등이 제어된다. 구체적으로 줌제어부(21)는 줌(zoom)값에 따라 줌렌즈(11)를 제어하여 주밍동작을 수행하며, 팬제어부(23)는 팬(pan)값에 따라 영상획득부(10)를 패닝시키며, 틸트제어부(25)는 틸트(tilt)값에 따라 영상획득부(10)를 틸팅시킨다.The data receiver 70 receives the control data transmitted from the control panel 3 via the network 2. The image acquisition unit 10 includes a lens unit including a zoom lens 11 and an imaging device 13 for generating image data from incident light passing through the lens unit. As control data from the control panel 3 is applied to the CPU 100, the CPU 100 grasps the control data and controls the zoom control unit 21, the fan control unit 23, and the tilt control unit 25. Accordingly, the position of the zoom lens 11 and the panning and tilting of the image acquisition unit 10 are controlled. Specifically, the zoom controller 21 controls the zoom lens 11 according to the zoom value to perform the zooming operation, and the pan controller 23 pans the image acquisition unit 10 according to the pan value. The tilt control unit 25 tilts the image acquisition unit 10 according to the tilt value.

여기서 줌밍이란, 배율을 조정하여 피사체를 확대 또는 축소하여 볼 수 있게 하는 것이다. 한편, 패닝이란 영상획득부(10)를 가로방향, 즉 좌우로 이동시키며 피사체 영상을 획득하는 것을 의미한다. 마지막으로 틸팅이란 영상획득부(10)를 세로방향 즉, 상하로 이동시키면서 피사체 영상을 획득하는 것을 의미한다. In this case, zooming is to adjust the magnification so that the subject can be enlarged or reduced to be viewed. Meanwhile, panning refers to acquiring a subject image by moving the image acquisition unit 10 horizontally, ie, to the left and right. Lastly, the tilting means obtaining the subject image while moving the image acquisition unit 10 vertically, that is, up and down.

촬상소자(13)는 입력된 광으로부터 데이터를 생성하며, 아날로그/디지털 변환부(30)는 촬상소자(13)에서 출력되는 아날로그 데이터를 디지털 데이터로 변환한다. 물론 촬상소자(13)의 특성에 따라 아날로그/디지털 변환부(30)가 필요 없는 경우도 있을 수 있다.The imaging device 13 generates data from the input light, and the analog / digital converter 30 converts analog data output from the imaging device 13 into digital data. Of course, the analog / digital converter 30 may not be necessary depending on the characteristics of the image pickup device 13.

촬상소자(13)로부터의 데이터는 메모리(50)를 거쳐 디지털 신호 처리부(40)에 입력될 수도 있고, 메모리(50)를 거치지 않고 디지털 신호 처리부(40)에 입력될 수도 있으며, 필요에 따라 CPU(100)에도 입력될 수도 있다. 여기서 메모리(50)는 ROM 또는 RAM 등을 포함하는 개념이다. 디지털 신호 처리부(40)는 필요에 따라 감마(gamma) 보정, 화이트 밸런스 조정 등의 디지털 신호 처리를 할 수 있다.Data from the image pickup device 13 may be input to the digital signal processing unit 40 via the memory 50, or may be input to the digital signal processing unit 40 without passing through the memory 50. It may also be input to 100. The memory 50 is a concept including a ROM or a RAM. The digital signal processor 40 may perform digital signal processing such as gamma correction and white balance adjustment, as necessary.

디지털 신호 처리부(40)로부터 출력된 데이터는 메모리(50)를 통하여 또는 직접 데이터송신부(60)에 전달된다. 데이터송신부(60)는 네트워크(2)를 통해 단말기(4)에 이미지데이터를 전송하여, 단말기(4)의 표시부(410)에 이미지가 디스플레이되도록 할 수 있다. 여기서 이미지라 함은 실시간 동영상인 라이브뷰 동영상의 일 프레임이미지 등을 의미할 수 있다.The data output from the digital signal processor 40 is transmitted to the data transmitter 60 or directly through the memory 50. The data transmitter 60 may transmit image data to the terminal 4 via the network 2 so that the image is displayed on the display unit 410 of the terminal 4. Here, the image may mean a frame image of a live view video, which is a real time video.

다시 도 1을 참조하면, 단말기(4)는 이미지를 표시하는 표시부(410)를 포함하며, 네트워크(2)를 통해 감시카메라(1)로부터 전송된 이미지데이터를 수신하여 표시부(410)에 표시한다. Referring back to FIG. 1, the terminal 4 includes a display unit 410 for displaying an image, and receives and displays the image data transmitted from the surveillance camera 1 through the network 2 on the display unit 410. .

본 발명의 일 실시예에 의하면, 제어패널(3)의 센서부(310)가 위치한 평면은 단말기(4)의 표시부(410)가 포함된 평면과 실직적으로 평행하다. 다시 말하면, 제어패널(3)의 센서부(310)가 위치한 평면의 법선벡터는 표시부(410)가 위치한 평면의 법선팩터와 실질적으로 평행하다. 이로부터, 제어패널(3)을 이용하여 감시카메라(1)를 상하 방향으로 움직이는 틸트 동작을 수행할 때, 감시카메라(1)의 이동방향과 감시카메라(1)를 제어하는 사용자 손의 이동방향이 완전히 일치하게 되어 직관적으로 감시시스템(100)을 제어하는 것이 가능하다. According to one embodiment of the present invention, the plane in which the sensor unit 310 of the control panel 3 is located is substantially parallel to the plane including the display unit 410 of the terminal 4. In other words, the normal vector of the plane in which the sensor unit 310 of the control panel 3 is located is substantially parallel to the normal factor of the plane in which the display unit 410 is located. From this, when performing the tilt operation of moving the surveillance camera 1 in the vertical direction by using the control panel 3, the movement direction of the surveillance camera 1 and the movement direction of the user's hand controlling the surveillance camera 1. This complete match makes it possible to intuitively control the surveillance system 100.

도 5 내지 도 7은 본 발명의 일 실시예에 의한 감시시스템(100)에 포함된 제어패널(3) 상의 사용자의 제어동작에 따라 단말기(4)에 표시되는 이미지를 나타낸 것이다. 도 5 내지 도 7에서는 삼각형 모양으로 배치된 3개의 센서부(310)를 포함한 제어패널(3)을 일 예로 도시하였다. 5 to 7 show an image displayed on the terminal 4 according to the control operation of the user on the control panel 3 included in the monitoring system 100 according to an embodiment of the present invention. 5 to 7 illustrate an example of a control panel 3 including three sensor units 310 arranged in a triangular shape.

도 5를 참조하면, 제어패널(3)의 센서부(310) 상에 비접촉식으로 개체가 X축 방향으로 Δx만큼 이동한 경우를 가정한다. X축 방향의 성분은 감시카메라(1)에서 팬 동작을 제어한다. 특히 도 5에서 개체는 +X축 방향으로 이동하므로 감시카메라(1)는 우측으로 이동하며 감시카메라(1)의 영상획득부(10)는 Δx에 대응하는 팬값만큼 이동한다. 구체적으로, Δx에 대응하는 팬값만큼 팬제어부(도 4의 23) 가 포함하는 스텝모터가 소정의 방향으로 회전하여, 영상획득부(10)를 제어할 수 있다. 따라서, 최초 개체의 위치에서 단말기(4)는 피사체(44)가 정면에 위치하는 이미지를 표시하게 되나, 시간에 따라 단말기(4)의 표시부(410)에서 피사체(44)가 점점 왼쪽으로 이동하는 이미지를 표시하게 된다. Referring to FIG. 5, it is assumed that the object is moved by Δx in the X-axis direction in a non-contact manner on the sensor unit 310 of the control panel 3. The component in the X-axis direction controls the pan operation in the surveillance camera 1. In particular, in FIG. 5, since the object moves in the + X axis direction, the surveillance camera 1 moves to the right, and the image acquisition unit 10 of the surveillance camera 1 moves by a pan value corresponding to Δx. In detail, the step motor included in the fan control unit 23 in FIG. 4 may be rotated in a predetermined direction by the fan value corresponding to Δx, thereby controlling the image acquisition unit 10. Accordingly, the terminal 4 displays an image in which the subject 44 is located at the front in the position of the first object, but the subject 44 gradually moves to the left on the display unit 410 of the terminal 4 with time. Will display the image.

도 6을 참조하면, 제어패널(3)의 센서부(310) 상에 비접촉식으로 개체가 Y축 방향으로 Δy만큼 이동한 경우를 가정한다. Y축 방향의 성분은 감시카메라(1)에서 틸트 동작을 제어한다. 특히 도 6에서 개체는 +Y축 방향으로 이동하므로 감시카메라(1)는 상측으로 이동하며 감시카메라(1)의 영상획득부(10)는 Δy에 대응하는 틸트값만큼 이동한다. 구체적으로, Δy에 대응하는 틸트값만큼 틸트제어부(도 4의 25) 가 포함하는 스텝모터가 소정의 방향으로 회전하여, 영상획득부(10)를 제어할 수 있다. 따라서, 최초 개체의 위치에서 단말기(4)는 피사체(44)의 정면 이미지를 표시하게 되나, 시간에 따라 피사체(44)의 상면쪽으로 이동하는 이미지를 표시하게 된다. Referring to FIG. 6, it is assumed that an object is moved by? Y in the Y-axis direction in a non-contact manner on the sensor unit 310 of the control panel 3. The component in the Y-axis direction controls the tilting operation in the surveillance camera 1. In particular, in FIG. 6, since the object moves in the + Y axis direction, the surveillance camera 1 moves upward and the image acquisition unit 10 of the surveillance camera 1 moves by a tilt value corresponding to Δy. Specifically, the step motor included in the tilt control unit 25 of FIG. 4 may be rotated in a predetermined direction by a tilt value corresponding to Δy to control the image acquisition unit 10. Therefore, the terminal 4 displays the front image of the subject 44 at the position of the first object, but displays the image moving toward the upper surface of the subject 44 over time.

도 7을 참조하면, 제어패널(3)의 센서부(310) 상에 비접촉식으로 개체가 Z축 방향으로 Δz만큼 이동한 경우를 가정한다. Z축 방향의 성분은 감시카메라(1)에서 줌 동작을 제어한다. 특히 도 7에서 개체는 +Z축 방향으로 이동하므로 감시카메라(1)의 줌 렌즈(도 4의 11)는 Δz에 대응하는 줌값만큼 와이드(wide) 상태로 줌 아웃(zoom out)을 수행한다. 따라서, 단말기(4)는 최초 개체의 위치에서 최우 개체의 위치로 갈수록 줌 아웃되는 피사체(44)의 이미지를 표시하게 된다. Referring to FIG. 7, it is assumed that the object is moved by Z in the Z-axis direction in a non-contact manner on the sensor unit 310 of the control panel 3. The component in the Z-axis direction controls the zoom operation in the surveillance camera 1. In particular, in FIG. 7, since the object moves in the + Z-axis direction, the zoom lens 11 of FIG. 4 performs zoom out in a wide state by a zoom value corresponding to Δz. Accordingly, the terminal 4 displays an image of the subject 44 that is zoomed out from the position of the first object to the position of the rightmost object.

이상에서 설명한 바와 같이 본 발명의 일 실시 예에 의한 감시시스템에 의하면, 첫째로 비접촉식으로 제어패널을 조작하여 감시카메라를 제어할 수 있어 사용자의 편의를 극대화한다. 둘째로, 제어패널의 센서부가 배치된 평면과 이미지가 표시되는 모니터의 평면이 실질적으로 평행하여 특히 팬, 틸트, 줌 동작을 사용자가 직관적으로 수행할 수 있는 특징이 있다. As described above, according to the monitoring system according to an exemplary embodiment of the present invention, first, the control camera can be controlled by operating the control panel in a non-contact manner, thereby maximizing user convenience. Secondly, the plane on which the sensor unit of the control panel is disposed is substantially parallel to the plane of the monitor on which the image is displayed, so that the user can intuitively perform the pan, tilt and zoom operations.

한편, 본 발명의 다른 실시예로 제어패널은 사용자의 특정한 손 포즈를 인식할 수 있는 카메라; 특정한 손 포즈를 기억하는 메모리; 카메라로 촬영한 손 포즈와 메모리에 기억된 손 포즈가 일치하는지 판단하는 판단부; 판단부의 결과 일치하는 경우 해당 손 포즈에 맞는 제어데이터를 추출하는 추출부; 를 구비하고, 추출된 제어데이터를 감시카메라에 전송함으로써, 특정 손 포즈에 의해 감시카메라를 제어하는 감시시스템을 제공할 수도 있다. On the other hand, in another embodiment of the present invention the control panel includes a camera that can recognize a specific hand pose of the user; Memory for storing specific hand poses; A determination unit which determines whether a hand pose taken by the camera and a hand pose stored in the memory match; An extraction unit for extracting control data suitable for a corresponding hand pose when the result of the determination unit matches; And it is possible to provide a surveillance system for controlling the surveillance camera by a specific hand pose by transmitting the extracted control data to the surveillance camera.

도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다. It will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Accordingly, the true scope of the present invention should be determined by the technical idea of the appended claims.

100: 감시시스템
1: 감시카메라
2: 네트워크
3: 제어패널
4: 단말기
100: surveillance system
1: surveillance camera
2: network
3: control panel
4: terminal

Claims (10)

비접촉되어 이동하는 개체의 3차원 위치의 변화량을 측정하여 상기 3차원 위치의 변화량에 대응하는 줌(zoom)값, 팬(pan)값 및 틸트(tilt)값을 도출한 후 상기 도출된 줌값, 팬값 및 틸트값을 제어데이터로써 네트워크를 통해 전송하는 제어패널;
상기 네트워크를 통해 상기 제어패널을 통해 입력되는 상기 제어데이터에 따라 주밍, 패닝 또는 틸팅을 수행하며 촬영하고, 촬영을 통해 생성한 이미지데이터를 상기 네트워크를 통해 전송하는 감시카메라; 및
상기 네트워크를 통해 상기 감시카메라로부터 전송된 상기 이미지데이터를 수신하여 표시부에 표시하는 단말기;
를 포함하는 감시시스템.
After measuring the change amount of the three-dimensional position of the object moving in contact with the non-contact, the zoom value, pan value and tilt value corresponding to the change amount of the three-dimensional position are derived, and then the derived zoom value and pan value. And a control panel for transmitting the tilt value through the network as control data.
A surveillance camera that performs zooming, panning, or tilting according to the control data input through the control panel through the network, and photographs, and transmits the image data generated through photographing through the network; And
A terminal for receiving the image data transmitted from the surveillance camera through the network and displaying the image data on a display unit;
Surveillance system comprising a.
비접촉되어 이동하는 개체의 3차원 위치의 변화량을 측정하여 상기 3차원 위치의 변화량에 대응하는 줌(zoom)값, 팬(pan)값 및 틸트(tilt)값을 도출한 후 상기 도출된 줌값, 팬값 및 틸트값을 제어데이터로써 네트워크를 통해 전송하는 제어패널;
상기 네트워크를 통해 상기 제어패널을 통해 입력되는 상기 제어데이터에 따라 주밍, 패닝 또는 틸팅을 수행하며 촬영하고, 촬영을 통해 생성한 이미지데이터를 상기 네트워크를 통해 전송하는 감시카메라; 및
상기 네트워크를 통해 상기 감시카메라로부터 전송된 상기 이미지데이터를 수신하여 표시부에 표시하는 단말기;를 포함하고,
상기 제어패널은
상기 비접촉되어 이동하는 개체의 3차원 위치의 변화량을 소정의 시간 간격으로 측정하는 적어도 둘 이상의 센서부;
측정된 상기 3차원 위치의 변화량을 X방향, Y방향 및 Z방향의 성분의 변화량으로 분해하는 분석부;
상기 X방향, Y방향 및 Z방향의 성분 각각의 변화량에 대응하는 줌값, 팬값 및 틸트값을 도출하는 대응부; 및
도출된 상기 줌값, 팬값 및 틸트값을 상기 제어데이터로써 상기 네트워크를 통해 상기 감시카메라로 전송하는 송신부;
를 포함하는 감시시스템.
After measuring the change amount of the three-dimensional position of the object moving in contact with the non-contact, the zoom value, pan value and tilt value corresponding to the change amount of the three-dimensional position are derived, and then the derived zoom value and pan value. And a control panel for transmitting the tilt value through the network as control data.
A surveillance camera that performs zooming, panning, or tilting according to the control data input through the control panel through the network, and photographs, and transmits the image data generated through photographing through the network; And
And a terminal for receiving the image data transmitted from the surveillance camera through the network and displaying the image data on a display unit.
The control panel
At least two sensor units measuring a change amount of the three-dimensional position of the object moving in contact with each other at predetermined time intervals;
An analysis unit for decomposing the measured amount of change in the three-dimensional position into the amount of change in the components in the X, Y and Z directions;
A counter for deriving a zoom value, a pan value, and a tilt value corresponding to the amount of change of each of the components in the X, Y, and Z directions; And
A transmitter for transmitting the derived zoom value, pan value, and tilt value to the surveillance camera through the network as the control data;
Surveillance system comprising a.
청구항 3은(는) 설정등록료 납부시 포기되었습니다.Claim 3 has been abandoned due to the setting registration fee. 제2항에 있어서,
상기 센서부는
초음파, 적외선 또는 레이저를 사용하여, 상기 비접촉된 개체의 3차원 위치의 변화량을 소정의 시간 간격으로 측정하는 감시시스템.
The method of claim 2,
The sensor unit
Monitoring system for measuring the amount of change of the three-dimensional position of the non-contacted object at predetermined time intervals using ultrasonic waves, infrared rays or laser.
제2항에 있어서,
상기 적어도 둘 이상의 센서부는 동일한 평면 상에 위치하며,
상기 센서부가 셋 이상일 경우 각각의 센서부 전체가 동일한 직선 상에 위치하지 않는 감시시스템.
The method of claim 2,
The at least two sensor units are located on the same plane,
The three or more sensor units, the entire monitoring unit is not located on the same straight line.
청구항 5은(는) 설정등록료 납부시 포기되었습니다.Claim 5 was abandoned upon payment of a set-up fee. 제4항에 있어서,
상기 X방향의 성분은 상기 센서부가 위치한 평면 상에서, 좌우방향의 성분이며
상기 Y방향의 성분은 상기 센서부가 위치한 평면 상에서, 전후방향의 성분이며
상기 Z방향의 성분은 상기 센서부가 위치한 평면을 기준으로, 상하방향의 성분인 감시시스템.
5. The method of claim 4,
The component in the X direction is a component in the left and right directions on the plane where the sensor part is located.
The component in the Y direction is a component in the front-rear direction on the plane where the sensor part is located.
The component in the Z direction is a component in the vertical direction, based on the plane in which the sensor unit is located.
청구항 6은(는) 설정등록료 납부시 포기되었습니다.Claim 6 has been abandoned due to the setting registration fee. 제4항에 있어서,
상기 X방향의 성분의 변화량은 팬값에 대응하며,
상기 Y방향의 성분의 변화량은 틸트값에 대응하며,
상기 Z방향의 성분의 변화량은 줌값에 대응하는 감시시스템.
5. The method of claim 4,
The amount of change in the component in the X direction corresponds to the fan value,
The amount of change in the component in the Y direction corresponds to the tilt value,
And a change amount of the component in the Z direction corresponds to a zoom value.
삭제delete 청구항 8은(는) 설정등록료 납부시 포기되었습니다.Claim 8 was abandoned when the registration fee was paid. 제2항에 있어서,
상기 센서부가 위치한 평면은 상기 단말기의 상기 표시부가 포함된 평면과 평행한 감시시스템.
The method of claim 2,
And a plane in which the sensor unit is located is parallel to a plane in which the display unit of the terminal is included.
비접촉되어 이동하는 개체의 3차원 위치의 변화량을 측정하여 상기 3차원 위치의 변화량에 대응하는 줌(zoom)값, 팬(pan)값 및 틸트(tilt)값을 도출한 후 상기 도출된 줌값, 팬값 및 틸트값을 제어데이터로써 네트워크를 통해 전송하는 제어패널;
상기 네트워크를 통해 상기 제어패널을 통해 입력되는 상기 제어데이터에 따라 주밍, 패닝 또는 틸팅을 수행하며 촬영하고, 촬영을 통해 생성한 이미지데이터를 상기 네트워크를 통해 전송하는 감시카메라; 및
상기 네트워크를 통해 상기 감시카메라로부터 전송된 상기 이미지데이터를 수신하여 표시부에 표시하는 단말기;를 포함하고,
상기 감시카메라는
줌렌즈를 포함한 렌즈부와, 상기 렌즈부를 통과한 입사광으로부터 이미지 데이터를 생성하는 촬상소자를 포함하는 영상획득부;
줌값에 따라 상기 줌렌즈를 제어하는 줌제어부;
팬값에 따라 상기 영상획득부를 패닝시키는 팬제어부; 및
틸트값에 따라 상기 영상획득부를 틸팅시키는 틸트제어부;
를 포함하는 감시시스템.
After measuring the change amount of the three-dimensional position of the object moving in contact with the non-contact, the zoom value, pan value and tilt value corresponding to the change amount of the three-dimensional position are derived, and then the derived zoom value and pan value. And a control panel for transmitting the tilt value through the network as control data.
A surveillance camera that performs zooming, panning, or tilting according to the control data input through the control panel through the network, and photographs, and transmits the image data generated through photographing through the network; And
And a terminal for receiving the image data transmitted from the surveillance camera through the network and displaying the image data on a display unit.
The surveillance camera
An image acquisition unit including a lens unit including a zoom lens and an imaging device for generating image data from incident light passing through the lens unit;
A zoom control unit controlling the zoom lens according to a zoom value;
A fan control unit to pan the image acquisition unit according to a fan value; And
A tilt control unit for tilting the image acquisition unit according to a tilt value;
Surveillance system comprising a.
제9항에 있어서,
상기 감시카메라는
상기 네트워크를 통해 상기 제어패널로부터 전송된 상기 줌값, 팬값 및 틸트값을 수신하는 데이터수신부; 및
상기 촬상소자가 생성한 이미지데이터를 상기 네트워크를 통해 단말기로 전송하는 데이터송신부;
를 포함하는 감시시스템.
10. The method of claim 9,
The surveillance camera
A data receiver configured to receive the zoom value, pan value and tilt value transmitted from the control panel through the network; And
A data transmitter for transmitting the image data generated by the image pickup device to the terminal through the network;
Surveillance system comprising a.
KR1020110022874A 2011-03-15 2011-03-15 Security system KR101247316B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110022874A KR101247316B1 (en) 2011-03-15 2011-03-15 Security system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110022874A KR101247316B1 (en) 2011-03-15 2011-03-15 Security system

Publications (2)

Publication Number Publication Date
KR20120105202A KR20120105202A (en) 2012-09-25
KR101247316B1 true KR101247316B1 (en) 2013-03-25

Family

ID=47112257

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110022874A KR101247316B1 (en) 2011-03-15 2011-03-15 Security system

Country Status (1)

Country Link
KR (1) KR101247316B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101553138B1 (en) 2014-01-28 2015-09-14 울산대학교 산학협력단 Radar display monitoring system suing ultra sonic sensor

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101634282B1 (en) * 2015-12-18 2016-06-30 주식회사 싸인텔레콤 The apparatus of smart measuring a moving object by 3d modeling of hexahedron and measuring control
KR102007284B1 (en) 2016-05-31 2019-08-05 최강일 A Hybrid Bio-coal Manufacturing Technology by Hydrothermal Carbonization

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000089320A (en) 1998-09-07 2000-03-31 Olympus Optical Co Ltd Remote unit and remote control photographing system
JP2004128997A (en) 2002-10-04 2004-04-22 Nippon Telegr & Teleph Corp <Ntt> Device, method and program for video remote control, and recording medium with the program recorded thereon
KR20070055261A (en) * 2005-11-25 2007-05-30 엘지전자 주식회사 Mobile communication device with remote controling camera and its method
KR20100124906A (en) * 2009-05-20 2010-11-30 아주대학교산학협력단 Apparatus and method controlling ptz(pan-tilt-zoom) camera using multi sensor

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000089320A (en) 1998-09-07 2000-03-31 Olympus Optical Co Ltd Remote unit and remote control photographing system
JP2004128997A (en) 2002-10-04 2004-04-22 Nippon Telegr & Teleph Corp <Ntt> Device, method and program for video remote control, and recording medium with the program recorded thereon
KR20070055261A (en) * 2005-11-25 2007-05-30 엘지전자 주식회사 Mobile communication device with remote controling camera and its method
KR20100124906A (en) * 2009-05-20 2010-11-30 아주대학교산학협력단 Apparatus and method controlling ptz(pan-tilt-zoom) camera using multi sensor

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101553138B1 (en) 2014-01-28 2015-09-14 울산대학교 산학협력단 Radar display monitoring system suing ultra sonic sensor

Also Published As

Publication number Publication date
KR20120105202A (en) 2012-09-25

Similar Documents

Publication Publication Date Title
US8730164B2 (en) Gesture recognition apparatus and method of gesture recognition
US10242454B2 (en) System for depth data filtering based on amplitude energy values
TWI544447B (en) System and method for augmented reality
US20150116502A1 (en) Apparatus and method for dynamically selecting multiple cameras to track target object
WO2013146269A1 (en) Image capturing device, image processing method, and program
CN110035218B (en) Image processing method, image processing device and photographing equipment
JP5889408B2 (en) Information processing apparatus, method, and program
JP6016226B2 (en) Length measuring device, length measuring method, program
CN104204848B (en) There is the search equipment of range finding camera
JP2007249722A (en) Object detector
JP5860144B2 (en) Information processing apparatus, method, and program
KR20120046973A (en) Method and apparatus for generating motion information
US11669173B2 (en) Direct three-dimensional pointing using light tracking and relative position detection
JP7240996B2 (en) Surveying system and surveying method using eyewear device
CN109213363A (en) Predictive indicator touch location determines the system and method being directed toward in 3d space
KR20140142441A (en) Shooting Method for Three-Dimensional Modeling And Electrical Device Thereof
KR101247316B1 (en) Security system
CN113870213A (en) Image display method, image display device, storage medium, and electronic apparatus
US9261974B2 (en) Apparatus and method for processing sensory effect of image data
JP2008015815A (en) Image processor and image processing program
JP2020088840A (en) Monitoring device, monitoring system, monitoring method, and monitoring program
TW201205344A (en) Adjusting system and method for screen, advertisement board including the same
US9392254B2 (en) Game sizing camera
JP2014170367A (en) Object detection device, object detection method, object detection system and program
CN112541940A (en) Article detection method and system

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180226

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190227

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20200225

Year of fee payment: 8