KR101247316B1 - Security system - Google Patents
Security system Download PDFInfo
- Publication number
- KR101247316B1 KR101247316B1 KR1020110022874A KR20110022874A KR101247316B1 KR 101247316 B1 KR101247316 B1 KR 101247316B1 KR 1020110022874 A KR1020110022874 A KR 1020110022874A KR 20110022874 A KR20110022874 A KR 20110022874A KR 101247316 B1 KR101247316 B1 KR 101247316B1
- Authority
- KR
- South Korea
- Prior art keywords
- value
- network
- zoom
- component
- tilt
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
- H04N23/661—Transmitting camera control signals through networks, e.g. control via the Internet
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/69—Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
Abstract
본 발명은 비접촉되어 이동하는 개체의 3차원 위치의 변화량을 측정하여 상기 3차원 위치의 변화량에 대응하는 줌(zoom)값, 팬(pan)값 및 틸트(tilt)값을 도출한 후 상기 도출된 줌(zoom)값, 팬(pan)값 및 틸트(tilt)값을 제어데이터로써 네트워크를 통해 전송하는 제어패널; 및 상기 네트워크를 통해 상기 제어패널을 통해 입력되는 상기 제어데이터에 따라 주밍, 패닝 또는 틸팅을 수행하며 촬영하고, 촬영을 통해 생성한 이미지데이터를 상기 네트워크를 통해 전송하는 감시카메라; 를 포함하는 감시시스템을 개시한다. The present invention measures the amount of change in the three-dimensional position of the object moving in contact with the non-contact to derive the zoom value, pan value and tilt value corresponding to the amount of change in the three-dimensional position is derived A control panel which transmits a zoom value, a pan value, and a tilt value as control data via a network; And a surveillance camera that performs zooming, panning, or tilting according to the control data input through the control panel through the network, and photographs, and transmits the image data generated through photographing through the network. Discloses a surveillance system comprising a.
Description
본 발명은 감시시스템에 관한 것으로, 보다 상세하게는 제어패널에 의해 감시카메라의 팬(pan), 틸트(tilt) 및 줌(zoom)이 제어되는 감시시스템에 관한 것이다.BACKGROUND OF THE
감시카메라는 네트워크를 통해 단말기에 연결되어, 획득한 이미지데이터를 네트워크를 통해 단말기로 송신하여 이미지가 디스플레이 되도록 한다. 이에 따라 단말기는 표시부에 실시간 동영상이라고 할 수 있는 라이브뷰 동영상을 디스플레이하게 된다. 물론 감시카메라는 네트워크를 통해 제어패널로부터의 신호를 수신하여 제어되기도 한다.The surveillance camera is connected to the terminal through a network, and transmits the acquired image data to the terminal through the network so that the image is displayed. Accordingly, the terminal displays the live view video, which can be called a real time video, on the display unit. Surveillance cameras may also be controlled by receiving signals from the control panel via the network.
이러한 감시시스템에 있어서, 사용자가 감시카메라를 보다 직관적이고 편리하게 제어할 수 있는 제어패널에 대한 연구가 시급하다. In such a surveillance system, it is urgent to study a control panel that allows a user to control the surveillance camera more intuitively and conveniently.
본 발명은 비접촉식으로 감시카메라의 팬, 틸트, 및 줌을 제어할 수 있는 제어패널을 포함하는 감시시스템을 제공하는 것을 목적으로 한다. An object of the present invention is to provide a surveillance system including a control panel capable of controlling the pan, tilt, and zoom of the surveillance camera in a non-contact manner.
상기 목적을 달성하기 위한 본 발명의 일 측면에 따르면, 비접촉되어 이동하는 개체의 3차원 위치의 변화량을 측정하여 상기 3차원 위치의 변화량에 대응하는 줌(zoom)값, 팬(pan)값 및 틸트(tilt)값을 도출한 후 상기 도출된 줌(zoom)값, 팬(pan)값 및 틸트(tilt)값을 제어데이터로써 네트워크를 통해 전송하는 제어패널; 및 상기 네트워크를 통해 상기 제어패널을 통해 입력되는 상기 제어데이터에 따라 주밍, 패닝 또는 틸팅을 수행하며 촬영하고, 촬영을 통해 생성한 이미지데이터를 상기 네트워크를 통해 전송하는 감시카메라; 를 포함하는 감시시스템을 제공한다. According to an aspect of the present invention for achieving the above object, a zoom value, pan value and tilt corresponding to the change amount of the three-dimensional position by measuring the change amount of the three-dimensional position of the object moving in contact with the non-contact a control panel for deriving a tilt value and transmitting the derived zoom value, pan value, and tilt value as control data through a network; And a surveillance camera that performs zooming, panning, or tilting according to the control data input through the control panel through the network, and photographs, and transmits the image data generated through photographing through the network. It provides a surveillance system comprising a.
이러한 본 발명의 일 특징에 따르면, 상기 제어패널은 상기 비접촉되어 이동하는 개체의 3차원 위치의 변화량을 소정의 시간 간격으로 측정하는 적어도 둘 이상의 센서부; 측정된 상기 3차원 위치의 변화량을 X방향, Y방향 및 Z방향의 성분의 변화량으로 분해하는 분석부; 상기 X방향, Y방향 및 Z방향의 성분 각각의 변화량에 대응하는 줌값, 팬값 및 틸트값을 도출하는 대응부; 및 도출된 상기 줌값, 팬값 및 틸트값을 상기 제어데이터로써상기 네트워크를 통해 상기 감시카메라로 전송하는 송신부; 를 포함한다. According to one aspect of the present invention, the control panel comprises: at least two sensor units for measuring the amount of change in the three-dimensional position of the non-contacted moving object at predetermined time intervals; An analysis unit for decomposing the measured amount of change in the three-dimensional position into the amount of change in the components in the X, Y and Z directions; A counter for deriving a zoom value, a pan value, and a tilt value corresponding to the amount of change of each of the components in the X, Y, and Z directions; And a transmitting unit transmitting the derived zoom value, pan value, and tilt value as the control data to the surveillance camera through the network. It includes.
이러한 본 발명의 일 특징에 따르면, 상기 센서부는 초음파, 적외선 또는 레이저를 사용하여, 상기 비접촉된 개체의 3차원 위치의 변화량을 소정의 시간 간격으로 측정한다. According to one feature of the present invention, the sensor unit measures the amount of change of the three-dimensional position of the non-contacted object at predetermined time intervals using ultrasonic waves, infrared rays, or lasers.
이러한 본 발명의 일 특징에 따르면, 상기 적어도 둘 이상의 센서부는 동일한 평면 상에 위치하며, 상기 센서부가 셋 이상일 경우 각각의 센서부 전체가 동일한 직선 상에 위치하지 않는다. According to one aspect of the present invention, the at least two or more sensor units are located on the same plane, and when the three or more sensor units are three or more, each sensor unit is not located on the same straight line.
이러한 본 발명의 일 특징에 따르면, 상기 X방향의 성분은 상기 센서부가 위치한 평면 상에서, 좌우방향의 성분이며 상기 Y방향의 성분은 상기 센서부가 위치한 평면 상에서, 전후방향의 성분이며 상기 Z방향의 성분은 상기 센서부가 위치한 평면을 기준으로, 상하방향의 성분이다. According to one feature of the present invention, the component in the X direction is a component in the left and right direction on the plane in which the sensor unit is located, and the component in the Y direction is a component in the front and rear direction in the plane where the sensor unit is located, and the component in the Z direction. Is a component in the vertical direction with respect to the plane in which the sensor unit is located.
이러한 본 발명의 일 특징에 따르면, 상기 X방향의 성분의 변화량은 팬값에 대응하며, 상기 Y방향의 성분의 변화량은 틸트값에 대응하며, 상기 Z방향의 성분의 변화량은 줌값에 대응한다. According to one aspect of the present invention, the change amount of the component in the X direction corresponds to the pan value, the change amount of the component in the Y direction corresponds to the tilt value, and the change amount of the component in the Z direction corresponds to the zoom value.
이러한 본 발명의 일 특징에 따르면, 상기 네트워크를 통해 상기 감시카메라로부터 전송된 상기 이미지데이터를 수신하여 표시부에 표시하는 단말기; 를 더 포함한다. According to one aspect of the present invention, a terminal for receiving the image data transmitted from the surveillance camera via the network and displaying on the display unit; .
이러한 본 발명의 일 특징에 따르면, 상기 센서부가 위치한 평면은 상기 단말기의 상기 표시부가 포함된 평면과 실직적으로 평행하다.According to one aspect of the present invention, the plane in which the sensor unit is located is substantially parallel to the plane including the display unit of the terminal.
이러한 본 발명의 일 특징에 따르면, 상기 감시카메라는 줌렌즈를 포함한 렌즈부와, 상기 렌즈부를 통과한 입사광으로부터 이미지 데이터를 생성하는 촬상소자를 포함하는 영상획득부; 줌값에 따라 상기 줌렌즈를 제어하는 줌제어부; 팬값에 따라 상기 영상획득부를 패닝시키는 팬제어부; 및 틸트값에 따라 상기 영상획득부를 틸팅시키는 틸트제어부; 를 포함한다. According to one aspect of the present invention, the surveillance camera comprises: an image acquisition unit including a lens unit including a zoom lens and an image pickup device for generating image data from incident light passing through the lens unit; A zoom control unit controlling the zoom lens according to a zoom value; A fan control unit to pan the image acquisition unit according to a fan value; A tilt controller configured to tilt the image acquisition unit according to a tilt value; It includes.
이러한 본 발명의 일 특징에 따르면, 상기 감시카메라는 상기 네트워크를 통해 상기 제어패널로부터 전송된 상기 줌값, 팬값 및 틸트값을 수신하는 데이터수신부; 및 상기 촬상소자가 생성한 이미지데이터를 상기 네트워크를 통해 단말기로 전송하는 데이터송신부; 를 포함한다. According to one aspect of the present invention, the surveillance camera includes a data receiver for receiving the zoom value, pan value and tilt value transmitted from the control panel via the network; And a data transmitter for transmitting the image data generated by the imaging device to the terminal through the network. It includes.
전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다. Other aspects, features, and advantages other than those described above will become apparent from the following drawings, claims, and detailed description of the invention.
본 발명의 일 실시 예에 의한 감시시스템에 의하면, 제어패널이 비접촉식으로 감시카메라의 팬, 틸트 및 줌을 제어할 수 있어 사용자가 손의 움직임을 통해 편리하고 직관적으로 감시카메라의 제어가 가능한 장점이 있다. According to the surveillance system according to an embodiment of the present invention, the control panel can control the pan, tilt and zoom of the surveillance camera in a non-contact manner, the user can conveniently and intuitively control the surveillance camera through the movement of the hand. have.
또한, 제어패널 상에서 제어를 수행하는 평면과, 이미지데이터가 보여지는 단말기의 평면이 실직적으로 평행하게 위치하여 사용자의 혼동을 방지하고, 정확한 감시카메라의 제어가 가능한 특징이 있다. In addition, the plane to perform the control on the control panel, and the plane of the terminal in which the image data is viewed in parallel parallel position to prevent the user confusion, it is characterized by the precise control of the surveillance camera.
도 1 은 본 발명의 일 실시예에 따른 감시시스템을 개략적으로 도시한 개념도이다.
도 2a는 본 발명의 일 실시예에 따른 감시시스템에 포함된 제어패널을 나타낸 블록도이다.
도 2b는 도 2a의 제어패널의 제어방법을 나타낸 흐름도이다.
도 3은 2개의 센서부로 개체의 이동거리를 도출하는 방법을 나타낸 것이다.
도 4는 본 발명의 일 실시예에 의한 감시시스템에 포함된 감시카메라를 개략적으로 나타낸 블록도이다.
도 5 내지 도 7은 본 발명의 일 실시예에 의한 감시시스템에 포함된 제어패널 상의 사용자의 제어동작에 따라 단말기에 표시되는 이미지를 나타낸 것이다. 1 is a conceptual diagram schematically showing a monitoring system according to an embodiment of the present invention.
Figure 2a is a block diagram showing a control panel included in the monitoring system according to an embodiment of the present invention.
2B is a flowchart illustrating a control method of the control panel of FIG. 2A.
3 illustrates a method of deriving a moving distance of an object with two sensor units.
4 is a block diagram schematically illustrating a surveillance camera included in a surveillance system according to an exemplary embodiment of the present invention.
5 to 7 illustrate an image displayed on a terminal according to a control operation of a user on a control panel included in a monitoring system according to an embodiment of the present invention.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. BRIEF DESCRIPTION OF THE DRAWINGS The present invention is capable of various modifications and various embodiments, and specific embodiments are illustrated in the drawings and described in detail in the detailed description. It is to be understood, however, that the invention is not to be limited to the specific embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. The terms first, second, etc. may be used to describe various elements, but the elements should not be limited by terms. Terms are used only for the purpose of distinguishing one component from another.
본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.
이하 첨부된 도면들에 도시된 본 발명에 관한 실시예를 참조하여 본 발명의 구성 및 작용을 상세히 설명한다. Hereinafter, with reference to the embodiments of the present invention shown in the accompanying drawings will be described in detail the configuration and operation of the present invention.
도 1 은 본 발명의 일 실시예에 따른 감시시스템(100)을 개략적으로 도시한 개념도이다. 1 is a conceptual diagram schematically showing a
도 1을 참조하면, 본 발명의 일 실시예에 따른 감시시스템(100)은 복수개의 감시카메라(1), 제어패널(3), 및 단말기(4)를 포함한다. 감시카메라들(1)은 유선 또는 무선의 네트워크(2)를 통해 제어패널(3) 및 단말기(4)와 데이터를 통신한다. 구체적으로, 감시카메라들(1)은 제어데이터채널(DCON)을 통해 제어패널(3)로부터 제어데이터를 전달받고, 영상데이터채널(DIMA)을 통해 단말기(3)로 이미지데이터를 전달한다. 물론 복수개의 감시카메라(1)가 아닌 한 개의 감시카메라(1)만 제어패널(3) 및 단말기(4)와 통신할 수도 있고, 한 개의 감시카메라(1) 또는 복수개의 감시카메라들(1)이 복수개의 제어패널(3) 및 단말기(4)와 통신할 수도 있는 등 다양한 변형이 가능함은 물론이다.Referring to FIG. 1, a
도 1에서는 단말기(4)가 컴퓨터와 유사한 형태를 갖는 것으로 도시하고 있으나 본 실시예에 따른 감시시스템(100)에 포함된 단말기(4)가 도 1에 도시된 것과 같은 형태에 한정되는 것은 아니며, 표시부(410)를 갖는 장치라면 모니터 외에도 어떠한 것이든 가능함은 물론이다. 단말기(4)는 필요에 따라 감시카메라(1)로부터의 라이브뷰 동영상을 저장할 수도 있다.Although FIG. 1 illustrates that the
도 2a는 본 발명의 일 실시예에 따른 감시시스템(100)에 포함된 제어패널(3)을 나타낸 블록도이다. 또한 도 2b는 도 2a의 제어패널(3)의 제어방법을 나타낸 흐름도이다. 2A is a block diagram showing a
도 2a 및 도 2b 를 참조하면, 본 발명의 일 실시예에 따른 제어패널(3)은 비접촉하는 개체의 3차원 위치의 변화량을 측정하여 측정한 3차원 위치의 변화량에 대응하는 줌(zoom)값, 팬(pan)값 및 틸트(tilt)값을 도출하여 제어데이터로써 감시카메라(1)에 전송한다. 2A and 2B, the
여기서 개체란, 3차원 위치를 측정하는 센서의 목적물로써 초음파, 적외선 또는 레이저 센서를 사용할 때, 초음파, 적외선 또는 레이저가 목적물에 반사되어 센서로 되돌아가 3차원 위치의 측정이 가능한 모든 물체를 의미한다. 예를 들어, 사용자의 손 등을 포함할 수 있다. Here, the term "object" means any object capable of measuring a three-dimensional position when the ultrasonic, infrared, or laser is reflected on the object and returned to the sensor when the ultrasonic, infrared, or laser sensor is used as the object of the sensor for measuring the three-dimensional position. . For example, the user's hand may be included.
한편, 비접촉 개체란, 개체가 사용자의 손이라고 가정할 때, 종래 손으로 조이스틱을 잡거나, 버튼을 누르는 등의 접촉 방식의 조작이 아니라 손이 제어패널(3)에 접촉하지 않고도 감시카메라(1)를 조작할 수 있는 제어데이터를 생성할 수 있는 것을 의미한다.On the other hand, the non-contact object is a
본 발명의 일 실시예에 의한 제어패널(3)은 센서부(310), 분석부(320), 대응부(330) 및 송신부(340)를 포함한다. The
도 2a 및 도 2b를 참조하면, 센서부(310)는 비접촉되어 이동하는 개체의 3차원 위치의 변화량을 소정의 시간 간격으로 측정한다(S201). 여기서 위치의 변화량이란, 개체의 이동거리 및 이동방향을 의미할 수 있다. 제어패널(3)은 개체의 이동방향인 X방향, Y방향 및 Z방향에 따라 팬, 틸트, 또는 줌을 수행할 것인지 판단하게 된다. 또한, 제어패널(3)은 개체의 이동거리인 각 방향 성분의 변화량에 따라 얼마만큼의 팬, 틸트 또는 줌을 수행할 것인지 판단하게 된다. 따라서, 센서부(310)는 개체의 3차원의 위치 변화량으로써 개체의 이동거리 및 이동방향을 도출할 수 있으면 족하다. 그러나, 본 발명은 이에 한정되지 않고, 개체의 좌표를 3차원 공간에서 얻은 다음 이동하는 개체의 3차원의 위치 변화량을 도출할 수도 있을 것이다. 2A and 2B, the
센서부(310)는 일반적으로 공지된 초음파, 적외선 또는 레이저센서 등을 사용할 수 있다. 따라서, 소정의 시간간격이란, 센서부(310)의 타입에 따라, 매개파동을 수 초, 수 마이크로(μ)초, 수 나노(n)초 등의 간격으로 발사 및 수신하는 것일 수 있다. The
센서부(310)는 초음파와 같은 매개파동을 발사하는 발사부(미도시) 및 개체에 반사된 초음파를 수신하는 수신부(미도시)를 포함한다. 한편, 센서부는 개체에 반사되어 수신되는 초음파가 기준 평면으로부터 가지는 각도를 측정할 수 있다. 본 발명의 일 실시 예에 의한 제어패널(3)은 센서부(310)를 적어도 2개 이상 포함한다. 2개 이상의 센서부(310)로부터, 개체의 이동거리 및 이동방향을 파악할 수 있기 때문이다. The
한편, 3개 이상의 센서부(310)를 포함하는 경우, 3개 이상의 센서부(310) 모두가 동일한 직선상에 위치하지는 않아야 한다. 예를 들어, 3개의 센서부가 모두 일 직선 상에 위치하는 경우 2개의 센서부를 포함하는 것과 동일한 효과 밖에 얻지 못하기 때문이다. On the other hand, when including three or
도 3은 2개의 센서부(310)로 개체의 이동거리를 도출하는 방법을 나타낸 것이다. 도 3에서는 설명의 편의를 위해, 2개의 센서부(310)를 사용하였으나, 3개 이상의 센서부(310)를 사용하는 경우에도 유사한 방법으로 개체의 이동거리를 도출할 수 있다. 3 illustrates a method of deriving a moving distance of an object with two
도 3을 참조하면, t1시간의 개체(Ht1)에 S1센서가 초음파를 발사한 후, 반사된 초음파를 수신하여 L1길이를 얻는다. 동시에, S1센서는 t1시간의 개체(Ht1)에 반사되어 수신되는 초음파가 기준평면(P)으로부터 가지는 각도인 θ1을 측정한다. Referring to FIG. 3, after the S1 sensor emits ultrasonic waves to the object Ht1 at t1 time, the reflected ultrasonic waves are received to obtain the L1 length. At the same time, the S1 sensor measures [theta] 1, which is an angle of the ultrasonic wave received by being reflected from the object Ht1 at t1 time from the reference plane P.
다음으로 t2 시간의 개체(Ht2)에 S2센서가 초음파를 발사한 후, 반사된 초음파를 수신하여 R1길이를 얻는다. 동시에, S2센서는 t2시간의 개체(Ht2)에 반사되어 수신되는 초음파가 기준평면(P)으로부터 가지는 각도인 r1을 측정한다. Next, after the S2 sensor emits an ultrasonic wave to the object Ht2 at t2 time, the reflected ultrasonic wave is received to obtain the R1 length. At the same time, the S2 sensor measures r1, which is an angle that the ultrasonic wave received by reflecting on the object Ht2 at t2 time has from the reference plane P.
이렇게 얻은 L1 및 θ1에 삼각함수법을 적용하면, d1의 길이가 계산되고, 마찬가지로, R2 및 r2에 삼각함수법을 적용하면 d2의 길이가 계산된다. S1센서 및 S2센서의 거리인 d는 제품 제조시 설계 사항으로 알 수 있는 것이므로 최종적으로 개체(H)의 이동거리인 Δx를 얻을 수 있다. When the trigonometric method is applied to L1 and θ1 thus obtained, the length of d1 is calculated. Similarly, when the trigonometric method is applied to R2 and r2, the length of d2 is calculated. The distance d of the S1 sensor and the S2 sensor can be known as a design item in the manufacture of the product, and thus, Δx, which is the moving distance of the object H, can be finally obtained.
한편, 도 3에서는 중복된 설명을 피하기 위하여 X방향의 이동거리를 도출하는 방법만 나타내었으나, 이는 Y방향의 이동거리를 도출하는 방법에서도 똑같이 적용할 수 있다 또한, t1시간의 개체(Ht1)에 S1센서 외에도 S2센서도 초음파를 발사하여 L2를 얻을 수 있으나, 이동거리의 계산을 위해 개체에 가까운 위치의 센서로부터 얻은 초음파만을 사용하는 것이다. 같은 취지로, t2시간의 개체(Ht2)에 S2센서 외에도 S1센서도 초음파를 발사하여 R1를 얻을 수 있으나, 이동거리의 계산을 위해 개체에 가까운 위치의 센서로부터 얻은 초음파만을 사용하는 것이다.In FIG. 3, only the method of deriving the moving distance in the X direction is shown to avoid overlapping descriptions, but the same method may be applied to the method of deriving the moving distance in the Y direction. In addition to the S1 sensor, the S2 sensor can also emit L2 by firing ultrasonic waves, but only the ultrasonic waves obtained from the sensor close to the object are used to calculate the moving distance. In the same sense, in addition to the S2 sensor to the object (Ht2) of t2 time, the S1 sensor can also obtain R1 by firing ultrasonic waves, but only the ultrasonic waves obtained from the sensor close to the object are used for the calculation of the moving distance.
한편, 개체의 이동방향은 센서부(310)에서 개체(H)에 반사되어 수신되는 초음파의 길이를 통해 도출할 수 있다. 예를 들어, 시간이 지날수록 S2센서로 짧은 주기로 초음파가 수신된다면, 개체는 S2센서 쪽으로 이동하는 것이다. 만약 복수개의 센서부(310)에서 수신되는 초음파의 주기가 모두 일정하게 느려지거나, 빨라진다면 개체는 Z축의 방향으로 즉, 센서부(310)에 수직한 방향으로 이동하는 것이다. On the other hand, the moving direction of the object may be derived through the length of the ultrasonic wave reflected by the object (H) in the
다시 도 2a 및 도 2b를 참조하면, 분석부(320)는 센서부(310)에서 측정된 3차원 위치의 변화량을 X방향 성분의 변화량, Y방향 성분의 변화량 및 Z방향 성분의 변화량으로 분리한다(S202). 여기서 상기 X방향의 성분은 복수개의 센서부(310)가 위치한 평면 상에서, 좌우방향의 성분이다(도 5 참조). 또한, Y방향의 성분은 복수개의 센서부(310)가 위치한 평면 상에서, 전후방향의 성분이다(도 6 참조). 마지막으로 Z방향의 성분은 복수개의 센서부가 위치한 평면을 기준으로, 수직방향인 상하방향의 성분이다(도 7 참조). Referring again to FIGS. 2A and 2B, the
분석부(320)는 센서부(310)에서 측정하는 개체의 이동방향을 X방향 성분, Y방향 성분 및 Z방향 성분으로 나누고, 각 방향 성분에 따라 개체의 이동거리를 변화량으로써 도출한다. 이는 공지된 다양한 위치분석 방법을 사용할 수 있다. 예를 들어, 분석부는 복수개의 센서에서 얻은 각도 및 거리 정보를 통해, 소정의 시간동안 개체의 위치 변화를 3차원의 좌표로 형상화할 수 있다. 이렇게 개체의 위치 변화를 3차원 좌표로 형상화 한 후, X방향 성분, Y방향 성분 및 Z방향 성분을 분리한 다음, 각 방향 성분에서 이동거리를 계산할 수 있다. The
다시 도 2a 및 도 2b를 참조하면, 대응부(330)는 각 방향의 성분의 변화량을 카메라의 팬, 틸트 또는 줌을 수행하는 줌(zoom)값, 팬(pan)값 및 틸트(tilt)값과 같은 제어데이터에 대응시킨다(S203). 감시카메라(1)의 줌, 팬, 틸트 동작에 대해서는 도 4를 설명할 때 한꺼번에 설명하기로 한다. Referring again to FIGS. 2A and 2B, the
대응부(330)는 각 방향이 성분 변화량과 대응하는 줌값, 팬값 및 틸트값을 룩업테이블(Look up table)로써 메모리에 저장하고 해당 방향 성분 변화량에 맞는 제어값을 도출할 수 있다. 예를 들어, X방향의 성분의 변화량은 팬값에 대응하며, Y방향의 성분의 변화량은 틸트값에 대응하며, Z방향의 성분의 변화량은 줌값에 대응할 수 있다. 그러나, 이러한 대응관계는 일 실시예에 불과하며, Y방향의 성분의 변화량이 줌값에 대응하고 Z방향의 성분의 변화량이 틸트값에 대응할 수도 있을 것이다. The
예를 들어, 아래의 표 1과 같이 X방향의 성분의 변화량이 Δx1 이고, Y방향의 성분의 변화량이 Δy1 이고 Z방향의 성분의 변화량이 Δz1이라고 가정한다. 대응부(330)는 X방향의 성분의 변화량에 대응하는 팬값을 p1로 도출하고, Y방향의 성분의 변화량에 대응하는 틸트값을 tt1으로 도출하고 Z방향의 성분의 변화량에 대응하는 줌값을 z1로 도출한다. 여기서 팬값 p1이란 감시카메라(1)의 팬제어부(도 4의 23)가 통상 포함하는 스텝모터의 회전 수치를 의미할 수 있다. 그리고 틸트값 tt1이란 감시카메라(1)의 틸트제어부(도 4의 25)가 통상 포함하는 스텝모터의 회전 수치를 의미할 수 있다. 한편, 줌값 z1이란, 감시카메라(1)의 줌제어부(도 4의 21)가 통상 포함하는 스텝모터의 회전 수치를 의미할 수 있다. For example, it is assumed that the change amount of the component in the X direction is Δx1, the change amount of the component in the Y direction is Δy1, and the change amount of the component in the Z direction is Δz1 as shown in Table 1 below. The
한편, +X방향의 성분은 양의 팬값을 도출하며 이는 팬제어부(도 4의 23)가 통상 포함하는 스텝모터의 시계방향의 회전을 의미할 수 있다. 또한, -X방향의 성분은 음의 팬값을 도출하며 이는 팬제어부(도 4의 23)의 스텝모터가 반시계방향으로 회전하는 것을 의미할 수 있다. 그러나 이러한 대응관계는 일 실시예에 불과하며 감시카메라(1)에 포함되는 모터의 종류 및 각 방향의 성분과 모터의 회전방향 등과 관련된 사항은 다양하게 변형될 수 있다. Meanwhile, the component in the + X direction derives a positive fan value, which may mean a clockwise rotation of the step motor which the fan control unit (23 of FIG. 4) normally includes. In addition, the component in the -X direction derives a negative fan value, which may mean that the step motor of the fan control unit 23 (in FIG. 4) rotates counterclockwise. However, this correspondence is only one embodiment, and matters related to the type of the motor included in the
다시 도 2a 및 도 2b를 참조하면, 송신부(340)는 대응부(330)에서 도출된 줌값, 팬값 및 틸트값을 제어데이터로써 감시카메라(1)로 전송한다(S204). 이 때, 유선 또는 무선 네트워크(2)의 제어데이터채널(DCON)을 통해 전송한다. 2A and 2B, the
도 4는 본 발명의 일 실시예에 의한 감시시스템(100)에 포함된 감시카메라(1)를 개략적으로 나타낸 블록도이다.4 is a block diagram schematically illustrating a
도 4를 참조하면, 감시카메라(1)는 데이터수신부(70), 영상획득부(10), 줌제어부(21), 팬제어부(23), 틸트제어부(25), 데이터송신부(60) 및 메모리(50)를 구비한다. 물론 이 외에도 필요에 따라 도 3에 도시된 바와 같이 A/D 변환부(30), 디지털 신호 처리부(40), CPU(100) 등을 더 구비할 수도 있다.Referring to FIG. 4, the
데이터수신부(70)는 네트워크(2)를 통해 제어패널(3)로부터 전송된 제어데이터를 수신한다. 영상획득부(10)는 줌렌즈(11)를 포함한 렌즈부와, 이 렌즈부를 통과한 입사광으로부터 이미지 데이터를 생성하는 촬상소자(13)를 포함한다. 제어패널(3)로부터의 제어데이터가 CPU(100)에 인가됨에 따라 CPU(100)는 그 제어데이터를 파악하여 줌제어부(21), 팬제어부(23) 및 틸트제어부(25)를 제어한다. 이에 따라 각각 줌렌즈(11)의 위치, 영상획득부(10)의 패닝 및 틸팅 등이 제어된다. 구체적으로 줌제어부(21)는 줌(zoom)값에 따라 줌렌즈(11)를 제어하여 주밍동작을 수행하며, 팬제어부(23)는 팬(pan)값에 따라 영상획득부(10)를 패닝시키며, 틸트제어부(25)는 틸트(tilt)값에 따라 영상획득부(10)를 틸팅시킨다.The
여기서 줌밍이란, 배율을 조정하여 피사체를 확대 또는 축소하여 볼 수 있게 하는 것이다. 한편, 패닝이란 영상획득부(10)를 가로방향, 즉 좌우로 이동시키며 피사체 영상을 획득하는 것을 의미한다. 마지막으로 틸팅이란 영상획득부(10)를 세로방향 즉, 상하로 이동시키면서 피사체 영상을 획득하는 것을 의미한다. In this case, zooming is to adjust the magnification so that the subject can be enlarged or reduced to be viewed. Meanwhile, panning refers to acquiring a subject image by moving the
촬상소자(13)는 입력된 광으로부터 데이터를 생성하며, 아날로그/디지털 변환부(30)는 촬상소자(13)에서 출력되는 아날로그 데이터를 디지털 데이터로 변환한다. 물론 촬상소자(13)의 특성에 따라 아날로그/디지털 변환부(30)가 필요 없는 경우도 있을 수 있다.The
촬상소자(13)로부터의 데이터는 메모리(50)를 거쳐 디지털 신호 처리부(40)에 입력될 수도 있고, 메모리(50)를 거치지 않고 디지털 신호 처리부(40)에 입력될 수도 있으며, 필요에 따라 CPU(100)에도 입력될 수도 있다. 여기서 메모리(50)는 ROM 또는 RAM 등을 포함하는 개념이다. 디지털 신호 처리부(40)는 필요에 따라 감마(gamma) 보정, 화이트 밸런스 조정 등의 디지털 신호 처리를 할 수 있다.Data from the
디지털 신호 처리부(40)로부터 출력된 데이터는 메모리(50)를 통하여 또는 직접 데이터송신부(60)에 전달된다. 데이터송신부(60)는 네트워크(2)를 통해 단말기(4)에 이미지데이터를 전송하여, 단말기(4)의 표시부(410)에 이미지가 디스플레이되도록 할 수 있다. 여기서 이미지라 함은 실시간 동영상인 라이브뷰 동영상의 일 프레임이미지 등을 의미할 수 있다.The data output from the
다시 도 1을 참조하면, 단말기(4)는 이미지를 표시하는 표시부(410)를 포함하며, 네트워크(2)를 통해 감시카메라(1)로부터 전송된 이미지데이터를 수신하여 표시부(410)에 표시한다. Referring back to FIG. 1, the
본 발명의 일 실시예에 의하면, 제어패널(3)의 센서부(310)가 위치한 평면은 단말기(4)의 표시부(410)가 포함된 평면과 실직적으로 평행하다. 다시 말하면, 제어패널(3)의 센서부(310)가 위치한 평면의 법선벡터는 표시부(410)가 위치한 평면의 법선팩터와 실질적으로 평행하다. 이로부터, 제어패널(3)을 이용하여 감시카메라(1)를 상하 방향으로 움직이는 틸트 동작을 수행할 때, 감시카메라(1)의 이동방향과 감시카메라(1)를 제어하는 사용자 손의 이동방향이 완전히 일치하게 되어 직관적으로 감시시스템(100)을 제어하는 것이 가능하다. According to one embodiment of the present invention, the plane in which the
도 5 내지 도 7은 본 발명의 일 실시예에 의한 감시시스템(100)에 포함된 제어패널(3) 상의 사용자의 제어동작에 따라 단말기(4)에 표시되는 이미지를 나타낸 것이다. 도 5 내지 도 7에서는 삼각형 모양으로 배치된 3개의 센서부(310)를 포함한 제어패널(3)을 일 예로 도시하였다. 5 to 7 show an image displayed on the
도 5를 참조하면, 제어패널(3)의 센서부(310) 상에 비접촉식으로 개체가 X축 방향으로 Δx만큼 이동한 경우를 가정한다. X축 방향의 성분은 감시카메라(1)에서 팬 동작을 제어한다. 특히 도 5에서 개체는 +X축 방향으로 이동하므로 감시카메라(1)는 우측으로 이동하며 감시카메라(1)의 영상획득부(10)는 Δx에 대응하는 팬값만큼 이동한다. 구체적으로, Δx에 대응하는 팬값만큼 팬제어부(도 4의 23) 가 포함하는 스텝모터가 소정의 방향으로 회전하여, 영상획득부(10)를 제어할 수 있다. 따라서, 최초 개체의 위치에서 단말기(4)는 피사체(44)가 정면에 위치하는 이미지를 표시하게 되나, 시간에 따라 단말기(4)의 표시부(410)에서 피사체(44)가 점점 왼쪽으로 이동하는 이미지를 표시하게 된다. Referring to FIG. 5, it is assumed that the object is moved by Δx in the X-axis direction in a non-contact manner on the
도 6을 참조하면, 제어패널(3)의 센서부(310) 상에 비접촉식으로 개체가 Y축 방향으로 Δy만큼 이동한 경우를 가정한다. Y축 방향의 성분은 감시카메라(1)에서 틸트 동작을 제어한다. 특히 도 6에서 개체는 +Y축 방향으로 이동하므로 감시카메라(1)는 상측으로 이동하며 감시카메라(1)의 영상획득부(10)는 Δy에 대응하는 틸트값만큼 이동한다. 구체적으로, Δy에 대응하는 틸트값만큼 틸트제어부(도 4의 25) 가 포함하는 스텝모터가 소정의 방향으로 회전하여, 영상획득부(10)를 제어할 수 있다. 따라서, 최초 개체의 위치에서 단말기(4)는 피사체(44)의 정면 이미지를 표시하게 되나, 시간에 따라 피사체(44)의 상면쪽으로 이동하는 이미지를 표시하게 된다. Referring to FIG. 6, it is assumed that an object is moved by? Y in the Y-axis direction in a non-contact manner on the
도 7을 참조하면, 제어패널(3)의 센서부(310) 상에 비접촉식으로 개체가 Z축 방향으로 Δz만큼 이동한 경우를 가정한다. Z축 방향의 성분은 감시카메라(1)에서 줌 동작을 제어한다. 특히 도 7에서 개체는 +Z축 방향으로 이동하므로 감시카메라(1)의 줌 렌즈(도 4의 11)는 Δz에 대응하는 줌값만큼 와이드(wide) 상태로 줌 아웃(zoom out)을 수행한다. 따라서, 단말기(4)는 최초 개체의 위치에서 최우 개체의 위치로 갈수록 줌 아웃되는 피사체(44)의 이미지를 표시하게 된다. Referring to FIG. 7, it is assumed that the object is moved by Z in the Z-axis direction in a non-contact manner on the
이상에서 설명한 바와 같이 본 발명의 일 실시 예에 의한 감시시스템에 의하면, 첫째로 비접촉식으로 제어패널을 조작하여 감시카메라를 제어할 수 있어 사용자의 편의를 극대화한다. 둘째로, 제어패널의 센서부가 배치된 평면과 이미지가 표시되는 모니터의 평면이 실질적으로 평행하여 특히 팬, 틸트, 줌 동작을 사용자가 직관적으로 수행할 수 있는 특징이 있다. As described above, according to the monitoring system according to an exemplary embodiment of the present invention, first, the control camera can be controlled by operating the control panel in a non-contact manner, thereby maximizing user convenience. Secondly, the plane on which the sensor unit of the control panel is disposed is substantially parallel to the plane of the monitor on which the image is displayed, so that the user can intuitively perform the pan, tilt and zoom operations.
한편, 본 발명의 다른 실시예로 제어패널은 사용자의 특정한 손 포즈를 인식할 수 있는 카메라; 특정한 손 포즈를 기억하는 메모리; 카메라로 촬영한 손 포즈와 메모리에 기억된 손 포즈가 일치하는지 판단하는 판단부; 판단부의 결과 일치하는 경우 해당 손 포즈에 맞는 제어데이터를 추출하는 추출부; 를 구비하고, 추출된 제어데이터를 감시카메라에 전송함으로써, 특정 손 포즈에 의해 감시카메라를 제어하는 감시시스템을 제공할 수도 있다. On the other hand, in another embodiment of the present invention the control panel includes a camera that can recognize a specific hand pose of the user; Memory for storing specific hand poses; A determination unit which determines whether a hand pose taken by the camera and a hand pose stored in the memory match; An extraction unit for extracting control data suitable for a corresponding hand pose when the result of the determination unit matches; And it is possible to provide a surveillance system for controlling the surveillance camera by a specific hand pose by transmitting the extracted control data to the surveillance camera.
도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다. It will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Accordingly, the true scope of the present invention should be determined by the technical idea of the appended claims.
100: 감시시스템
1: 감시카메라
2: 네트워크
3: 제어패널
4: 단말기100: surveillance system
1: surveillance camera
2: network
3: control panel
4: terminal
Claims (10)
상기 네트워크를 통해 상기 제어패널을 통해 입력되는 상기 제어데이터에 따라 주밍, 패닝 또는 틸팅을 수행하며 촬영하고, 촬영을 통해 생성한 이미지데이터를 상기 네트워크를 통해 전송하는 감시카메라; 및
상기 네트워크를 통해 상기 감시카메라로부터 전송된 상기 이미지데이터를 수신하여 표시부에 표시하는 단말기;
를 포함하는 감시시스템.After measuring the change amount of the three-dimensional position of the object moving in contact with the non-contact, the zoom value, pan value and tilt value corresponding to the change amount of the three-dimensional position are derived, and then the derived zoom value and pan value. And a control panel for transmitting the tilt value through the network as control data.
A surveillance camera that performs zooming, panning, or tilting according to the control data input through the control panel through the network, and photographs, and transmits the image data generated through photographing through the network; And
A terminal for receiving the image data transmitted from the surveillance camera through the network and displaying the image data on a display unit;
Surveillance system comprising a.
상기 네트워크를 통해 상기 제어패널을 통해 입력되는 상기 제어데이터에 따라 주밍, 패닝 또는 틸팅을 수행하며 촬영하고, 촬영을 통해 생성한 이미지데이터를 상기 네트워크를 통해 전송하는 감시카메라; 및
상기 네트워크를 통해 상기 감시카메라로부터 전송된 상기 이미지데이터를 수신하여 표시부에 표시하는 단말기;를 포함하고,
상기 제어패널은
상기 비접촉되어 이동하는 개체의 3차원 위치의 변화량을 소정의 시간 간격으로 측정하는 적어도 둘 이상의 센서부;
측정된 상기 3차원 위치의 변화량을 X방향, Y방향 및 Z방향의 성분의 변화량으로 분해하는 분석부;
상기 X방향, Y방향 및 Z방향의 성분 각각의 변화량에 대응하는 줌값, 팬값 및 틸트값을 도출하는 대응부; 및
도출된 상기 줌값, 팬값 및 틸트값을 상기 제어데이터로써 상기 네트워크를 통해 상기 감시카메라로 전송하는 송신부;
를 포함하는 감시시스템.After measuring the change amount of the three-dimensional position of the object moving in contact with the non-contact, the zoom value, pan value and tilt value corresponding to the change amount of the three-dimensional position are derived, and then the derived zoom value and pan value. And a control panel for transmitting the tilt value through the network as control data.
A surveillance camera that performs zooming, panning, or tilting according to the control data input through the control panel through the network, and photographs, and transmits the image data generated through photographing through the network; And
And a terminal for receiving the image data transmitted from the surveillance camera through the network and displaying the image data on a display unit.
The control panel
At least two sensor units measuring a change amount of the three-dimensional position of the object moving in contact with each other at predetermined time intervals;
An analysis unit for decomposing the measured amount of change in the three-dimensional position into the amount of change in the components in the X, Y and Z directions;
A counter for deriving a zoom value, a pan value, and a tilt value corresponding to the amount of change of each of the components in the X, Y, and Z directions; And
A transmitter for transmitting the derived zoom value, pan value, and tilt value to the surveillance camera through the network as the control data;
Surveillance system comprising a.
상기 센서부는
초음파, 적외선 또는 레이저를 사용하여, 상기 비접촉된 개체의 3차원 위치의 변화량을 소정의 시간 간격으로 측정하는 감시시스템.The method of claim 2,
The sensor unit
Monitoring system for measuring the amount of change of the three-dimensional position of the non-contacted object at predetermined time intervals using ultrasonic waves, infrared rays or laser.
상기 적어도 둘 이상의 센서부는 동일한 평면 상에 위치하며,
상기 센서부가 셋 이상일 경우 각각의 센서부 전체가 동일한 직선 상에 위치하지 않는 감시시스템.The method of claim 2,
The at least two sensor units are located on the same plane,
The three or more sensor units, the entire monitoring unit is not located on the same straight line.
상기 X방향의 성분은 상기 센서부가 위치한 평면 상에서, 좌우방향의 성분이며
상기 Y방향의 성분은 상기 센서부가 위치한 평면 상에서, 전후방향의 성분이며
상기 Z방향의 성분은 상기 센서부가 위치한 평면을 기준으로, 상하방향의 성분인 감시시스템.5. The method of claim 4,
The component in the X direction is a component in the left and right directions on the plane where the sensor part is located.
The component in the Y direction is a component in the front-rear direction on the plane where the sensor part is located.
The component in the Z direction is a component in the vertical direction, based on the plane in which the sensor unit is located.
상기 X방향의 성분의 변화량은 팬값에 대응하며,
상기 Y방향의 성분의 변화량은 틸트값에 대응하며,
상기 Z방향의 성분의 변화량은 줌값에 대응하는 감시시스템.5. The method of claim 4,
The amount of change in the component in the X direction corresponds to the fan value,
The amount of change in the component in the Y direction corresponds to the tilt value,
And a change amount of the component in the Z direction corresponds to a zoom value.
상기 센서부가 위치한 평면은 상기 단말기의 상기 표시부가 포함된 평면과 평행한 감시시스템.The method of claim 2,
And a plane in which the sensor unit is located is parallel to a plane in which the display unit of the terminal is included.
상기 네트워크를 통해 상기 제어패널을 통해 입력되는 상기 제어데이터에 따라 주밍, 패닝 또는 틸팅을 수행하며 촬영하고, 촬영을 통해 생성한 이미지데이터를 상기 네트워크를 통해 전송하는 감시카메라; 및
상기 네트워크를 통해 상기 감시카메라로부터 전송된 상기 이미지데이터를 수신하여 표시부에 표시하는 단말기;를 포함하고,
상기 감시카메라는
줌렌즈를 포함한 렌즈부와, 상기 렌즈부를 통과한 입사광으로부터 이미지 데이터를 생성하는 촬상소자를 포함하는 영상획득부;
줌값에 따라 상기 줌렌즈를 제어하는 줌제어부;
팬값에 따라 상기 영상획득부를 패닝시키는 팬제어부; 및
틸트값에 따라 상기 영상획득부를 틸팅시키는 틸트제어부;
를 포함하는 감시시스템.After measuring the change amount of the three-dimensional position of the object moving in contact with the non-contact, the zoom value, pan value and tilt value corresponding to the change amount of the three-dimensional position are derived, and then the derived zoom value and pan value. And a control panel for transmitting the tilt value through the network as control data.
A surveillance camera that performs zooming, panning, or tilting according to the control data input through the control panel through the network, and photographs, and transmits the image data generated through photographing through the network; And
And a terminal for receiving the image data transmitted from the surveillance camera through the network and displaying the image data on a display unit.
The surveillance camera
An image acquisition unit including a lens unit including a zoom lens and an imaging device for generating image data from incident light passing through the lens unit;
A zoom control unit controlling the zoom lens according to a zoom value;
A fan control unit to pan the image acquisition unit according to a fan value; And
A tilt control unit for tilting the image acquisition unit according to a tilt value;
Surveillance system comprising a.
상기 감시카메라는
상기 네트워크를 통해 상기 제어패널로부터 전송된 상기 줌값, 팬값 및 틸트값을 수신하는 데이터수신부; 및
상기 촬상소자가 생성한 이미지데이터를 상기 네트워크를 통해 단말기로 전송하는 데이터송신부;
를 포함하는 감시시스템.10. The method of claim 9,
The surveillance camera
A data receiver configured to receive the zoom value, pan value and tilt value transmitted from the control panel through the network; And
A data transmitter for transmitting the image data generated by the image pickup device to the terminal through the network;
Surveillance system comprising a.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110022874A KR101247316B1 (en) | 2011-03-15 | 2011-03-15 | Security system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110022874A KR101247316B1 (en) | 2011-03-15 | 2011-03-15 | Security system |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20120105202A KR20120105202A (en) | 2012-09-25 |
KR101247316B1 true KR101247316B1 (en) | 2013-03-25 |
Family
ID=47112257
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020110022874A KR101247316B1 (en) | 2011-03-15 | 2011-03-15 | Security system |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101247316B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101553138B1 (en) | 2014-01-28 | 2015-09-14 | 울산대학교 산학협력단 | Radar display monitoring system suing ultra sonic sensor |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101634282B1 (en) * | 2015-12-18 | 2016-06-30 | 주식회사 싸인텔레콤 | The apparatus of smart measuring a moving object by 3d modeling of hexahedron and measuring control |
KR102007284B1 (en) | 2016-05-31 | 2019-08-05 | 최강일 | A Hybrid Bio-coal Manufacturing Technology by Hydrothermal Carbonization |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000089320A (en) | 1998-09-07 | 2000-03-31 | Olympus Optical Co Ltd | Remote unit and remote control photographing system |
JP2004128997A (en) | 2002-10-04 | 2004-04-22 | Nippon Telegr & Teleph Corp <Ntt> | Device, method and program for video remote control, and recording medium with the program recorded thereon |
KR20070055261A (en) * | 2005-11-25 | 2007-05-30 | 엘지전자 주식회사 | Mobile communication device with remote controling camera and its method |
KR20100124906A (en) * | 2009-05-20 | 2010-11-30 | 아주대학교산학협력단 | Apparatus and method controlling ptz(pan-tilt-zoom) camera using multi sensor |
-
2011
- 2011-03-15 KR KR1020110022874A patent/KR101247316B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000089320A (en) | 1998-09-07 | 2000-03-31 | Olympus Optical Co Ltd | Remote unit and remote control photographing system |
JP2004128997A (en) | 2002-10-04 | 2004-04-22 | Nippon Telegr & Teleph Corp <Ntt> | Device, method and program for video remote control, and recording medium with the program recorded thereon |
KR20070055261A (en) * | 2005-11-25 | 2007-05-30 | 엘지전자 주식회사 | Mobile communication device with remote controling camera and its method |
KR20100124906A (en) * | 2009-05-20 | 2010-11-30 | 아주대학교산학협력단 | Apparatus and method controlling ptz(pan-tilt-zoom) camera using multi sensor |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101553138B1 (en) | 2014-01-28 | 2015-09-14 | 울산대학교 산학협력단 | Radar display monitoring system suing ultra sonic sensor |
Also Published As
Publication number | Publication date |
---|---|
KR20120105202A (en) | 2012-09-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8730164B2 (en) | Gesture recognition apparatus and method of gesture recognition | |
US10242454B2 (en) | System for depth data filtering based on amplitude energy values | |
TWI544447B (en) | System and method for augmented reality | |
US20150116502A1 (en) | Apparatus and method for dynamically selecting multiple cameras to track target object | |
WO2013146269A1 (en) | Image capturing device, image processing method, and program | |
CN110035218B (en) | Image processing method, image processing device and photographing equipment | |
JP5889408B2 (en) | Information processing apparatus, method, and program | |
JP6016226B2 (en) | Length measuring device, length measuring method, program | |
CN104204848B (en) | There is the search equipment of range finding camera | |
JP2007249722A (en) | Object detector | |
JP5860144B2 (en) | Information processing apparatus, method, and program | |
KR20120046973A (en) | Method and apparatus for generating motion information | |
US11669173B2 (en) | Direct three-dimensional pointing using light tracking and relative position detection | |
JP7240996B2 (en) | Surveying system and surveying method using eyewear device | |
CN109213363A (en) | Predictive indicator touch location determines the system and method being directed toward in 3d space | |
KR20140142441A (en) | Shooting Method for Three-Dimensional Modeling And Electrical Device Thereof | |
KR101247316B1 (en) | Security system | |
CN113870213A (en) | Image display method, image display device, storage medium, and electronic apparatus | |
US9261974B2 (en) | Apparatus and method for processing sensory effect of image data | |
JP2008015815A (en) | Image processor and image processing program | |
JP2020088840A (en) | Monitoring device, monitoring system, monitoring method, and monitoring program | |
TW201205344A (en) | Adjusting system and method for screen, advertisement board including the same | |
US9392254B2 (en) | Game sizing camera | |
JP2014170367A (en) | Object detection device, object detection method, object detection system and program | |
CN112541940A (en) | Article detection method and system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
X091 | Application refused [patent] | ||
AMND | Amendment | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20180226 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20190227 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20200225 Year of fee payment: 8 |