WO2019231174A1 - 감시 시스템 및 그 동작 방법 - Google Patents
감시 시스템 및 그 동작 방법 Download PDFInfo
- Publication number
- WO2019231174A1 WO2019231174A1 PCT/KR2019/006243 KR2019006243W WO2019231174A1 WO 2019231174 A1 WO2019231174 A1 WO 2019231174A1 KR 2019006243 W KR2019006243 W KR 2019006243W WO 2019231174 A1 WO2019231174 A1 WO 2019231174A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- angle
- distance sensor
- laser
- laser distance
- camera module
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
- G01S7/4972—Alignment of sensor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/56—Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/58—Means for changing the camera field of view without moving the camera body, e.g. nutating or panning of optics or image sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
- H04N23/661—Transmitting camera control signals through networks, e.g. control via the Internet
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/671—Focus control based on electronic image sensor signals in combination with active ranging signals, e.g. using light or sound signals emitted toward objects
Definitions
- the present invention relates to a surveillance system for controlling focusing of a camera according to a distance to a subject and a method of operating the same.
- An administrator who manages a place where a camera is installed can remotely manage a building or a store by accessing the camera through a personal computer.
- the focusing of the camera can be controlled.
- the focusing of the camera may be controlled manually by an administrator or automatically by the camera itself.
- the problem to be solved by the present invention relates to a surveillance system for controlling the focusing of the camera more accurately and its operation method.
- a surveillance system includes a camera module for photographing a subject, a laser distance sensor arranged in line with the camera module, and sensing a distance to the subject, and an event.
- obtaining a first angle and a first sensing value of the laser distance sensor calculating a first distance between the camera module and the subject using the first angle and the first sensing value, and calculating the first angle.
- the second angle is calculated using a distance, a laser angle of view of the laser distance sensor, and a laser angle of view of the laser distance sensor, and if the difference between the first angle and the second angle exceeds a predetermined range, Rotate the laser distance sensor to obtain a second sensing value of the laser distance sensor, the first sensing value or the second sensing Based on the value and a processor for operating the camera module.
- the first angle and the second angle are a tilt angle or a pan angle of the laser distance sensor, and the second angle is such that the laser angle of view overlaps at least a portion of the center of the photographing area of the camera module. It may be an angle of the laser distance sensor.
- the rotation of the laser distance sensor may be separate from the rotation of the camera module.
- a rotation drive module for rotating the laser distance sensor
- the rotation drive module includes a DC motor, a solenoid, or a stepping motor
- the processor is characterized in that the rotation drive module is the DC motor or the In the case of a solenoid, the laser distance sensor is rotated at once from the first angle to the second angle, and when the rotation driving module is the stepping motor, the laser distance sensor is rotated from the first angle to the second angle. It can rotate gradually to.
- a method of operating a surveillance system comprising: a camera module and a laser distance sensor arranged in a line with the camera module, the method comprising: detecting an event Obtaining a first sensing value that is a result of sensing a first angle of the laser distance sensor and a distance to a subject by the laser distance sensor in response to the event, the first angle and the first sensing Calculating a first distance between the camera module and a subject using a value; calculating a second angle using the first distance, a laser angle of view of the laser distance sensor, and a laser angle of view of the laser distance sensor And comparing the first angle with the second angle, wherein a difference between the first angle and the second angle is within a predetermined range.
- FIG. 1 is a view illustrating a laser angle of view of a laser distance sensor and a camera angle of view of a camera module according to an exemplary embodiment.
- FIG. 2 is a diagram illustrating an image capturing area and an irradiation area of a laser distance sensor, according to an exemplary embodiment.
- FIG. 3 is a diagram illustrating an angle for obtaining a sensing value of a laser distance sensor, according to an exemplary embodiment.
- FIG. 4 is a block diagram illustrating a configuration of a monitoring system according to an exemplary embodiment.
- FIG. 5 is a flowchart illustrating a manual sensing operation of the monitoring system according to an exemplary embodiment.
- FIG. 6 is a flowchart illustrating an automatic sensing operation of the monitoring system according to an embodiment.
- a surveillance system includes a camera module for photographing a subject, a laser distance sensor arranged in line with the camera module, and sensing a distance to the subject, and an event.
- obtaining a first angle and a first sensing value of the laser distance sensor calculating a first distance between the camera module and the subject using the first angle and the first sensing value, and calculating the first angle.
- the second angle is calculated using a distance, a laser angle of view of the laser distance sensor, and a laser angle of view of the laser distance sensor, and if the difference between the first angle and the second angle exceeds a predetermined range, Rotate the laser distance sensor to obtain a second sensing value of the laser distance sensor, the first sensing value or the second sensing Based on the value and a processor for operating the camera module.
- first and second may be used to describe various components, but the components should not be limited by the terms. The terms are only used to distinguish one component from another.
- Embodiments of the present invention can be represented by functional block configurations and various processing steps. Such functional blocks may be implemented in various numbers of hardware or / and software configurations that perform particular functions. For example, embodiments of the invention may be implemented directly, such as memory, processing, logic, look-up table, etc., capable of executing various functions by the control of one or more microprocessors or other control devices. Circuit configurations can be employed. Similar to the components of an embodiment of the present invention may be implemented in software programming or software elements, embodiments of the present invention include various algorithms implemented in combinations of data structures, processes, routines or other programming constructs. It may be implemented in a programming or scripting language such as C, C ++, Java, assembler, or the like.
- inventions may be implemented with an algorithm running on one or more processors.
- embodiments of the present invention may employ the prior art for electronic configuration, signal processing, and / or data processing.
- Terms such as mechanisms, elements, means, configurations can be used broadly and are not limited to mechanical and physical configurations. The term may include the meaning of a series of routines of software in conjunction with a processor or the like.
- FIG. 1 is a view illustrating a laser angle of view of a laser distance sensor 110 and a camera angle of view of a camera module 130 according to an exemplary embodiment.
- FIG. 2 is a diagram for describing an irradiation area of the laser distance sensor 110 and an imaging area of the camera module 130, according to an exemplary embodiment.
- the surveillance system 100 may include a laser distance sensor 110 and a camera module 130.
- the laser distance sensor 110 may be arranged in line with the camera module 130.
- the laser distance sensors 110 may be arranged in a line with the camera module 130 in a vertical direction.
- the laser distance sensor 110 may be arranged in a line with the camera module 130 on the camera module 130 as shown in FIG. 1.
- the laser distance sensor 110 and the camera module 130 may have a predetermined vertical distance (A).
- the laser distance sensors 110 may be arranged in a line with the camera module 130 in the horizontal direction. Although not shown, for example, the laser distance sensor 110 may be arranged in a line with the camera module 130 on the left side of the camera module 130. In this case, the laser distance sensor 110 and the camera module 130 may have a predetermined horizontal distance.
- the operation of the laser distance sensor 110 and the camera module 130 arranged in a line in the vertical direction will be described in detail.
- the operation of the laser distance sensor 110 and the camera module 130 arranged in a line in the vertical direction will be described below with respect to the operation of the laser distance sensor 110 and the camera module 130 arranged in a line in the horizontal direction. Can be applied.
- the laser distance sensor 110 may be pan rotated and / or tilted rotated.
- the camera module 130 may be pan rotated and / or tilted rotated.
- the camera module 130 may be pan rotated and / or tilted according to the movement of the subject.
- the laser distance sensor 110 may be pan rotated and / or tilted in the same manner as the camera module 130. In this case, the direction in which the laser distance sensor 110 faces and the direction in which the camera module 130 faces may always be the same.
- the laser distance sensor 110 may be pan rotated and / or tilted separately from the camera module 130. That is, the rotation of the laser distance sensor 110 may be separate from the rotation of the camera module 130. In this case, the direction that the laser distance sensor 110 faces and the direction that the camera module 130 faces may be the same or different.
- the laser distance sensor 110 when the subject is approaching the surveillance system 100, the laser distance sensor 110 can be tilted toward the subject while the camera module 130 can be fixed without the tilt rotation.
- the laser distance sensor 110 may have a predetermined tilt angle ⁇ T (see FIG. 3) with respect to the direction in which the camera module 130 faces.
- the laser distance sensor 110 may have a predetermined pan angle based on the direction in which the camera module 130 faces.
- the predetermined fan angle may be based on the laser horizontal angle of view of the laser distance sensor 110. That is, the laser angle of view length may include a laser vertical angle of view length and / or a laser horizontal angle of view length.
- the relationship between the laser vertical angle of view length and the predetermined tilt angle will be described in detail.
- the following description of the relationship between the laser vertical angle of view length and the predetermined tilt angle may be applied to the relationship between the laser horizontal angle of view length and the predetermined pan angle.
- the camera module 130 may adjust the zoom magnification of the lens. For example, when the subject approaches the surveillance system 100, the camera module 130 may perform a zoom in operation toward the subject.
- the laser distance sensor 110 may operate as a laser range finder (LRF).
- the laser distance sensor 110 may have a predetermined laser angle of view ⁇ v and sense a distance to a subject within a predetermined laser angle of view ⁇ v. That is, the sensing value of the laser distance sensor 110 may mean a distance to the subject detected by the laser distance sensor 110.
- the laser distance sensor 110 may perform a pulsed time of flight (TOF) technology for sensing a distance by measuring a round trip time of a laser, a phase-shift technology for sensing a distance through a phase difference of a laser, and the like. I never do that.
- TOF pulsed time of flight
- the camera module 130 may perform a focusing operation based on the sensing value of the laser distance sensor 110. For example, the camera module 130 may perform focusing on a near subject when the sensing value is small, and perform focusing on a far subject when the sensing value is large.
- the camera module 130 may have a predetermined camera angle of view ⁇ c and may photograph a subject within a predetermined camera angle of view ⁇ c. That is, the camera module 130 may generate an image of the surveillance area defined by the predetermined camera angle of view ⁇ c. The camera module 130 may photograph the surveillance area in real time for the purpose of surveillance or security.
- At least a portion of the predetermined laser angle of view ⁇ v and the predetermined camera angle of view ⁇ c may overlap.
- 2 shows the front of a predetermined vertical surface 10 of the surveillance area
- the circle represents the irradiation area of the laser distance sensor 110
- the square represents the photographing area of the camera module 130. That is, the circle may correspond to the predetermined laser angle of view ⁇ v, and the rectangle may correspond to the predetermined camera angle of view ⁇ c.
- the laser upper position LT is not included between the camera screen upper position CT and the camera screen lower position CB.
- the laser lower position LB may be included between the camera screen upper position CT and the camera screen lower position CB.
- the size of the region where the predetermined laser angle of view ⁇ v and the predetermined camera angle of view ⁇ c overlap is determined from the predetermined vertical distance A of the laser distance sensor 110 and the camera module 130 and the monitoring system 100. It may be determined according to a predetermined horizontal distance (D) to reach the vertical plane 10 of the, or the rotation angle of the laser distance sensor 110.
- the laser irradiation efficiency may be determined according to the size of the region where the predetermined laser angle of view ⁇ v and the predetermined camera angle of view ⁇ c overlap. For example, laser irradiation efficiency may be calculated using Equations 1 to 4.
- R is the laser irradiation diameter
- D is the predetermined horizontal distance from the monitoring system 100 to the predetermined vertical plane 10
- ⁇ v is the predetermined laser angle of view
- LT is the laser upper position
- A is the laser distance sensor 110
- ⁇ T is a predetermined tilt angle of the laser distance sensor 110 with respect to the direction in which the camera module 130 is facing
- LB is a laser lower position
- CT is a camera screen upper position
- ⁇ c may be a predetermined camera angle
- CB may be a lower position of the camera screen.
- the laser irradiation efficiency may be improved as the size of an area where the irradiation area of the laser distance sensor 110 overlaps with the photographing area of the camera module 130 increases.
- the closer the irradiation area of the laser distance sensor 110 is to the center of the photographing area of the camera module 130 the better the laser irradiation efficiency.
- the laser irradiation efficiency may be increased by controlling the predetermined tilt angle ⁇ T of the laser distance sensor 110 according to the distance away from the monitoring system 100, that is, the predetermined horizontal distance D.
- FIG. 3 is a diagram illustrating an angle for obtaining a sensing value of a laser distance sensor, according to an exemplary embodiment.
- the laser distance sensor 110 may have a predetermined tilt angle ⁇ T. Can be rotated.
- the predetermined tilt angle ⁇ T may be calculated using Equations 5 to 7.
- S1 may be a first sensing value of the laser distance sensor 110
- ⁇ 1 may be a first angle of the laser distance sensor 110
- LL may be a laser vertical angle of view of the laser distance sensor 110
- m may be any margin value.
- Equation (8) The predetermined tilt angle ⁇ T calculated from equations (5) to (7) is shown in equation (8).
- the size of the region where the laser angle of view ⁇ v and the camera angle of view ⁇ c overlap may be determined according to the value of m.
- the value of m may be a value predetermined by a user input or the like, but is not limited thereto.
- LD may mean a laser vertical angle of view according to a predetermined horizontal distance D of the laser distance sensor 110.
- LD may be calculated by Equation 9.
- FIG. 4 is a block diagram illustrating a configuration of a monitoring system 100 according to an embodiment.
- the monitoring system 100 includes a laser distance sensor 110, a rotation driving module 120, a camera module 130, a processor 140, a memory 150, and a user interface ( 160, and communication interface 170.
- the monitoring system 100 is arranged in a line with the camera module 130, the camera module 130 for photographing the subject, the laser distance sensor 110 for sensing the distance to the subject, and In response to the event, a first angle ⁇ 1 and a first sensing value S1 of the laser distance sensor 110 are obtained, and the camera module 130 is obtained using the first angle ⁇ 1 and the first sensing value S1. ) And a first distance between the subject and the second angle using the first distance, the laser angle of view ⁇ v of the laser distance sensor 110, and the laser vertical angle of view length LL of the laser distance sensor 110.
- ⁇ 2 is calculated, and when the difference between the first angle ⁇ 1 and the second angle ⁇ 2 exceeds a predetermined range, the laser distance sensor 110 is rotated up to the second angle ⁇ 2, and the laser distance sensor ( Acquire a second sensing value S2 of 110, and move the camera module based on the first sensing value S1 or the second sensing value S2.
- a processor 140 To a processor 140.
- first angle ⁇ 1 and the second angle ⁇ 2 may be the tilt angle or the pan angle of the laser distance sensor 110.
- the first angle ⁇ 1 may indicate the current tilt angle or the current pan angle of the laser distance sensor 110
- the second angle ⁇ 2 may indicate the reference tilt angle or the reference pan angle of the laser distance sensor 110. have.
- the second angle ⁇ 2 may be an angle of the laser distance sensor 110 at which the laser angle of view ⁇ v overlaps at least a portion of the center of the photographing area of the camera module 130.
- the second angle ⁇ 2 may be a predetermined laser angle of view ⁇ v for the laser lower position LB to be positioned at the center of the photographing area of the camera.
- the first sensing value S1 may be a distance value to the subject detected by the laser distance sensor 110 of the first angle ⁇ 1
- the second sensing value S1 is a laser distance sensor of the second angle ⁇ 2. It may be a distance value to the subject detected by 110.
- the first distance between the camera module 130 and the subject may mean a predetermined horizontal distance D from the monitoring system 100 of FIG. 3 to a predetermined vertical plane 10.
- the laser vertical angle of view LL may be a value predetermined by a user input. For example, in response to a user input selecting the lower laser position LB to be located at the center of the photographing area of the camera, the laser vertical angle of view length LL is determined by the laser distance sensor 110 and the camera module 130. It may be the same value as the vertical distance (A) of.
- the processor 140 applies the first distance, the laser angle of view ⁇ v of the laser distance sensor 110, and the laser vertical angle of view length LL of the laser distance sensor 110 to Equation 8 to apply the second angle ⁇ 2. Can be calculated.
- the processor 140 may compare the first angle ⁇ 1 and the second angle ⁇ 2. That is, the processor 140 may compare the current tilt angle of the laser distance sensor 110 with the reference tilt angle.
- the processor 140 may determine the camera module (based on the first sensing value generated by the laser distance sensor 110 at the current tilt angle).
- the focusing operation of 130 may be controlled.
- the processor 140 rotates the laser distance sensor 110 to reach the reference tilt angle, and by the laser distance sensor 110 at the reference tilt angle.
- the focusing operation of the camera module 130 may be controlled based on the generated second sensing value.
- the rotation of the laser distance sensor 110 may be separate from the rotation of the camera module 130.
- the laser distance sensor 110 may be rotated by, for example, the rotation driving module 120, and the rotation driving module 120 may rotate the laser distance sensor 110 separately from the camera module 130. .
- the rotation drive module 120 may include a DC motor, a solenoid, or a stepping motor.
- the DC motor includes a permanent magnet and a coil, and can generate rotational force by changing the direction of the current flowing through the coil.
- the processor 140 may rotate the laser distance sensor 110 from the first angle ⁇ 1 to the second angle ⁇ 2 at once.
- the solenoid includes an iron core and a coil, and when a current flows through a coil wound in a cylindrical shape, the solenoid may generate a stronger magnetic field due to the internal iron core.
- the processor 140 may rotate the laser distance sensor 110 from the first angle ⁇ 1 to the second angle ⁇ 2 at once.
- the stepping motor includes a plurality of serrated electromagnets disposed around the metal gear, and power may be sequentially applied to the plurality of serrated electromagnets.
- the processor 140 may gradually rotate the laser distance sensor 110 from the first angle ⁇ 1 to the second angle ⁇ 2 by operating the stepping motor.
- the stepping motor may be a VR type (Variable reluctance type) stepping motor, a PM type (Permanent type) stepping motor, an HB type (Hybrid type) stepping motor, or the like, but is not limited thereto.
- the memory 150 may store constants such as a laser angle of view ⁇ v of the laser distance sensor 110, a predetermined vertical distance A of the laser distance sensor 110, and the camera module 130.
- the memory 150 may store variables such as a laser vertical angle of view LL, a second angle ⁇ 2, and the like of the laser distance sensor 110.
- the user interface 160 may receive a user input.
- the user interface 160 may receive a user input of selecting a position, a sensor angle, and the like of the laser upper position LT and / or the laser lower position LB with respect to the photographing area of the camera.
- the communication interface 160 may communicate with the outside.
- the communication interface 160 may transmit information of the monitoring system 100 to an external server or receive a command from the external server.
- FIG. 5 is a flowchart illustrating a manual sensing operation of the monitoring system 100 according to an embodiment.
- the monitoring system 100 including the camera module 130 and the laser distance sensor 110 arranged in line with the camera module 130 may select a sensor angle by the user interface 160.
- the sensor angle may mean an angle with respect to the camera module 130 of the laser distance sensor 110.
- the processor 140 of the monitoring system 100 rotates the laser distance sensor 110 up to the sensor angle selected by the user input by controlling the rotation driving module 120 (S520).
- the processor 140 of the monitoring system 100 obtains a sensing value of sensing the distance to the subject by the laser distance sensor 110 having the sensor angle selected by the user input (S530).
- the monitoring system may provide a captured image focused more accurately on a subject desired by a user.
- FIG. 6 is a flowchart illustrating an automatic sensing operation of the monitoring system 100 according to an embodiment.
- the monitoring system 100 including the camera module 130 and the laser distance sensor 110 arranged in line with the camera module 130 detects an event by the processor 140 (S610). ).
- the event may be detected by the camera module 130.
- the event may be a movement in an image captured by the camera module 130 or a movement of a predetermined subject.
- the event may be detected by a configuration other than the camera module 130.
- the event may be a predetermined audio signal or the like.
- the processor 140 may detect the first angle ⁇ 1 of the laser distance sensor 110 and the distance to the subject by the laser distance sensor 110. It is obtained (S620).
- the processor 140 calculates a first distance between the camera module 130 and the subject by using the first angle ⁇ 1 and the first sensing value S1 (S630).
- the processor 140 may calculate a first distance between the camera module 130 and the subject from the first angle ⁇ 1 and the first sensing value S1 using Equation 5.
- the processor 140 calculates a second angle ⁇ 2 using the first distance, the laser angle of view ⁇ v of the laser distance sensor 110, and the laser angle of view of the laser distance sensor 110 (S640). For example, the processor 140 may adjust the second angle ⁇ 2 using the first distance, the laser angle of view ⁇ v of the laser distance sensor 110, and the laser vertical angle of view length LL of the laser distance sensor 110. Can be calculated.
- the processor 140 uses Equations 5 to 8 to calculate the second angle ⁇ 2 from the first distance, the laser angle of view ⁇ v of the laser distance sensor 110, and the laser vertical angle of view length LL of the laser distance sensor 110. ) Can be calculated.
- the processor 140 compares the first angle ⁇ 1 and the second angle ⁇ 2 (S650).
- the processor 140 ends the operation of the laser distance sensor 110.
- the processor 140 operates the camera module 130 based on the first sensing value S1.
- the processor 140 rotates the laser distance sensor 110 to reach the second angle ⁇ 2 (S660). In operation S670, the second sensing value of the laser distance sensor 110 is obtained.
- the second sensing value may be a sensing value generated by the laser distance sensor 110 at the second angle ⁇ 2.
- the processor 140 operates the camera module 130 based on the second sensing value S2.
- the focusing of the camera module 130 based on the first sensing value S1 and the focusing of the camera module 130 based on the second sensing value S2 may be performed differently. That is, since the focusing of the camera module 130 may be automatically performed based on the distance to the subject, more detailed focusing may be performed.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
본 발명이 해결하고자 하는 과제를 해결하기 위한 일 실시예에 따른 감시 시스템은 피사체를 촬영하는 카메라 모듈, 카메라 모듈과 일렬로 배열되고 피사체까지의 거리를 센싱하는 레이저 거리 센서, 및 이벤트에 대응하여 레이저 거리 센서의 제1 각도 및 제1 센싱 값을 획득하고, 제1 각도 및 제1 센싱 값을 이용하여 카메라 모듈과 피사체 사이의 제1 거리를 산출하고, 제1 거리, 레이저 거리 센서의 레이저 화각, 레이저 거리 센서의 레이저 수직 화각 길이를 이용하여 제2 각도를 산출하고, 제1 각도와 제2 각도의 차이가 소정 범위를 초과하면 제2 각도에 이르기까지 레이저 거리 센서를 회전시키는 프로세서를 포함한다.
Description
본 발명은 피사체까지의 거리에 따라 카메라의 포커싱을 제어하는 감시 시스템 및 그 동작 방법에 관한 것이다.
최근 들어, 방범, 보안, 매장 관리 등 다양한 목적으로 건물 내부나 외부, 길거리 등에 카메라를 설치하는 경우가 증가하고 있다. 이러한 카메라는 유선 또는 무선으로 네트워크를 통하여 서로 연결되어 네트워크 카메라로서의 기능을 수행할 수 있다.
카메라가 설치된 장소를 관리하는 관리자는 개인용 컴퓨터 등을 통하여 카메라에 접속하여 원격으로 건물이나 매장 등의 원격지를 관리할 수 있다.
한편, 원하는 피사체를 보다 정확하게 감시하기 위하여, 카메라의 포커싱이 제어될 수 있다. 카메라의 포커싱은 관리자가 수동으로 제어할 수도 있고, 카메라 자체에서 자동으로 제어될 수도 있다.
본 발명이 해결하고자 하는 과제는 카메라의 포커싱을 보다 정확하게 제어하는 감시 시스템 및 그 동작 방법에 관한 것이다.
본 발명이 해결하고자 하는 과제를 해결하기 위한 일 실시예에 따른 감시 시스템은 피사체를 촬영하는 카메라 모듈, 상기 카메라 모듈과 일렬로 배열되고, 상기 피사체까지의 거리를 센싱하는 레이저 거리 센서, 및 이벤트에 대응하여 상기 레이저 거리 센서의 제1 각도 및 제1 센싱 값을 획득하고, 상기 제1 각도 및 상기 제1 센싱 값을 이용하여 상기 카메라 모듈과 상기 피사체 사이의 제1 거리를 산출하고, 상기 제1 거리, 상기 레이저 거리 센서의 레이저 화각, 상기 레이저 거리 센서의 레이저 화각 길이를 이용하여 제2 각도를 산출하고, 상기 제1 각도와 상기 제2 각도의 차이가 소정 범위를 초과하면 상기 제2 각도에 이르기까지 상기 레이저 거리 센서를 회전시키고, 상기 레이저 거리 센서의 제2 센싱 값을 획득하고, 상기 제1 센싱 값 또는 상기 제2 센싱 값에 기초하여 상기 카메라 모듈을 동작시키는 프로세서를 포함한다.
본 실시예에서, 상기 제1 각도 및 상기 제2 각도는 상기 레이저 거리 센서의 틸트 각도 또는 팬 각도이고, 상기 제2 각도는 상기 레이저 화각이 상기 카메라 모듈의 촬영 영역의 중앙과 적어도 일부가 오버랩되는 상기 레이저 거리 센서의 각도일 수 있다.
본 실시예에서, 상기 레이저 거리 센서의 회전은 상기 카메라 모듈의 회전과 별개일 수 있다.
본 실시예에서, 상기 레이저 거리 센서를 회전시키는 회전 구동 모듈을 더 포함하고, 상기 회전 구동 모듈은 DC 모터, 솔레노이드, 또는 스테핑 모터를 포함하고, 상기 프로세서는 상기 회전 구동 모듈이 상기 DC 모터 또는 상기 솔레노이드인 경우에는 상기 레이저 거리 센서를 상기 제1 각도에서 상기 제2 각도에 이르기까지 한번에 회전시키고, 상기 회전 구동 모듈이 상기 스테핑 모터인 경우에는 상기 레이저 거리 센서를 상기 제1 각도에서 상기 제2 각도에 이르기까지 점차적으로 회전시킬 수 있다.
본 발명이 해결하고자 하는 과제를 해결하기 위한 일 실시예에 따른 감시 시스템의 동작 방법은 카메라 모듈 및 상기 카메라 모듈과 일렬로 배열된 레이저 거리 센서를 포함하는 감시 시스템의 동작 방법에 있어서, 이벤트를 검출하는 단계, 상기 이벤트에 대응하여 상기 레이저 거리 센서의 제1 각도 및 상기 레이저 거리 센서에 의해 피사체까지의 거리를 센싱한 결과인 제1 센싱 값을 획득하는 단계, 상기 제1 각도 및 상기 제1 센싱 값을 이용하여 상기 카메라 모듈과 피사체 사이의 제1 거리를 산출하는 단계, 상기 제1 거리, 상기 레이저 거리 센서의 레이저 화각, 상기 레이저 거리 센서의 레이저 화각 길이를 이용하여 제2 각도를 산출하는 단계, 상기 제1 각도와 상기 제2 각도를 비교하는 단계, 상기 제1 각도와 상기 제2 각도의 차이가 소정 범위 이내이면 상기 제1 센싱 값에 기초하여 상기 카메라 모듈을 동작시키는 단계, 및 상기 제1 각도와 상기 제2 각도의 차이가 상기 소정 범위를 초과하면 상기 제2 각도에 이르기까지 상기 레이저 거리 센서를 회전시키고, 상기 레이저 거리 센서의 제2 센싱 값을 획득하고, 상기 제2 센싱 값에 기초하여 상기 카메라 모듈을 동작시키는 단계를 포함한다.
본 발명의 실시예들에 따르면, 카메라의 포커싱을 보다 정확하게 제어할 수 있다.
도 1은 일 실시예에 따른 레이저 거리 센서의 레이저 화각과 카메라 모듈의 카메라 화각을 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 카메라 모듈의 촬영 영역과 레이저 거리 센서의 조사 영역을 설명하기 위한 도면이다.
도 3은 일 실시예에 따른 레이저 거리 센서의 센싱 값 획득을 위한 각도를 설명하기 위한 도면이다.
도 4는 일 실시예에 따른 감시 시스템의 구성을 나타내는 블록도이다.
도 5는 일 실시예에 따른 감시 시스템의 수동 센싱 동작을 설명하기 위한 흐름도이다.
도 6은 일 실시예에 따른 감시 시스템의 자동 센싱 동작을 설명하기 위한 흐름도이다.
본 발명이 해결하고자 하는 과제를 해결하기 위한 일 실시예에 따른 감시 시스템은 피사체를 촬영하는 카메라 모듈, 상기 카메라 모듈과 일렬로 배열되고, 상기 피사체까지의 거리를 센싱하는 레이저 거리 센서, 및 이벤트에 대응하여 상기 레이저 거리 센서의 제1 각도 및 제1 센싱 값을 획득하고, 상기 제1 각도 및 상기 제1 센싱 값을 이용하여 상기 카메라 모듈과 상기 피사체 사이의 제1 거리를 산출하고, 상기 제1 거리, 상기 레이저 거리 센서의 레이저 화각, 상기 레이저 거리 센서의 레이저 화각 길이를 이용하여 제2 각도를 산출하고, 상기 제1 각도와 상기 제2 각도의 차이가 소정 범위를 초과하면 상기 제2 각도에 이르기까지 상기 레이저 거리 센서를 회전시키고, 상기 레이저 거리 센서의 제2 센싱 값을 획득하고, 상기 제1 센싱 값 또는 상기 제2 센싱 값에 기초하여 상기 카메라 모듈을 동작시키는 프로세서를 포함한다.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
이하의 실시예에서, 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
이하의 실시예에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 다수의 표현을 포함한다. 이하의 실시예에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 발명의 실시예들은 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 발명의 실시예들은 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 본 발명의 실시예의 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 본 발명의 실시예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 발명의 실시예들은 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. 메커니즘, 요소, 수단, 구성과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.
이하 첨부된 도면들을 참조하여 본 발명의 여러 가지 실시 예를 상세히 설명한다.
도 1은 일 실시예에 따른 레이저 거리 센서(110)의 레이저 화각과 카메라 모듈(130)의 카메라 화각을 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 레이저 거리 센서(110)의 조사 영역과 카메라 모듈(130)의 촬영 영역을 설명하기 위한 도면이다.
도 1 및 도 2를 참조하면, 감시 시스템(100)은 레이저 거리 센서(110) 및 카메라 모듈(130)을 포함할 수 있다.
레이저 거리 센서(110)는 카메라 모듈(130)과 일렬로 배열될 수 있다.
레이저 거리 센서(110)는 카메라 모듈(130)과 수직 방향으로 일렬로 배열될 수 있다. 예를 들어, 레이저 거리 센서(110)는 도 1과 같이 카메라 모듈(130)의 상부에, 카메라 모듈(130)과 일렬로 배열될 수 있다. 이때, 레이저 거리 센서(110)와 카메라 모듈(130)은 소정의 수직 거리(A)를 가질 수 있다.
레이저 거리 센서(110)는 카메라 모듈(130)과 수평 방향으로 일렬로 배열될 수 있다. 도시하지 않았으나, 예를 들어, 레이저 거리 센서(110)는 카메라 모듈(130)의 좌측에, 카메라 모듈(130)과 일렬로 배열될 수 있다. 이때, 레이저 거리 센서(110)와 카메라 모듈(130)은 소정의 수평 거리를 가질 수 있다.
이하에서는 수직 방향으로 일렬로 배열된 레이저 거리 센서(110)와 카메라 모듈(130)의 동작에 대하여 상세하게 설명한다. 이하의 수직 방향으로 일렬로 배열된 레이저 거리 센서(110)와 카메라 모듈(130)의 동작에 대한 설명은, 수평 방향으로 일렬로 배열된 레이저 거리 센서(110)와 카메라 모듈(130)의 동작에 적용될 수 있다.
레이저 거리 센서(110)는 팬 회전 및/또는 틸트 회전될 수 있다.
카메라 모듈(130)은 팬 회전 및/또는 틸트 회전될 수 있다. 예를 들어, 카메라 모듈(130)은 피사체의 이동에 따라 팬 회전 및/또는 틸트 회전될 수 있다.
레이저 거리 센서(110)는 카메라 모듈(130)과 동일하게 팬 회전 및/또는 틸트 회전될 수 있다. 이때, 레이저 거리 센서(110)가 향하는 방향과 카메라 모듈(130)이 향하는 방향은 항상 동일할 수 있다.
한편, 레이저 거리 센서(110)는 카메라 모듈(130)과 별개로 팬 회전 및/또는 틸트 회전될 수 있다. 즉, 레이저 거리 센서(110)의 회전은 카메라 모듈(130)의 회전과 별개일 수 있다. 이때, 레이저 거리 센서(110)가 향하는 방향과 카메라 모듈(130)이 향하는 방향은 동일할 수도 있고 상이할 수도 있다.
예를 들어, 피사체가 감시 시스템(100)을 향해 다가오는 경우, 레이저 거리 센서(110)는 피사체를 향해 틸트 회전하는 반면, 카메라 모듈(130)은 틸트 회전 없이 고정될 수 있다. 이때, 레이저 거리 센서(110)는 카메라 모듈(130)이 향하는 방향을 기준으로 소정의 틸트 각도(θT, 도 3 참조)를 가질 수 있다.
도시하지 않았으나, 레이저 거리 센서(110)는 카메라 모듈(130)이 향하는 방향을 기준으로 소정의 팬 각도를 가질 수 있다. 소정의 팬 각도는 레이저 거리 센서(110)의 레이저 수평 화각 길이에 기초할 수 있다. 즉, 레이저 화각 길이는 레이저 수직 화각 길이 및/또는 레이저 수평 화각 길이를 포함할 수 있다.
이하에서는, 레이저 수직 화각 길이 및 소정의 틸트 각도의 관계에 대하여 상세하게 설명한다. 이하의 레이저 수직 화각 길이 및 소정의 틸트 각도의 관계에 대한 설명은, 레이저 수평 화각 길이 및 소정의 팬 각도의 관계에 적용될 수 있다.
한편, 카메라 모듈(130)은 렌즈의 줌 배율을 조절할 수 있다. 예를 들어, 피사체가 감시 시스템(100)을 향해 다가오는 경우, 카메라 모듈(130)은 피사체를 향해 줌 인 동작을 수행할 수 있다.
레이저 거리 센서(110)는 레이저 렌지 파인더(Laser Range Finder, LRF)로서 동작할 수 있다. 레이저 거리 센서(110)는 소정의 레이저 화각(θv)을 가질 수 있고, 소정의 레이저 화각(θv) 이내의 피사체까지의 거리를 센싱할 수 있다. 즉, 레이저 거리 센서(110)의 센싱 값은, 레이저 거리 센서(110)에 의해 감지된 피사체까지의 거리를 의미할 수 있다.
레이저 거리 센서(110)는 레이저의 왕복 시간을 측정함으로써 거리를 센싱하는 Pulsed TOF(Time Of Flight) 기술, 레이저의 위상 차를 통해 거리를 센싱하는 Phase-Shift 기술 등을 수행할 수 있으며, 이에 한정하지 않는다.
카메라 모듈(130)은 레이저 거리 센서(110)의 센싱 값에 기초하여 포커싱 동작을 수행할 수 있다. 예를 들어, 카메라 모듈(130)은 센싱 값이 작은 경우에는 근거리 피사체에 대한 포커싱을 수행하고, 센싱 값이 큰 경우에는 원거리 피사체에 대한 포커싱을 수행할 수 있다.
카메라 모듈(130)은 소정의 카메라 화각(θc)을 가질 수 있고, 소정의 카메라 화각(θc) 이내의 피사체를 촬영할 수 있다. 즉, 카메라 모듈(130)은 소정의 카메라 화각(θc)으로 정의되는 감시 영역에 대한 영상을 생성할 수 있다. 카메라 모듈(130)은 감시 또는 보안의 목적으로 감시 영역을 실시간으로 촬영할 수 있다.
소정의 레이저 화각(θv)과 소정의 카메라 화각(θc)은 적어도 일부가 오버랩될 수 있다. 도 2는 감시 영역의 소정의 수직면(10)의 정면을 도시한 것으로, 원형은 레이저 거리 센서(110)의 조사 영역을 나타내고, 사각형은 카메라 모듈(130)의 촬영 영역을 나타낸다. 즉, 원형은 소정의 레이저 화각(θv)에 대응되고, 사각형은 소정의 카메라 화각(θc)에 대응될 수 있다.
소정의 레이저 화각(θv)과 소정의 카메라 화각(θc)의 적어도 일부가 오버랩되는 경우에는, 레이저 상부 위치(LT)는 카메라 화면 상부 위치(CT)와 카메라 화면 하부 위치(CB) 사이에 불포함되고, 레이저 하부 위치(LB)는 카메라 화면 상부 위치(CT)와 카메라 화면 하부 위치(CB) 사이에 포함될 수 있다.
소정의 레이저 화각(θv)과 소정의 카메라 화각(θc)이 오버랩되는 영역의 크기는 레이저 거리 센서(110)와 카메라 모듈(130)의 소정의 수직 거리(A), 감시 시스템(100)으로부터 소정의 수직면(10)에 이르는 소정의 수평 거리(D), 또는 레이저 거리 센서(110)의 회전 각도에 따라 결정될 수 있다.
소정의 레이저 화각(θv)과 소정의 카메라 화각(θc)이 오버랩되는 영역의 크기에 따라 레이저 조사 효율이 결정될 수 있다. 예를 들어, 레이저 조사 효율은 수학식 1 내지 수학식 4를 이용하여 산출될 수 있다.
여기서, R은 레이저 조사 직경, D는 감시 시스템(100)으로부터 소정의 수직면(10)에 이르는 소정의 수평 거리, θv는 소정의 레이저 화각, LT는 레이저 상부 위치, A는 레이저 거리 센서(110)와 카메라 모듈(130)의 소정의 수직 거리, θT는 카메라 모듈(130)이 향하는 방향을 기준으로 한 레이저 거리 센서(110)의 소정의 틸트 각도, LB는 레이저 하부 위치, CT는 카메라 화면 상부 위치, θc는 소정의 카메라 화각, CB는 카메라 화면 하부 위치일 수 있다.
레이저 조사 효율은 레이저 거리 센서(110)의 조사 영역과 카메라 모듈(130)의 촬영 영역이 오버랩되는 영역의 크기가 커질수록 좋아질 수 있다. 특히, 레이저 거리 센서(110)의 조사 영역이 카메라 모듈(130)의 촬영 영역의 중심에 가까울수록 레이저 조사 효율이 좋아질 수 있다. 이를 위해, 감시 시스템(100)으로부터 피사체가 떨어진 거리 즉, 소정의 수평 거리(D)에 따라 레이저 거리 센서(110)의 소정의 틸트 각도(θT)를 제어함으로써, 레이저 조사 효율을 높일 수 있다.
이하에서는, 도 3을 참조하여, 감시 시스템(100)으로부터 피사체에 이르는 거리가 변경된 경우, 레이저 조사 효율을 높이거나 유지하기 위한 레이저 거리 센서(110)의 소정의 틸트 각도(θT) 산출 방법에 대하여 상세하게 설명한다.
도 3은 일 실시예에 따른 레이저 거리 센서의 센싱 값 획득을 위한 각도를 설명하기 위한 도면이다.
도 3을 참조하면, 소정의 수직면(10)을 기준으로 레이저 화각(θv)이 카메라의 촬영 영역의 중앙과 적어도 일부가 오버랩되게 하기 위하여, 레이저 거리 센서(110)는 소정의 틸트 각도(θT)로 회전될 수 있다.
소정의 틸트 각도(θT)는 수학식 5 내지 수학식 7을 이용하여 산출될 수 있다.
S1은 레이저 거리 센서(110)의 제1 센싱 값, θ1은 레이저 거리 센서(110)의 제1 각도, LL은 레이저 거리 센서(110)의 레이저 수직 화각 길이, m은 임의의 여유 값일 수 있다.
수학식 5 내지 수학식 7로부터 산출한 소정의 틸트 각도(θT)는 수학식 8과 같다.
이때, m의 값에 따라 레이저 화각(θv)과 카메라 화각(θc)이 오버랩되는 영역의 크기가 결정될 수 있다. m의 값은 사용자 입력 등에 의해 미리 정해진 값일 수 있으며, 이에 한정하지 않는다.
다시 말해, m=0인 경우에는 레이저 하부 위치(LB)가 카메라의 촬영 영역의 중앙에 위치하고, m=LD/2인 경우에는 레이저 하부 위치(LB)와 레이저 상부 위치(LT)의 중앙이 카메라의 촬영 영역의 중앙에 위치하고, m=LD인 경우에는 레이저 상부 위치(LT)가 카메라의 촬영 영역의 중앙에 위치할 수 있다. LD은 레이저 거리 센서(110)의 소정의 수평 거리(D)에 따른 레이저 수직 화각 길이를 의미할 수 있다.
LD는 수학식 9에 의해 산출될 수 있다.
도 4는 일 실시예에 따른 감시 시스템(100)의 구성을 나타내는 블록도이다.
도 4를 참조하면, 일 실시예에 따른 감시 시스템(100)은 레이저 거리 센서(110), 회전 구동 모듈(120), 카메라 모듈(130), 프로세서(140), 메모리(150), 사용자 인터페이스(160), 및 통신 인터페이스(170)를 포함한다.
구체적으로, 일 실시예에 따른 감시 시스템(100)은 피사체를 촬영하는 카메라 모듈(130), 카메라 모듈(130)과 일렬로 배열되고, 피사체까지의 거리를 센싱하는 레이저 거리 센서(110), 및 이벤트에 대응하여 레이저 거리 센서(110)의 제1 각도(θ1) 및 제1 센싱 값(S1)을 획득하고, 제1 각도(θ1) 및 제1 센싱 값(S1)을 이용하여 카메라 모듈(130)과 피사체 사이의 제1 거리를 산출하고, 제1 거리, 레이저 거리 센서(110)의 레이저 화각(θv), 레이저 거리 센서(110)의 레이저 수직 화각 길이(LL)를 이용하여 제2 각도(θ2)를 산출하고, 제1 각도(θ1)와 제2 각도(θ2)의 차이가 소정 범위를 초과하면 제2 각도(θ2)에 이르기까지 레이저 거리 센서(110)를 회전시키고, 레이저 거리 센서(110)의 제2 센싱 값(S2)을 획득하고, 제1 센싱 값(S1) 또는 제2 센싱 값(S2)에 기초하여 상기 카메라 모듈을 동작시키는 프로세서(140)를 포함한다.
여기서, 제1 각도(θ1) 및 제2 각도(θ2)는 레이저 거리 센서(110)의 틸트 각도 또는 팬 각도일 수 있다. 제1 각도(θ1)는 레이저 거리 센서(110)의 현재 틸트 각도 또는 현재 팬 각도를 가리킬 수 있고, 제2 각도(θ2)는 레이저 거리 센서(110)의 기준 틸트 각도 또는 기준 팬 각도를 가리킬 수 있다.
제2 각도(θ2)는 레이저 화각(θv)이 카메라 모듈(130)의 촬영 영역의 중앙과 적어도 일부가 오버랩되는 레이저 거리 센서(110)의 각도일 수 있다. 제2 각도(θ2)는 예를 들어, 레이저 하부 위치(LB)가 카메라의 촬영 영역의 중앙에 위치하기 위한 소정의 레이저 화각(θv)일 수 있다.
여기서, 제1 센싱 값(S1)은 제1 각도(θ1)의 레이저 거리 센서(110)에 의해 감지된 피사체까지의 거리 값일 수 있고, 제2 센싱 값은 제2 각도(θ2)의 레이저 거리 센서(110)에 의해 감지된 피사체까지의 거리 값일 수 있다.
여기서, 카메라 모듈(130)과 피사체 사이의 제1 거리는 도 3의 감시 시스템(100)으로부터 소정의 수직면(10)에 이르는 소정의 수평 거리(D)를 의미할 수 있다.
여기서, 레이저 수직 화각 길이(LL)는 사용자 입력 등에 의해 미리 정해진 값일 수 있다. 예를 들어, 레이저 하부 위치(LB)가 카메라의 촬영 영역의 중앙에 위치하도록 선택하는 사용자 입력에 대응하여, 레이저 수직 화각 길이(LL)는 레이저 거리 센서(110)와 카메라 모듈(130)의 소정의 수직 거리(A)와 동일한 값일 수 있다.
프로세서(140)는 제1 거리, 레이저 거리 센서(110)의 레이저 화각(θv), 및 레이저 거리 센서(110)의 레이저 수직 화각 길이(LL)를 수학식 8에 적용하여 제2 각도(θ2)를 산출할 수 있다.
프로세서(140)는 제1 각도(θ1)와 제2 각도(θ2)를 비교할 수 있다. 즉, 프로세서(140)는 레이저 거리 센서(110)의 현재 틸트 각도를 기준 틸트 각도와 비교할 수 있다.
상세하게는, 현재 틸트 각도가 기준 틸트 각도를 중심으로 하는 기준 범위 이내이면, 프로세서(140)는 현재 틸트 각도에서의 레이저 거리 센서(110)에 의해 생성된 제1 센싱 값에 기초하여 카메라 모듈(130)의 포커싱 동작을 제어할 수 있다.
현재 틸트 각도가 기준 틸트 각도를 중심으로 하는 기준 범위 밖이라면, 프로세서(140)는 기준 틸트 각도에 이르도록 레이저 거리 센서(110)를 회전시키고, 기준 틸트 각도에서의 레이저 거리 센서(110)에 의해 생성된 제2 센싱 값에 기초하여 카메라 모듈(130)의 포커싱 동작을 제어할 수 있다.
이때, 레이저 거리 센서(110)의 회전은 카메라 모듈(130)의 회전과 별개일 수 있다. 레이저 거리 센서(110)는 예를 들어, 회전 구동 모듈(120)에 의해 회전될 수 있으며, 회전 구동 모듈(120)은 카메라 모듈(130)과 별개로 레이저 거리 센서(110)를 회전시킬 수 있다.
회전 구동 모듈(120)은 DC 모터, 솔레노이드, 또는 스테핑 모터를 포함할 수 있다.
DC 모터는 영구자석과 코일을 포함하며, 코일에 흐르는 전류의 방향을 전환시킴으로써 회전력을 생성시킬 수 있다. 프로세서(140)는 DC 모터를 동작시킴으로써, 레이저 거리 센서(110)를 제1 각도(θ1)에서 제2 각도(θ2)에 이르기까지 한번에 회전시킬 수 있다.
솔레노이드는 철심과 코일을 포함하며, 원통형으로 감은 코일에 전류가 흐르면 내부의 철심으로 인해 더욱 강한 자기장을 생성할 수 있다. 프로세서(140)는 솔레노이드를 동작시킴으로써, 레이저 거리 센서(110)를 제1 각도(θ1)에서 제2 각도(θ2)에 이르기까지 한번에 회전시킬 수 있다.
스테핑 모터는 금속기어를 중심으로 주변에 배치된 복수의 톱니 모양 전자석들을 포함하며, 복수의 톱니 모양 전자석들에 순차적으로 전력이 인가될 수 있다. 프로세서(140)는 스테핑 모터를 동작시킴으로써, 레이저 거리 센서(110)를 제1 각도(θ1)에서 제2 각도(θ2)에 이르기까지 점차적으로 회전시킬 수 있다.
스테핑 모터는 VR형(Variable reluctance type) 스테핑 모터, PM형(Permanent type) 스테핑 모터, HB형(Hybrid type) 스테핑 모터 등일 수 있으며, 이에 한정하지 않는다.
메모리(150)는 레이저 거리 센서(110)의 레이저 화각(θv), 레이저 거리 센서(110)와 카메라 모듈(130)의 소정의 수직 거리(A) 등과 같은 상수를 저장할 수 있다.
메모리(150)는 레이저 거리 센서(110)의 레이저 수직 화각 길이(LL), 제2 각도(θ2) 등과 같은 변수를 저장할 수 있다.
사용자 인터페이스(160)는 사용자 입력을 수신할 수 있다. 예를 들어, 사용자 인터페이스(160)는 레이저 상부 위치(LT) 및/또는 레이저 하부 위치(LB)의 카메라의 촬영 영역에 대한 위치, 센서 각도 등을 선택하는 사용자 입력을 수신할 수 있다.
통신 인터페이스(160)는 외부와 통신할 수 있다. 예를 들어, 통신 인터페이스(160)는 감시 시스템(100)의 정보를 외부 서버에 전송하거나, 외부 서버로부터 명령을 수신할 수 있다.
이하에서는, 도 5를 참조하여 수동 센싱 모드에서의 감시 시스템(100)의 거리 센싱 동작을 설명하고, 도 6을 참조하여 자동 센싱 모드에서의 감시 시스템(100)의 거리 센싱 동작을 설명한다.
도 5는 일 실시예에 따른 감시 시스템(100)의 수동 센싱 동작을 설명하기 위한 흐름도이다.
도 5를 참조하면, 카메라 모듈(130) 및 카메라 모듈(130)과 일렬로 배열된 레이저 거리 센서(110)를 포함하는 감시 시스템(100)은, 사용자 인터페이스(160)에 의해, 센서 각도를 선택하는 사용자 입력을 수신한다(S510).
센서 각도는 레이저 거리 센서(110)의 카메라 모듈(130)에 대한 각도를 의미할 수 있다.
이어서, 감시 시스템(100)의 프로세서(140)는 회전 구동 모듈(120)을 제어함으로써, 사용자 입력에 의해 선택된 센서 각도에 이르기까지 레이저 거리 센서(110)를 회전시킨다(S520).
이어서, 감시 시스템(100) 의 프로세서(140)는 사용자 입력에 의해 선택된 센서 각도를 가진 레이저 거리 센서(110)에 의해, 피사체까지의 거리를 센싱한 센싱 값을 획득한다(S530).
이에 따라, 일 실시예에 따른 감시 시스템은, 사용자가 원하는 피사체에 보다 정확히 포커싱된 촬영 영상을 제공할 수 있다.
도 6은 일 실시예에 따른 감시 시스템(100)의 자동 센싱 동작을 설명하기 위한 흐름도이다.
도 6을 참조하면, 카메라 모듈(130) 및 카메라 모듈(130)과 일렬로 배열된 레이저 거리 센서(110)를 포함하는 감시 시스템(100)은 프로세서(140)에 의해, 이벤트를 검출한다(S610).
이벤트는 카메라 모듈(130)에 의해 검출될 수 있다. 예를 들어, 이벤트는 카메라 모듈(130)에 의해 촬영된 영상에서의 움직임 또는 소정의 피사체의 움직임 등일 수 있다.
이벤트는 카메라 모듈(130) 이외의 구성에 의해 검출될 수 있다. 예를 들어, 이벤트는 소정의 오디오 신호 등일 수 있다.
이어서, 프로세서(140)는 이벤트에 대응하여, 레이저 거리 센서(110)의 제1 각도(θ1) 및 레이저 거리 센서(110)에 의해 피사체까지의 거리를 센싱한 결과인 제1 센싱 값(S1)을 획득한다(S620).
프로세서(140)는 제1 각도(θ1) 및 제1 센싱 값(S1)을 이용하여 카메라 모듈(130)과 피사체 사이의 제1 거리를 산출한다(S630).
프로세서(140)는 수학식 5를 이용하여 제1 각도(θ1) 및 제1 센싱 값(S1)으로부터 카메라 모듈(130)과 피사체 사이의 제1 거리를 산출할 수 있다.
이어서, 프로세서(140)는 제1 거리, 레이저 거리 센서(110)의 레이저 화각(θv), 레이저 거리 센서(110)의 레이저 화각 길이를 이용하여 제2 각도(θ2)를 산출한다(S640). 예를 들어, 프로세서(140)는 제1 거리, 레이저 거리 센서(110)의 레이저 화각(θv), 레이저 거리 센서(110)의 레이저 수직 화각 길이(LL)를 이용하여 제2 각도(θ2)를 산출할 수 있다.
프로세서(140)는 수학식 5 내지 8을 이용하여 제1 거리, 레이저 거리 센서(110)의 레이저 화각(θv), 레이저 거리 센서(110)의 레이저 수직 화각 길이(LL)로부터 제2 각도(θ2)를 산출할 수 있다.
프로세서(140)는 제1 각도(θ1)와 제2 각도(θ2)를 비교한다(S650).
제1 각도(θ1)와 제2 각도(θ2)의 차이가 소정 범위 이내이면(S650), 프로세서(140)는 레이저 거리 센서(110)의 동작을 종료한다.
이때, 프로세서(140)는 제1 센싱 값(S1)에 기초하여 카메라 모듈(130)을 동작시킨다.
제1 각도(θ1)와 제2 각도(θ2)의 차이가 소정 범위를 초과하면(S650), 프로세서(140)는 제2 각도(θ2)에 이르기까지 레이저 거리 센서(110)를 회전시키고(S660), 레이저 거리 센서(110)의 제2 센싱 값을 획득한다(S670).
즉, 제2 센싱 값은 제2 각도(θ2)의 레이저 거리 센서(110)에 의해 생성된 센싱 값일 수 있다.
이때, 프로세서(140)는 제2 센싱 값(S2)에 기초하여 카메라 모듈(130)을 동작시킨다.
제1 센싱 값(S1)에 기초하는 카메라 모듈(130)의 포커싱과 제2 센싱 값(S2)에 기초하는 카메라 모듈(130)의 포커싱은 다르게 수행될 수 있다. 즉, 피사체까지의 거리에 기초하여 카메라 모듈(130)의 포커싱이 자동으로 수행될 수 있으므로, 보다 세밀한 포커싱이 수행될 수 있다.
이제까지 본 발명에 대하여 바람직한 실시예를 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 본 발명을 구현할 수 있음을 이해할 것이다.
그러므로 상기 개시된 실시예는 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 특허청구범위에 의해 청구된 발명 및 청구된 발명과 균등한 발명들은 본 발명에 포함된 것으로 해석되어야 한다.
Claims (10)
- 피사체를 촬영하는 카메라 모듈;상기 카메라 모듈과 일렬로 배열되고, 상기 피사체까지의 거리를 센싱하는 레이저 거리 센서; 및이벤트에 대응하여 상기 레이저 거리 센서의 제1 각도 및 제1 센싱 값을 획득하고, 상기 제1 각도 및 상기 제1 센싱 값을 이용하여 상기 카메라 모듈과 상기 피사체 사이의 제1 거리를 산출하고, 상기 제1 거리, 상기 레이저 거리 센서의 레이저 화각, 상기 레이저 거리 센서의 레이저 화각 길이를 이용하여 제2 각도를 산출하고, 상기 제1 각도와 상기 제2 각도의 차이가 소정 범위를 초과하면 상기 제2 각도에 이르기까지 상기 레이저 거리 센서를 회전시키고, 상기 레이저 거리 센서의 제2 센싱 값을 획득하고, 상기 제1 센싱 값 또는 상기 제2 센싱 값에 기초하여 상기 카메라 모듈을 동작시키는 프로세서;를 포함하는, 감시 시스템.
- 청구항 1에 있어서,상기 제1 각도 및 상기 제2 각도는 상기 레이저 거리 센서의 틸트 각도 또는 팬 각도이고,상기 제2 각도는 상기 레이저 화각이 상기 카메라 모듈의 촬영 영역의 중앙과 적어도 일부가 오버랩되는 상기 레이저 거리 센서의 각도인, 감시 시스템.
- 청구항 1에 있어서,상기 레이저 거리 센서의 회전은 상기 카메라 모듈의 회전과 별개인, 감시 시스템.
- 청구항 3에 있어서,상기 레이저 거리 센서를 회전시키는 회전 구동 모듈을 더 포함하고,상기 회전 구동 모듈은 DC 모터, 솔레노이드, 또는 스테핑 모터를 포함하고,상기 프로세서는 상기 회전 구동 모듈이 상기 DC 모터 또는 상기 솔레노이드인 경우에는 상기 레이저 거리 센서를 상기 제1 각도에서 상기 제2 각도에 이르기까지 한번에 회전시키고, 상기 회전 구동 모듈이 상기 스테핑 모터인 경우에는 상기 레이저 거리 센서를 상기 제1 각도에서 상기 제2 각도에 이르기까지 점차적으로 회전시키는, 감시 시스템.
- 카메라 모듈 및 상기 카메라 모듈과 일렬로 배열된 레이저 거리 센서를 포함하는 감시 시스템의 동작 방법에 있어서,이벤트를 검출하는 단계;상기 이벤트에 대응하여 상기 레이저 거리 센서의 제1 각도 및 상기 레이저 거리 센서에 의해 피사체까지의 거리를 센싱한 결과인 제1 센싱 값을 획득하는 단계;상기 제1 각도 및 상기 제1 센싱 값을 이용하여 상기 카메라 모듈과 피사체 사이의 제1 거리를 산출하는 단계;상기 제1 거리, 상기 레이저 거리 센서의 레이저 화각, 상기 레이저 거리 센서의 레이저 화각 길이를 이용하여 제2 각도를 산출하는 단계;상기 제1 각도와 상기 제2 각도를 비교하는 단계;상기 제1 각도와 상기 제2 각도의 차이가 소정 범위 이내이면 상기 제1 센싱 값에 기초하여 상기 카메라 모듈을 동작시키는 단계; 및상기 제1 각도와 상기 제2 각도의 차이가 상기 소정 범위를 초과하면 상기 제2 각도에 이르기까지 상기 레이저 거리 센서를 회전시키고, 상기 레이저 거리 센서의 제2 센싱 값을 획득하고, 상기 제2 센싱 값에 기초하여 상기 카메라 모듈을 동작시키는 단계;를 포함하는, 감시 시스템의 동작 방법.
- 청구항 6에 있어서,상기 제1 각도 및 상기 제2 각도는 상기 레이저 거리 센서의 틸트 각도 또는 팬 각도이고,상기 제2 각도는 상기 레이저 화각이 상기 카메라 모듈의 촬영 영역의 중앙과 적어도 일부가 오버랩되는 상기 레이저 거리 센서의 각도인, 감시 시스템의 동작 방법.
- 청구항 6에 있어서,상기 레이저 거리 센서의 회전은 상기 카메라 모듈의 회전과 별개인, 감시 시스템의 동작 방법.
- 청구항 8에 있어서,상기 레이저 거리 센서는 회전 구동 모듈에 의해 회전하고,상기 회전 구동 모듈은 DC 모터, 솔레노이드, 또는 스테핑 모터를 포함하고,상기 회전 구동 모듈이 상기 DC 모터 또는 상기 솔레노이드인 경우에는 상기 레이저 거리 센서가 상기 제1 각도에서 상기 제2 각도에 이르기까지 한번에 회전하고, 상기 회전 구동 모듈이 상기 스테핑 모터인 경우에는 상기 레이저 거리 센서가 상기 제1 각도에서 상기 제2 각도에 이르기까지 점차적으로 회전하는, 감시 시스템.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/056,815 US11889185B2 (en) | 2018-06-01 | 2019-05-24 | Monitoring system and operation method thereof |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180063525A KR102628415B1 (ko) | 2018-06-01 | 2018-06-01 | 감시 시스템 및 그 동작 방법 |
KR10-2018-0063525 | 2018-06-01 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2019231174A1 true WO2019231174A1 (ko) | 2019-12-05 |
Family
ID=68697214
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/KR2019/006243 WO2019231174A1 (ko) | 2018-06-01 | 2019-05-24 | 감시 시스템 및 그 동작 방법 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11889185B2 (ko) |
KR (1) | KR102628415B1 (ko) |
WO (1) | WO2019231174A1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112188089A (zh) * | 2020-09-22 | 2021-01-05 | 北京小米移动软件有限公司 | 距离获取方法及装置、焦距调节方法及装置、测距组件 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102161663B1 (ko) * | 2020-07-28 | 2020-10-06 | 주식회사 이엔씨테크놀로지 | 출입구 방역장치 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR970056978A (ko) * | 1995-12-20 | 1997-07-31 | 배순훈 | 레이저 광을 이용한 카메라 촛점 조정장치 |
KR100403369B1 (ko) * | 2001-01-16 | 2003-10-30 | 삼성전자주식회사 | 이동무선단말기에 있어서 카메라 방향지시 장치 및 방법 |
KR20040016231A (ko) * | 2002-08-16 | 2004-02-21 | 한국항공우주산업 주식회사 | 자동 줌인/아웃 및 포커스 기능을 가지는 원격 화상시스템 |
KR20100007444A (ko) * | 2008-07-14 | 2010-01-22 | 구자회 | 감시카메라 시스템을 통한 감시 방법 |
CN106559528A (zh) * | 2016-11-29 | 2017-04-05 | 广东欧珀移动通信有限公司 | 控制方法、控制装置及电子装置 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000279843A (ja) | 1999-03-31 | 2000-10-10 | Matsushita Electric Ind Co Ltd | 非磁性金属線材の回収方法 |
KR20020018514A (ko) | 2000-09-02 | 2002-03-08 | 김성헌 | 레이저 거리 측정을 통한 카메라 줌배율 제어 장치 및 그방법 |
KR20020054843A (ko) | 2000-12-28 | 2002-07-08 | 박태진 | 레이저 거리측정 오차 보정 회로 |
JP2003098422A (ja) | 2001-09-20 | 2003-04-03 | Matsushita Electric Ind Co Ltd | オートフォーカス装置 |
KR100763974B1 (ko) | 2006-07-12 | 2007-10-05 | 국방과학연구소 | 중적외선 파면센서의 광축정렬 장치 및 그 방법 |
KR100948947B1 (ko) * | 2008-01-16 | 2010-03-23 | 한국생산기술연구원 | 이동체의 위치 추정 장치 및 그 방법 |
KR101098469B1 (ko) | 2009-03-17 | 2011-12-26 | 이창동 | 적외선 레이저 투광기를 이용한 감시 카메라 |
JP5653035B2 (ja) | 2009-12-22 | 2015-01-14 | キヤノン株式会社 | 撮像装置、焦点検出方法、および制御方法 |
KR101639666B1 (ko) | 2010-03-09 | 2016-07-14 | 한화테크윈 주식회사 | 적외선 감시 카메라 |
KR101163453B1 (ko) | 2010-12-07 | 2012-07-18 | 현대자동차주식회사 | 레이저 센서와 비전 센서를 이용한 물체거리 측정방법 |
US9866745B2 (en) | 2015-07-13 | 2018-01-09 | Htc Corporation | Image capturing device and hybrid auto-focus method thereof |
JPWO2017154705A1 (ja) * | 2016-03-09 | 2018-12-27 | 株式会社ニコン | 撮像装置、画像処理装置、画像処理プログラム、データ構造、及び撮像システム |
KR101762203B1 (ko) | 2016-10-24 | 2017-07-27 | 한국생산기술연구원 | Fov의 자동조절이 가능한 비전센서장치 및 그 제어방법 |
-
2018
- 2018-06-01 KR KR1020180063525A patent/KR102628415B1/ko active IP Right Grant
-
2019
- 2019-05-24 US US17/056,815 patent/US11889185B2/en active Active
- 2019-05-24 WO PCT/KR2019/006243 patent/WO2019231174A1/ko active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR970056978A (ko) * | 1995-12-20 | 1997-07-31 | 배순훈 | 레이저 광을 이용한 카메라 촛점 조정장치 |
KR100403369B1 (ko) * | 2001-01-16 | 2003-10-30 | 삼성전자주식회사 | 이동무선단말기에 있어서 카메라 방향지시 장치 및 방법 |
KR20040016231A (ko) * | 2002-08-16 | 2004-02-21 | 한국항공우주산업 주식회사 | 자동 줌인/아웃 및 포커스 기능을 가지는 원격 화상시스템 |
KR20100007444A (ko) * | 2008-07-14 | 2010-01-22 | 구자회 | 감시카메라 시스템을 통한 감시 방법 |
CN106559528A (zh) * | 2016-11-29 | 2017-04-05 | 广东欧珀移动通信有限公司 | 控制方法、控制装置及电子装置 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112188089A (zh) * | 2020-09-22 | 2021-01-05 | 北京小米移动软件有限公司 | 距离获取方法及装置、焦距调节方法及装置、测距组件 |
Also Published As
Publication number | Publication date |
---|---|
KR102628415B1 (ko) | 2024-01-23 |
US11889185B2 (en) | 2024-01-30 |
US20210211571A1 (en) | 2021-07-08 |
KR20190137401A (ko) | 2019-12-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2019231174A1 (ko) | 감시 시스템 및 그 동작 방법 | |
WO2017065336A1 (ko) | 스마트폰을 활용한 원격 모니터링 방법, 장치 및 시스템 | |
WO2019107650A1 (ko) | 지능형 국방경계 감시 카메라 장치 | |
WO2019164047A1 (ko) | 열화상을 이용한 수배전반 모니터링 장치, 방법 및 컴퓨터-판독가능기록매체 | |
WO2014189186A1 (ko) | 무선 리모컨 기능을 갖는 ip 카메라를 이용한 전자기기의 제어 방법 | |
WO2017135671A1 (ko) | 모바일 기기를 이용한 방송 시스템 및 그 제어 방법 | |
WO2020189831A1 (ko) | 자율주행 차량의 모니터링 및 제어 방법 | |
WO2017007077A1 (ko) | 감시 방법 | |
WO2020122662A1 (ko) | 로봇 인지용 플랫폼, 그 시스템 및 그 진단 방법 | |
KR100929921B1 (ko) | 유비퀴터스 일체형 보안영상장치 및 시스템 | |
WO2018092929A1 (ko) | 사물 인터넷 기반의 실내형 자가촬영사진지원 카메라 시스템 | |
JP2006279516A (ja) | 監視システム、監視カメラ、及びコントローラ | |
WO2023149603A1 (ko) | 다수의 카메라를 이용한 열화상 감시 시스템 | |
WO2015088158A1 (ko) | Cctv의 절취방지를 위한 제어방법 | |
WO2019098729A1 (ko) | 차량용 모니터링 방법 및 장치 | |
WO2012102504A2 (ko) | 피사체 전방위 촬영시스템 | |
WO2017105095A1 (ko) | 사격 제어 시스템 및 이를 이용하는 사격 제어 방법 | |
WO2022114558A1 (ko) | 다중 cctv 카메라의 제어 방법, 장치 및 시스템 | |
WO2019124750A1 (ko) | 타임슬라이스 촬영을 위한 카메라 캘리브레이션 방법 및 이를 위한 장치 | |
WO2018097685A1 (ko) | 회전형 카메라장치 | |
WO2017119695A1 (ko) | 무인 멀티콥터에 구비된 카메라를 이용한 객체 위치 산출 방법 및 이를 위한 장치 | |
WO2014073715A1 (ko) | 방위 제어용 자성모터 및 제어방법과, 이를 이용한 카메라 모듈 | |
WO2023210839A1 (ko) | 다중 카메라 및 이동 카메라를 이용한 영상 분석 장치 | |
JP2002329196A (ja) | 待ち時間検出システム | |
JP2006115080A (ja) | 監視カメラ制御装置および監視カメラシステム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 19810504 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 19810504 Country of ref document: EP Kind code of ref document: A1 |