WO2016068350A1 - 모니터링 장치 및 그 장치의 제어 방법 - Google Patents

모니터링 장치 및 그 장치의 제어 방법 Download PDF

Info

Publication number
WO2016068350A1
WO2016068350A1 PCT/KR2014/010135 KR2014010135W WO2016068350A1 WO 2016068350 A1 WO2016068350 A1 WO 2016068350A1 KR 2014010135 W KR2014010135 W KR 2014010135W WO 2016068350 A1 WO2016068350 A1 WO 2016068350A1
Authority
WO
WIPO (PCT)
Prior art keywords
monitoring device
situation
camera
user
image
Prior art date
Application number
PCT/KR2014/010135
Other languages
English (en)
French (fr)
Inventor
이윤경
최시은
홍지훈
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to US15/522,053 priority Critical patent/US10582161B2/en
Priority to KR1020177007509A priority patent/KR101969804B1/ko
Priority to PCT/KR2014/010135 priority patent/WO2016068350A1/ko
Publication of WO2016068350A1 publication Critical patent/WO2016068350A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes

Definitions

  • the present invention relates to a monitoring device and a control method of the device.
  • monitoring devices such as surveillance cameras are increasing in need and importance. This is because, in case of an accident such as a theft or traffic accident, important evidence may be included among the information collected by the monitoring devices. Thus, in practice, the monitoring device may have the effect of reducing the incidence of accidents such as strong criminal sanctions or traffic accidents.
  • monitoring devices can vary greatly in performance depending on the features they can provide.
  • a monitoring device such as a simple surveillance camera
  • a high-performance monitoring device can automatically detect and approach specific areas or objects.
  • it may be provided with functions for conveying the occurrence of the situation to the user.
  • monitoring devices vary in price depending on the performance they offer. And higher performance monitoring devices require very high purchase costs. Accordingly, research is being conducted to provide a monitoring device that provides a higher performance monitoring performance at a lower cost.
  • One object of the present invention is to provide a monitoring device and a control method thereof that can provide various monitoring functions to a user at a lower cost.
  • Another object of the present invention is to provide a high performance monitoring function to a user without purchasing a separate monitoring device, and provides a monitoring device using a mobile terminal such as a separate smart phone and a control method thereof. To provide.
  • the device body is mounted on either side of the object having a front and rear, and is provided in the device At least two cameras for receiving an image in a direction in which the front of the object faces and in a direction in which the rear of the object faces, a sensing unit configured to detect the object and a situation around the object, and within a predetermined distance to the object
  • a control unit for performing a function corresponding to the current situation occurs.
  • the controller may be configured to transmit at least one of an image received from the at least one camera and the detection result to another preset terminal, and to perform a function according to a control signal transmitted from the other terminal. It features.
  • the function performed according to the control signal may be a function of outputting at least one of the plurality of audio data stored in the monitoring device according to the control signal.
  • the control unit may select at least a portion of the stored plurality of audio data according to the control signal, and simultaneously output the selected plurality of audio data.
  • the control unit may output the at least one audio data in a stereo manner using a plurality of sound output units provided in the monitoring device.
  • the preset other terminal receives a user's voice signal
  • the control signal is a signal for controlling the monitoring device to output a user's voice signal input through the other terminal. do.
  • the controller transmits images detected by both the at least two cameras to the other terminal.
  • the controller when there is at least one other monitoring device located near the monitoring device, the controller may further collect information detected from the other monitoring device when the preset situation occurs, and thus the other terminal. Characterized in that to transmit.
  • the control unit may be further configured to generate the control signal if the control signal is not received within a preset time from the other terminal after the image received from the at least one camera and the detection result are transmitted to the other terminal. It is characterized by automatically performing a function corresponding to the situation.
  • the automatically performed function may include outputting at least one of pre-stored audio data, or information including an image received from the at least one camera and the detection result to a preset contact. It is characterized in that the transmission according.
  • control unit based on the location of the other terminal, recognizes whether the user is going out, and when it is recognized that the user is going out, information about the status of at least one home appliance that can be connected Characterized in that it is displayed through the display unit provided in the monitoring device.
  • the control unit may control a power state of the at least one home appliance in which the state is displayed on the display unit based on a user input applied to the display unit.
  • the controller may determine that the preset situation occurs when at least one of noise, vibration, or impact of a predetermined level or more is detected around the object and the object as a result of the sensing unit. It is characterized by.
  • the controller may transmit information related to at least one of the detected noise, shock, and vibration to at least one other terminal preset together with the image received from the at least one camera. It is done.
  • the other terminal may include at least one of the noise, shock, and vibration when the information received from the monitoring device includes information related to at least one of the detected noise, shock, and vibration. At least one of the sound signal and the vibration corresponding to the, characterized in that output with the image received from the at least one camera.
  • the controller determines that the predetermined situation occurs.
  • the display apparatus may further include a display unit including image information, wherein the display unit is mounted to the object so that the display unit can be identified on any one surface of the front or rear surface of the object, and the control unit is mounted to the monitoring device. And receiving an image in a direction that the opposite surface of the object surface faces from one of the cameras and displaying the image on the display unit.
  • the controller may receive an image of a direction in which the object is located among the cameras when there is the object approaching any one of the front surface or the rear surface of the object within a predetermined distance as a result of the sensing unit. Switching the camera to the shooting standby mode, and when the predetermined situation occurs, characterized in that for storing the image received from the camera switched to the shooting standby mode.
  • the monitoring device characterized in that any one of a smart phone (personal digital assistant), PDA (personal digital assistants), portable multimedia player (PMP), navigation, tablet PC (tablet PC).
  • a smart phone personal digital assistant
  • PDA personal digital assistants
  • PMP portable multimedia player
  • navigation tablet PC (tablet PC).
  • the control method of the sound information recording apparatus is mounted on the front or rear of the object to detect the surrounding situation of the object and the object
  • a method of controlling a monitoring device comprising: detecting whether there is an object approaching at least one of the front side and the rear side of the object within a predetermined distance, and according to the detection result, the front or rear direction of the object Switching at least one of the at least two cameras for receiving an image of the camera to a recording standby mode, and determining whether a predetermined situation has occurred based on a result of detecting the object and the situation around the object. And the at least one camera based on the determination result.
  • the preset situation includes noise of a predetermined level or more.
  • a situation in which a shock or vibration occurs at a predetermined level or more detected from the object or a situation in which the object is detected for a predetermined time or more within a predetermined distance from the object is performed.
  • the present invention enables the user to perform the function of the monitoring device using a mobile terminal, such as a smart phone not used by the user, so that the user does not need to purchase a separate monitoring device It has the advantage of being able to provide high performance monitoring service at low cost.
  • the present invention has an advantage of providing a user with a monitoring service using various functions of the mobile terminal by using a mobile terminal such as a smart phone.
  • FIG. 1A is a block diagram illustrating a monitoring device associated with the present invention.
  • FIGS. 1B and 1C are conceptual views of one example of a monitoring device related to the present invention, viewed from different directions.
  • FIGS. 2A and 2B are conceptual views illustrating an example in which a monitoring device related to the present invention is mounted on a specific object.
  • FIG. 3 is a conceptual diagram illustrating an example in which the monitoring device according to the present invention operates based on a result of sensing a situation around an object.
  • FIG. 4 is a flowchart illustrating the operational flow of the monitoring device according to the present invention.
  • FIG. 5 is a flowchart illustrating an operation process of performing a function corresponding to a current situation among the operation processes of FIG. 4 in more detail.
  • FIG. 6 is an exemplary diagram illustrating an example in which a monitoring device according to the present invention performs a function according to a result of sensing a situation around an object.
  • FIG. 7 is an exemplary diagram illustrating another example in which the monitoring device according to the present invention performs a function according to a result of sensing a situation around an object.
  • FIG. 8 is an exemplary view illustrating an example in which a monitoring device related to the present invention provides a user with information collected from itself and other monitoring devices in the vicinity.
  • the present invention is not limited thereto, and of course, various devices such as personal digital assistants (PDAs), portable multimedia players (PMPs), navigation devices, and tablet PCs may be used.
  • PDAs personal digital assistants
  • PMPs portable multimedia players
  • navigation devices and tablet PCs
  • tablet PCs tablet PCs
  • the present invention can be applied to any number of cases even when using the existing monitoring device Of course.
  • FIG. 1A is a block diagram illustrating a monitoring device 100 related to the present invention
  • FIGS. 1B and 1C illustrate examples of the monitoring device 100 related to the present invention in different directions. This is a conceptual view as seen from.
  • the monitoring device 100 may include a wireless communication unit 110, an input unit 120, a detection unit 140, an output unit 150, a memory 170, a controller 180, a power supply unit 190, and the like. have.
  • the components shown in FIG. 1A are not essential, so the monitoring device 100 according to an embodiment of the present invention may have more or fewer components than those listed above.
  • the wireless communication unit 110 of the components, between the monitoring device 100 and the wireless communication system, between the monitoring device 100 and another monitoring device 100, or the monitoring device 100 and the external server It may include one or more modules that enable wireless communication therebetween.
  • the wireless communication unit 110 may include one or more modules for connecting the monitoring device 100 to one or more networks.
  • the wireless communication unit 110 may include at least one of the mobile communication module 112, the wireless internet module 113, and the short range communication module 114.
  • the mobile communication module 112 may include technical standards or communication schemes for mobile communication (eg, Global System for Mobile communication (GSM), Code Division Multi Access (CDMA), Wideband CDMA (WCDMA), and HSDPA (High).
  • GSM Global System for Mobile communication
  • CDMA Code Division Multi Access
  • WCDMA Wideband CDMA
  • HSDPA High
  • a wireless signal is transmitted and received with at least one of a base station, an external terminal, and a server on a mobile communication network constructed according to Speed Downlink Packet Access), LTE, Long Term Evolution (LTE), LTE-A (Long Term Evolution-Advanced).
  • the wireless signal may include various types of data according to transmission and reception of a voice call signal, a video call call signal, or a text / multimedia message.
  • the wireless internet module 113 refers to a module for wireless internet access and may be embedded or external to the monitoring device 100.
  • the wireless internet module 113 is, for example, in a communication network according to wireless internet technologies such as wireless LAN (WLAN), wireless-fidelity (Wi-Fi), wireless fidelity (Wi-Fi) Direct, wireless broadband (WiBro), and the like. And to transmit and receive wireless signals.
  • WLAN wireless LAN
  • Wi-Fi wireless-fidelity
  • Wi-Fi wireless fidelity
  • Wi-Fi wireless fidelity
  • WiBro wireless broadband
  • the short range communication module 114 is for short range communication, and includes Bluetooth TM, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), and Wi-Fi. At least one of such technologies may be used to support near field communication.
  • the short range communication module 114 may support wireless communication between the monitoring device 100 and the wireless communication system, between the monitoring device 100 and another monitoring device 100, and the like.
  • the input unit 120 may include an image input unit such as a camera 121 for inputting an image signal, a microphone 122 for inputting an audio signal, or an audio input unit, and a user input unit 123 for receiving information from a user.
  • an image input unit such as a camera 121 for inputting an image signal
  • a microphone 122 for inputting an audio signal
  • an audio input unit for example, a user input unit 123 for receiving information from a user.
  • a touch key, a mechanical key, and the like may be included.
  • the acoustic data or the image data collected by the input unit 120 may be analyzed and used for services related to various monitoring functions.
  • a plurality of cameras 121 may be provided, and the plurality of cameras may be provided to photograph different surfaces (eg, front and rear) of the object on which the monitoring device 100 is mounted.
  • the camera 121 processes an image frame such as a still image or a video obtained by an image sensor in a video call mode or a photographing mode.
  • the processed image frame may be displayed on the display unit 151 or stored in the memory 170.
  • the camera 121 may be arranged in a form including a plurality of lenses to form a matrix structure, respectively, through the matrix structure, the monitoring device 100 has a plurality of image information having a variety of angles or focus Can be entered.
  • the camera 121 may be arranged in a stereo structure, respectively, so as to obtain a left image and a right image for implementing a stereoscopic image.
  • the microphone 122 processes external sound signals into electrical voice data.
  • the processed voice data may be variously used according to a monitoring service provided by the monitoring device 100.
  • the sensing unit 140 may include an object on which the monitoring device 100 is mounted and / or one or more sensors for sensing a situation around the object.
  • the sensing unit 140 may include a proximity sensor 141, an illumination sensor 142, an illumination sensor, a touch sensor, an acceleration sensor, a magnetic sensor, and an RGB sensor.
  • Sensors infrared sensors (IR sensors), ultrasonic sensors, optical sensors (e.g. cameras 121), microphones (see 122), battery gauges
  • an environmental sensor eg, barometer, hygrometer, thermometer, radiation detection sensor, heat detection sensor, gas detection sensor, etc.
  • the monitoring device 100 disclosed herein may combine information sensed by at least two or more of these sensors to use for various monitoring services.
  • the controller 180 may detect an object or person (hereinafter, referred to as an “object”) approaching within a predetermined distance of the object on which the monitoring device 100 is mounted. For example, the controller 180 may detect this according to a change in illuminance generated when the object approaches, or may detect the presence or absence of an object approaching by using an ultrasonic or infrared sensor. Alternatively, the approach of the object may be detected according to a comparison result of images received at a predetermined time period through the camera 121.
  • the controller 180 may detect a situation occurring for the object. For example, the controller 180 may detect when a noise of a predetermined level or more (for example, a doorbell sound or a knocking sound such as knocking) occurs based on the noise generated around the object or the object. Can be. Alternatively, the controller 180 may sense vibrations or shocks generated in the object by using an acceleration sensor or a touch sensor provided in the main body of the monitoring device 100.
  • a noise of a predetermined level or more for example, a doorbell sound or a knocking sound such as knocking
  • the output unit 150 may include at least one of the display unit 151 and the sound output unit 152.
  • the display unit 151 may display various images received through the camera 121 and information related to various peripheral devices connectable to the monitoring device 100.
  • the display unit 151 may display an image received from a camera installed to face a specific surface (for example, a rear surface) of the object, and may operate an indoor electronic device such as a microwave oven or a TV. Information such as may be displayed.
  • an image received from the other monitoring device may be displayed on the display unit 151.
  • the sound output unit 152 may output various audio data received from the wireless communication unit 110 or stored in the memory 170.
  • the sound output unit 152 according to an embodiment of the present invention is provided according to the user's selection, or in accordance with the control signal transmitted from the user's mobile terminal, such as the living noise or the voice of the pre-recorded people Various audio data related to the service can be output.
  • the memory 170 stores data supporting various functions of the monitoring device 100.
  • the memory 170 may store a plurality of application programs or applications that are driven by the monitoring device 100, data for operating the monitoring device 100, and instructions. At least some of these applications may be downloaded from an external server via wireless communication. In addition, at least some of these application programs may exist on the monitoring device 100 from the time of shipment for basic functions (eg, an image capturing function, a recording function, etc.) of the monitoring device 100. Meanwhile, the application program may be stored in the memory 170 and installed on the monitoring device 100 to be driven by the controller 180 to perform an operation (or function) of the mobile terminal.
  • the controller 180 In addition to the operation related to the application program, the controller 180 typically controls the overall operation of the monitoring device 100.
  • the controller 180 provides or processes appropriate information or functions for providing a monitoring service by processing signals, data, information, and the like input or output through the above-described components or by running an application program stored in the memory 170. can do.
  • controller 180 may control at least some of the components described with reference to FIG. 1A in order to drive an application program stored in the memory 170. In addition, the controller 180 may operate at least two or more of the components included in the monitoring device 100 in combination with each other to drive the application program.
  • the power supply unit 190 receives power from an external power source and an internal power source under the control of the controller 180 to supply power to each component included in the monitoring device 100.
  • the power supply unit 190 includes a battery, which may be a built-in battery or a replaceable battery.
  • various embodiments of the present disclosure may be implemented in a recording medium readable by a computer or a similar device using, for example, software, hardware, or a combination thereof.
  • FIGS. 1B and 1C a monitoring device or a structure in which the monitoring device or the components of the monitoring device are arranged according to an exemplary embodiment of the present invention described with reference to FIG. 1A will be described with reference to FIGS. 1B and 1C.
  • the disclosed monitoring device 100 includes a casing (eg, a frame, a housing, a cover, etc.) that forms an appearance. As shown, the monitoring device 100 may include a front case 101 and a rear case 102. In addition, the monitoring device 100 includes a display unit 151, first and second sound output units 152a and 152b, a proximity sensor 141, an illuminance sensor 142, a light output unit 154, and a first and second units. The second camera 121a and 121b, the first and second manipulation units 123a and 123b, the microphone 122, and the interface unit 160 may be provided.
  • a casing eg, a frame, a housing, a cover, etc.
  • the monitoring device 100 may include a front case 101 and a rear case 102.
  • the monitoring device 100 includes a display unit 151, first and second sound output units 152a and 152b, a proximity sensor 141, an illuminance sensor 142, a light output unit 154, and
  • the display unit 151 may be disposed in front of the body of the monitoring device 100 to output information.
  • the window 151a of the display unit 151 may be mounted to the front case 101 to form a front surface of the body of the monitoring device 100 together with the front case 101.
  • the first sound output unit 152a, the first camera 121a, and the like may be disposed in front of the monitoring device 100.
  • the second camera 121b may be disposed on the back of the body of the monitoring device 100.
  • the second camera 121b has a photographing direction substantially opposite to that of the first camera 121a.
  • the flash 124 may be disposed adjacent to the second camera 121b. When the flash 124 photographs the subject with the second camera 121b, the flash 124 emits light toward the subject based on the ambient illumination.
  • the second sound output unit 152b may be disposed on the rear surface of the monitoring device 100.
  • the second sound output unit 152b may implement a stereo function together with the first sound output unit 152a.
  • At least one of the first camera 121a and the second camera 121b may include a plurality of lenses arranged along at least one line.
  • the plurality of lenses may be arranged in a matrix format.
  • Such a camera may be referred to as an 'array camera'.
  • an image may be photographed by using a plurality of lenses in various ways, and an image of better quality may be obtained.
  • FIGS. 2A and 2B are conceptual views illustrating an example in which the monitoring device related to the present invention is mounted on a specific object.
  • FIGS. 2A and 2B illustrate an example in which an object on which the monitoring device 100 is mounted is a door, according to an embodiment of the present invention.
  • the object on which the monitoring device 100 is mounted is a 'door' as shown in FIGS. 2A and 2B.
  • the present invention is not limited thereto. That is, the object on which the monitoring device 100 is mounted according to an embodiment of the present invention may be not only a 'door' but also a structure such as a wall, as well as various objects, and the monitoring device 100 according to an embodiment of the present invention.
  • FIG. 2A illustrates a rear surface of an object 200 on which the monitoring device 100 is mounted
  • FIG. 2B illustrates monitoring according to an embodiment of the present invention.
  • the front surface of the object 200 on which the device 100 is mounted is shown.
  • the front surface of the object may mean indoor, and the rear surface of the object may mean outdoor.
  • the monitoring device 100 may include a second sound output unit 152b and a second camera ( 121b)
  • the monitoring device 100 according to the embodiment of the present invention may be mounted on the object 200 so that the flash 124 may be exposed to the rear surface of the object 200 through the groove 210.
  • the second camera 121b provided on the rear surface of the monitoring device 100 according to an embodiment of the present invention may receive an image of the rear surface of the object 200 and, if necessary, emit the flash 124 to emit the object. It may also be to shine the light on the rear (200).
  • pre-stored audio data or voice data received from the mobile terminal of the user may be output through the second sound output unit 152b.
  • the monitoring device 100 may be mounted in a form in which the display unit 151 is exposed on the front surface of the object 200.
  • an image of the rear surface of the object 200 received through the second camera 121b may be output to the display unit 151. Accordingly, a person located in front of the object 200, that is, indoors, may check the rear of the object, that is, the outdoor situation, through the display unit 151.
  • the monitoring device 100 may receive an image in the front direction of the object 200 received through the first camera 121a provided at the front side.
  • the monitoring device 100 may store images received through the first camera 121a or the second camera 121b in the memory 170, or may be pushed to another preset device. push) may be sent in the form of a video call via notification or call origination.
  • another preset device may be a user's mobile terminal. In this case, the user may connect the push notification or the call received from the monitoring device 100 to connect the first camera 121a and / or the first device. 2 may receive an image received from the camera (121b).
  • the monitoring device 100 may detect various information related to the object in addition to the images received through the first camera 121a and the second camera 121b.
  • the controller 180 of the monitoring device 100 uses the sensors of the sensing unit 140 to approach the front and / or rear surface of the object 200 by a predetermined distance or more. It can detect whether or not there is.
  • the controller 180 may detect noise, shock or vibration generated around the object 200 based on the detection result of the sensors.
  • the controller 180 pushes the at least one of information on sensing the object and / or the situation around the object and images received from the first camera 121a and / or the second camera 121b. ) May be transmitted to the user's mobile terminal in the form of a video call or a message through notification or call origination.
  • the controller 180 may perform a specific operation according to the control signal transmitted from the mobile terminal 300.
  • the controller 180 may output audio data transmitted through the mobile terminal 300 through the second sound output unit 152b, or to control signals transmitted from the mobile terminal 300. It is also possible to perform a specific operation according to.
  • the controller 180 of the monitoring device 100 when there is a person approaching the object 200, the controller 180 of the monitoring device 100 according to an embodiment of the present invention This approach can be detected.
  • the controller 180 may perform a specific operation based on a result of detecting a situation around the object 200.
  • the controller 180 when a person approaching the object 200 presses the doorbell 302, the controller 180 generates the doorbell 302 from the doorbell 302. This situation can be detected from noise. In this case, the controller 180 can transmit the information on the detected situation to the mobile terminal 300 of the user through the wireless communication network 310a. In this case, the information transmitted to the mobile terminal 300 may include an image of the rear surface of the object 200 received through the second camera 121b and information related to a situation in which the doorbell 302 is pressed.
  • a screen related to the received information may be displayed on the mobile terminal 300 of the user. That is, as shown in (b) of FIG. 3, an image received from the second camera 121b may be displayed on the display unit of the mobile terminal 300. In addition, information on the situation in which the doorbell 302 is pressed may be displayed on the display unit of the mobile terminal 300 in the form of a message.
  • the user can then input voice data as shown in FIG.
  • the voice of the user received through the microphone of the mobile terminal 300 may be received through any one of the modules of the wireless communication unit 110 according to the embodiment of the present invention via the wireless communication network 310b.
  • the controller 180 may output the received voice data of the user through the second sound output unit 152b.
  • the controller 180 may detect an object located within a preset distance from the object 200, and check the time that the object stays in a state of approaching the object 200 within a preset distance. You may.
  • the controller 180 may sense a knock or an impact applied to the object 200 as well as a sound of pressing the doorbell 302.
  • the controller 180 may detect vibration of a preset level or more applied to the object 200 for a predetermined time or more.
  • the controller 180 can transmit information about the sensing situation to the user's mobile terminal 300.
  • information about the detected situation may be stored in the memory 170 of the mobile terminal 300 and the monitoring device 100 of the user, and various one or more functions related thereto may be performed according to the user's selection. have.
  • the controller 180 may store pre-stored audio data, for example, audio data related to living noise such as noise driving a home appliance such as a cleaner or noise such as a voice of a child or an adult under the control of a user. You can output at least one.
  • the controller 180 may transmit information related to the currently stored situation to the security office or the police station.
  • FIG. 4 shows an operational flow of a monitoring device related to the present invention.
  • the controller 180 of the monitoring device 100 senses an ambient situation using sensors of the sensing unit 140.
  • the sensors of the sensing unit 140 and the sensing unit 140 may detect the environment around the monitoring device 100, that is, the object 200 on which the monitoring device 100 is mounted and the situation around the object. (S400).
  • an ultrasonic sensor, an infrared sensor, a thermal sensor, or an optical sensor among the sensors may detect an object approaching the front or the rear of the object 200, and the sensor of the sensing unit 140.
  • sensors such as an acceleration sensor, a vibration sensor, or an inertial sensor may detect shock or vibration transmitted to the monitoring device 100 through the object 200.
  • the microphone 122 may detect noise generated in the vicinity of the monitoring device 100, that is, the object 200 or the object.
  • the controller 180 may detect whether there is an object approaching the object 200 within a preset distance (S402).
  • the operation mode of the monitoring device 100 may be switched according to the detection result of step S402. That is, when there is an object approaching the object 200 within a preset distance based on the detection result of step S402, the controller 180 includes cameras 121a and 121b provided in the monitoring device 100. At least one of the operation state may be switched to the shooting standby mode (S404).
  • the controller 180 may change an operation mode of a camera corresponding to a direction in which the object is detected, based on the object 200. That is, for example, when the object is detected in the direction toward the front of the object 200, the first camera 121a provided on the front of the monitoring device 100, the direction toward the rear of the object 200 When the object is detected at, the operation mode of the second camera 121b provided on the rear surface of the monitoring device 100 may be switched to the shooting standby mode.
  • the photographing standby mode may be an operation mode for receiving an image through an image sensor of a camera and displaying the image on the display unit 151.
  • this state that is, the object that is out of the preset distance from the front or rear of the object 200 is detected, and accordingly receives an image of the direction in which the object is detected from any one camera (121a or 121b)
  • the controller 180 may determine whether a preset situation occurs in the object 200.
  • the preset situation may be various.
  • the preset situation may be a situation in which the object generates noise of a predetermined level or more. That is, when the object presses the doorbell or generates a noise to call a person, the controller 180 may determine that a predetermined situation occurs by sensing the noise.
  • the preset situation may be sensed according to various sensing results sensed through the object 200.
  • the controller 180 detects when the object impacts an object (for example, knocking) or when the vibration is detected from the object 200 for a predetermined level or more or for a predetermined time or more. Based on this, it can be determined that a specific situation has occurred.
  • the controller 180 may determine that a preset situation occurs through the case where the time when the object is detected within the preset distance from the object 200 is greater than or equal to a preset time.
  • the controller 180 may determine whether the predetermined situation has occurred for a preset time or more (S410). In this case, the controller 180 may determine whether a predetermined time has elapsed while the preset situation does not occur while the object approaches the object 200 within a preset distance. In addition, if a predetermined time has not elapsed as a result of the determination in step S410, the controller 180 may proceed to step S406 again and determine whether a preset situation occurs.
  • step S410 if a predetermined time has elapsed, the controller 180 may proceed to step S400 again to detect a situation around the object 200 and the object 200.
  • the process from step S404 to step S406 may be repeated according to the detection result of step S402.
  • the controller 180 may determine at least one of an image received from at least one of the cameras 121a and 121b or a detection result of the sensing unit 140. Using one, it may perform a function corresponding to the current situation (S410). For example, the controller 180 may transmit the monitoring information including the image received from the at least one camera and / or the sensing result of the sensing unit 140 to the mobile terminal 300 of the preset user. For example, the controller 180 may transmit the monitoring information in the form of a push notification or transmit the monitoring information in the form of sending a call to the user's mobile terminal 300.
  • the monitoring information may be provided to the user in the form of a video call.
  • the monitoring information may be stored in the monitoring device 100 and / or the mobile terminal 300.
  • the controller 180 may perform various functions according to the control signal transmitted from the mobile terminal 300 of the user in step S410.
  • the controller 180 may output voice data transmitted from the mobile terminal 300 through the first sound output unit 152a or the second sound output unit 152b.
  • the controller 180 may perform a specific function according to the control signal transmitted from the mobile terminal 300.
  • the controller 180 may output pre-stored audio data according to the control signal. That is, according to the control signal, the pre-stored audio data related to various living noises may be output through the sound output unit 152, or a siren sound or an emergency alarm bell may be output. Alternatively, a function of reporting a current situation to a predetermined contact, that is, a police station or a security office may be performed.
  • the controller 180 may detect at least some of a plurality of preset audio data (for example, audio data related to living noise) when an object approaching the object 200 within a preset distance is detected for a predetermined time or more. Can be output sequentially or randomly or a plurality of audio data simultaneously. In this case, when the audio data is an idle sound, an adult sound, or a cleaning noise, at least two of the audio data may be simultaneously output based on a detection result around the object 200.
  • a plurality of preset audio data for example, audio data related to living noise
  • the controller 180 may include the images received from both the cameras 121a and 121b in the monitoring information. For example, when the object is detected on both the front and the rear of the object 200, the controller 180 provides the monitoring information including the images received from both the cameras 121a and 121b to the mobile terminal 300. Can also be sent to. In this case, the user may separately identify the images received from both the cameras 121a and 121b from the monitoring information.
  • the controller 180 may perform different functions according to the location of the mobile terminal 300 of the user in step S410. For example, the controller 180 may not transmit the monitoring information to the mobile terminal 300 when the user's mobile terminal 300 is within a predetermined distance from the monitoring device 100. This is because if the user is near the object 200, the situation around the object 200 and the object 200 can be known without going through the monitoring information.
  • the control unit 180 of the monitoring device 100 may perform another function in step S410.
  • the controller 180 detects that the user is located near the object 200 from the position of the mobile terminal 300 or from the first camera 121a provided on the front of the monitoring device 100.
  • the controller 180 may determine that the user intends to go out and provide various functions related thereto.
  • the controller 180 may display, on the display unit 151, information related to a state of various home appliances that can be connected to the monitoring device 100.
  • the controller 180 may display on the display unit 151 whether a variety of home appliances such as a TV, a cleaner, a fluorescent lamp, and a microwave oven are currently operating.
  • the controller 180 may control the operation state of the displayed home appliances based on a user's input (for example, a touch input to the display unit 151) for information related to the operation state of the home appliance. have. That is, the user checks the state of various home appliances in the home through the display unit 151 of the monitoring device 100 according to an embodiment of the present invention before going out, and the home appliance in a state of being 'on' at present. It is also possible to switch the operating state of the 'off (off)' state.
  • step S410 the controller 180 may proceed to step S400 again to detect the object 200 and the situation around the object 200 again.
  • the process from step S404 to step S410 may be repeated according to the detection result of step S402.
  • FIG. 5 illustrates a process of performing an operation according to a control signal transmitted from the mobile terminal 300 of the user during the operation performed in step S410 among the operation processes of FIG. 4.
  • step S406 when a predetermined situation occurs in step S406, that is, the object is detected for a predetermined time or more within a predetermined distance from the object 200, or a noise or vibration or a predetermined level or more. If a shock is detected, the controller 180 can detect it.
  • the controller 180 may perform a communication connection to the user's mobile terminal 300 and transmit monitoring information on the currently detected situation in the form of call origination or push notification to the user's mobile terminal 300.
  • the monitoring information includes an image received from one of the first camera 121a and the second camera 121b and sensing information about the detected situation, for example, whether shock, vibration, or noise are generated and the It may include information on the time of occurrence of the shock, vibration or noise.
  • the user's mobile terminal 300 may provide the user with information on the detected situation as well as the image included in the monitoring information.
  • the information on the detected situation may be provided to the user in the form of text, but may be transmitted to the user in various forms.
  • the monitoring information may include audio information recording the generated noise, and the mobile terminal 300 of the user may output the recorded information at the request of the user.
  • the mobile terminal 300 may drive a haptic module or vibration according to the monitoring information to generate a haptic response or vibration corresponding to the vibration or shock included in the monitoring information.
  • step S500 when the monitoring information is provided to the user's mobile terminal 300, the controller 180 may detect whether there is a control signal transmitted from the user's mobile terminal 300 (S502). For example, the controller 180 may determine whether a control signal is received in response to the transmitted monitoring information within a preset time after transmitting the monitoring information, and may determine a specific function according to whether the control signal is received. Can be done.
  • the controller 180 may perform a function according to the control signal (S504).
  • the control signal may include audio data stored in the memory 170 or audio data stored in a predetermined external server (for example, a cloud server) of the first sound output unit 152a or the second sound output unit 152b. It may be to output through at least one. In this case, the control signal may be for designating at least one of audio data stored in the memory 170 or the external server.
  • the controller 180 can output at least one audio data designated by the control signal. If the control signal is for designating a plurality of audio data, the controller 180 may output a plurality of audio data at the same time. The controller 180 may output the plurality of audio data in a stereo manner using the first sound output unit 152a and the second sound output unit 152b. Accordingly, in the monitoring device 100 according to an exemplary embodiment of the present disclosure, various sound signals based on a combination of the plurality of audio data may be output through the sound output unit 152 according to a user's selection.
  • the controller 180 is based on the situation determined from the result of detecting the current object 200 and the periphery of the object 200. You can perform the set function. For example, if the controller 180 detects a doorbell sound or knock knocking on the object 200 as a result of sensing the object 200 and the surroundings of the object 200, the audio data recorded by the user may be output. Can be. For example, the user may record a comment such as “Who are you?” Or “Speak the word”, and the sound around the object 200 is recorded through the microphone 122 provided in the monitoring device 100. You may.
  • the controller 180 may automatically perform a function corresponding thereto. For example, the controller 180 may reproduce at least one audio data among preset audio data. In this case, the controller 180 may randomly select at least some of the preset audio data, and may simultaneously output the selected at least one audio data. Alternatively, the controller 180 may output the at least one audio data in a stereo manner using the first sound output unit 152a and the second sound output unit 152b.
  • the controller 180 may perform a function of notifying a police station or a guard room of a current situation, that is, a reporting function, based on a result of sensing the object 200 and the periphery of the object 200. For example, the controller 180 may determine that someone is forcibly invading when vibration or noise of a predetermined level or more, or an impact of a predetermined level or more is applied to the object 200. In this case, the controller 180 notifies the fact that somebody is currently forcibly invading the police station and the guard room, the current location information (for example, the apartment room number), and the first camera 121a and / or the second camera ( The image received at 121b) and information including the detection result may be transmitted to the police station and the guard room. In addition, the controller 180 may output a warning sound such as a siren sound or an alarm at a volume of a predetermined level or more.
  • a warning sound such as a siren sound or an alarm at a volume of a predetermined level or more.
  • FIG. 6 is an exemplary view illustrating an example in which the monitoring device according to the present invention performs a function according to a result of detecting a situation around the object 200.
  • the controller 180 waits for photographing an operation state of the second camera 121b. You can switch to the state.
  • the second camera 121b may receive an image from an image sensor, and when the control is performed by the controller 180, the second camera 121b may store the received image in the memory 170 or a preset external server (for example, a cloud server). Can be stored in
  • the controller 180 may determine that a preset situation occurs. In this case, the controller 180 may store the received image by controlling the second camera 121b and transmit monitoring information including the stored image to the user's mobile terminal 300.
  • 6B illustrates an example in which an image 610 of the object 600 included in the monitoring information is transmitted to the user's mobile terminal 300.
  • the mobile terminal 300 of the user displays a menu screen 620 displaying various functions that can be performed by the monitoring device 100 according to an embodiment of the present invention, as shown in FIG. 6C. It can be displayed on the float.
  • the functions may be a function 622 of reporting to a security or police station.
  • the functions may be a function 624 for outputting various audio data such as children, people, vacuum cleaner noise, TV noise, and the like.
  • the controller of the mobile terminal 300 may receive at least one function selected by the user. For example, if the user selects “vacuum noise” as shown in FIG. 6C, the controller of the mobile terminal 300 may provide a control signal for outputting audio data selected from the user. May transmit to the monitoring device 100. In this case, the controller 180 of the monitoring device 100 may output the specific audio data, that is, the “cleaner noise 650” through the sound output unit 152 according to the control signal received from the mobile terminal 300. Can be. In this case, the “cleaner noise” may be alternately output through the first sound output unit 152a and the second sound output unit 152b to generate a stereo effect. You can make it appear to be. 6 (d) shows such an example.
  • the monitoring device 100 may receive an image received from both the first camera 121a and the second camera 121b and both the front and rear surfaces of the object 200.
  • the detection result detected at may be transmitted to the mobile terminal 300 of the user as monitoring information.
  • the user may distinguish and confirm the detection result and the images received from the first camera 121a and the second camera 121b, respectively, and may perform the function according to the monitoring device 100.
  • the monitoring device 100 may detect both the front and rear surroundings of the object 200. Accordingly, as shown in FIG. 7A, when there are the objects 700 and 702 approaching the front and rear surfaces of the object 200 within a predetermined distance, the controller 180 controls the first camera ( Both the 121a) and the second camera 121b may be switched to the shooting standby mode.
  • the controller 180 generates a preset situation (for example, a situation in which vibration, noise, or shock is detected, or a situation in which the objects stay around the object 200 for more than a preset time) occurs in the object 200. In this case, a situation detected by the object 200 and an image received by the first camera 121a and the second camera 121b may be captured.
  • the first camera 121a that receives the image in the front direction of the object 200 may capture the image of the first object 700 and the second image which receives the image in the rear direction of the object 200.
  • the camera 121b may take an image of the second object 702.
  • the images captured by the first camera 121a and the second camera 121b may be transmitted to the user's mobile terminal 300.
  • images captured by the first camera 121a and the second camera 121b may be output to the user's mobile terminal 300 and may be output to the monitoring device.
  • the sound information detected by 100 may be output together.
  • the user may allow the user's voice to be output on the front or the rear of the object through his mobile terminal 300 and the monitoring device 100.
  • the user may do so when his or her child goes out according to the detection result of the monitoring device 100. You can check it.
  • the child that is, the child (first object: 700) may obtain permission from the parent, that is, the user, about his / her outing through the monitoring device 100, and obtain the user's permission through the monitoring device 100. have.
  • first object: 700 the user and his / her child (first object: 700) are connected to each other through the second camera 121b of the monitoring device 100 that receives the time when the child goes out and the rearward direction image of the object 200.
  • Information about another person (second object: 702) who has gone out together may be checked and stored.
  • the monitoring device 100 if there are other devices that can be connected to the peripheral, it can be provided that the monitoring information further includes information collected from the other device I've done it.
  • FIG. 8 shows an example in which the monitoring device related to the present invention provides the user with monitoring information further comprising information collected from himself and other surrounding monitoring devices.
  • the controller 180 of the monitoring device 100 may be configured to detect the object 200 and the periphery of the object 200 based on a result of sensing the at least one object. It can collect signals that are detected from other monitoring devices. In addition, the monitoring information including the collected information may be transmitted to the mobile terminal 300 of the user.
  • the controller 180 may collect information detected by the other monitoring device. That is, as shown in (a) of FIG. 8, in a state where the object 800 is detected around the object 200, a predetermined situation, for example, a situation where vibration, noise, or shock is detected or the object ( When a situation in which the object 800 stays around the object 200 for more than a predetermined time occurs, the controller 180 may receive a second camera that receives an image in a direction in which the object 900 is detected, that is, in a rear direction of the object. The image of the object 800 may be stored using 121b).
  • the controller 180 may collect information received from other monitoring devices around the monitoring device 100, that is, the CCTV 810 and the doorbell 820. In this case, the controller 180 may generate monitoring information further including information collected from the other monitoring devices 810 and 920, and the generated monitoring information may be transferred to the user's mobile terminal 300. have.
  • an image of photographing the object 800 from various angles may be provided to the user's mobile terminal 300 as shown in FIG.
  • the control unit of the mobile terminal 300 according to the user's selection, the image 852 taken by the second camera 121b and the images 854, taken from the other monitoring devices 810, 920, 856) may be displayed separately.
  • images captured by the second camera 121b and other monitoring devices 810 and 820 may be provided to a police station or a security office according to a user's selection.
  • the monitoring information provided to the user's mobile terminal 300 includes information collected from other monitoring devices located behind the object 200, the object 200 is different. Of course, if there are other monitoring devices located in the front, it may further include information collected from these devices. In this case, the mobile terminal 300 receiving the monitoring information is photographed from the monitoring devices that detect the front of the object, that is, the indoor situation, and the monitoring devices that detect the rear of the object, that is, the outdoor situation. The images may be classified and displayed on the display unit.
  • the monitoring device 100 according to an embodiment of the present invention has been described as an example mounted on the front of the object 200, but this is only an embodiment of the present invention, the present invention is not limited thereto. no. That is, the monitoring device 100 may be mounted on the rear surface of the object 200, unlike in FIGS. 2A and 2B, and in this case, the display unit 151 of the monitoring device 100 may be identified.
  • the portion to be mounted may be a rear surface of the object 200 instead of the front surface thereof.
  • the present invention described above can be embodied as computer readable codes on a medium in which a program is recorded.
  • the computer-readable medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable media include hard disk drives (HDDs), solid state disks (SSDs), silicon disk drives (SDDs), ROMs, RAMs, CD-ROMs, magnetic tapes, floppy disks, optical data storage devices, and the like. This also includes implementations in the form of carrier waves (eg, transmission over the Internet).
  • the computer may include the controller 180 of the terminal. Accordingly, the above detailed description should not be construed as limiting in all aspects and should be considered as illustrative. The scope of the invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the invention are included in the scope of the invention.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Alarm Systems (AREA)
  • Emergency Alarm Devices (AREA)

Abstract

본 발명은 모니터링 장치 및 그 장치의 제어 방법에 관한 것으로, 전면과 후면을 구비하는 오브젝트의 어느 한 면에 장착되는 디바이스 본체와, 상기 디바이스에 구비되며, 상기 오브젝트의 전면이 향하는 방향 및, 상기 오브젝트의 후면이 향하는 방향의 영상을 수신하는 적어도 두 개의 카메라와, 상기 오브젝트 및 상기 오브젝트 주변의 상황을 감지하는 감지부, 및, 상기 오브젝트에 일정 거리 이내로 접근한 대상체가 있는 경우 상기 카메라들 중 적어도 하나를 촬영 대기 모드로 구동하고, 상기 감지부의 감지 결과 기 설정된 상황이 발생하면 상기 적어도 하나의 카메라를 촬영 활성화 모드로 전환 및, 상기 적어도 하나의 카메라에서 수신되는 영상과 상기 감지부의 감지 결과 중 적어도 하나를 이용하여 현재 발생된 상황에 대응되는 기능을 수행하는 제어부를 포함하는 것을 특징으로 한다.

Description

모니터링 장치 및 그 장치의 제어 방법
본 발명은 모니터링 장치 및 그 장치의 제어 방법에 관한 것이다.
현재 나날이 증가하는 범죄 및 사고 등으로 인해, 감시 카메라와 같은 모니터링 디바이스들은 그 필요성과 중요성이 나날이 늘어가고 있다. 이는 절도 등과 같은 범법 행위 또는 교통 사고등의 사고 발생시, 상기 모니터링 디바이스들이 수집한 정보들 중 상기 범법 행위나 사고등과 관련된 중요한 증거 자료가 포함되어 있을 수 있기 때문이다. 이에 따라 실제로 상기 모니터링 디바이스는 강력한 범범 행위 제재 효과 또는 교통 사고와 같은 사고의 발생율을 저하시키는 효과를 가져올 수 있다.
이에 따라 모니터링 디바이스들의 수요는 나날이 증가하고 있는 추세이다. 그러나 모니터링 디바이스들은 제공할 수 있는 기능에 따라 크게 그 성능이 다를 수 있다. 예를 들어 단순한 감시 카메라와 같은 모니터링 디바이스가 고정된 영역에 저화질의 영상을 촬영하는 기능만을 제공할 수 있는 것과 달리, 고성능의 모니터링 디바이스는 특정 구역이나 접근하는 물체를 자동으로 감지하고, 그 접근하는 물체에 초점을 맞춘 고화질의 영상을 촬영할 수 있을 뿐만 아니라, 이상 상황이 발생하는 경우 사용자에게 그 상황의 발생을 전달할 수 있는 기능들을 구비할 수도 있다.
한편 이러한 모니터링 디바이스는 제공하는 성능에 따라 가격이 크게 다르다. 그리고 고성능의 모니터링 디바이스일수록 매우 높은 구매 비용을 필요로 한다. 이에 따라 보다 저렴한 비용으로, 보다 고성능의 모니터링 성능을 제공하는 모니터링 디바이스를 제공하고자 하는 연구가 진행중인 실정이다.
본 발명의 일 목적은, 보다 저렴한 비용으로 사용자에게 다양한 모니터링 기능을 제공할 수 있는 모니터링 디바이스 및 그 제어 방법을 제공하는 것이다.
본 발명의 다른 목적은, 별도의 모니터링 디바이스를 사용자가 구매하지 않고서도, 사용자에게 고성능의 모니터링 기능을 제공할 수 있도록 하는 것으로, 별도의 스마트 폰과 같은 이동 단말기를 이용한 모니터링 디바이스 및 그 제어 방법을 제공하는 것이다.
상기 또는 다른 목적을 달성하기 위해 본 발명의 일 측면에 따르면, 본 발명의 실시 예에 따른 모니터링 디바이스는, 전면과 후면을 구비하는 오브젝트의 어느 한 면에 장착되는 디바이스 본체와, 상기 디바이스에 구비되며, 상기 오브젝트의 전면이 향하는 방향 및, 상기 오브젝트의 후면이 향하는 방향의 영상을 수신하는 적어도 두 개의 카메라와, 상기 오브젝트 및 상기 오브젝트 주변의 상황을 감지하는 감지부, 및, 상기 오브젝트에 일정 거리 이내로 접근한 대상체가 있는 경우 상기 카메라들 중 적어도 하나를 촬영 대기 모드로 구동하고, 상기 감지부의 감지 결과 기 설정된 상황이 발생하면 상기 적어도 하나의 카메라를 촬영 활성화 모드로 전환 및, 상기 적어도 하나의 카메라에서 수신되는 영상과 상기 감지부의 감지 결과 중 적어도 하나를 이용하여 현재 발생된 상황에 대응되는 기능을 수행하는 제어부를 포함하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 상기 적어도 하나의 카메라로부터 수신되는 영상과 상기 감지 결과 중 적어도 하나를 기 설정된 다른 단말기에 전송하고, 상기 다른 단말기로부터 전송되는 제어 신호에 따른 기능을 수행하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 제어 신호에 따른 수행되는 기능은, 상기 모니터링 디바이스에 저장된 복수의 오디오 데이터 중 상기 제어 신호에 따른 적어도 하나를 출력하는 기능임을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 상기 제어 신호에 따라 상기 저장된 복수의 오디오 데이터 중 적어도 일부를 선택하고, 선택된 복수의 오디오 데이터를 동시에 출력하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 상기 적어도 하나의 오디오 데이터를, 상기 모니터링 디바이스에 구비된 복수의 음향 출력부를 이용하여 스테레오 방식으로 출력하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 기 설정된 다른 단말기는, 사용자의 음성 신호를 입력받고, 상기 제어 신호는, 상기 다른 단말기를 통해 입력된 사용자의 음성 신호가 출력되도록 상기 모니터링 디바이스를 제어하는 신호임을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 상기 오브젝트의 전면 및 후면 모두로부터 일정 거리 이내에 접근한 대상체들이 있는 경우, 상기 적어도 두 개의 카메라 모두에서 감지되는 영상들을 상기 다른 단말기에 전송하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 상기 모니터링 디바이스 주변에 위치한 적어도 하나의 다른 모니터링 기기가 있는 경우, 상기 기 설정된 상황의 발생 시에, 상기 다른 모니터링 기기로부터 감지된 정보를 더 수집하여 상기 다른 단말기에 전송하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 상기 적어도 하나의 카메라로부터 수신되는 영상과 상기 감지 결과가 상기 다른 단말기에 전송된 후, 상기 다른 단말기로부터 기 설정된 시간 이내에 상기 제어 신호가 수신되지 않으면 상기 발생된 상황에 대응되는 기능을 자동으로 수행하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 자동으로 수행되는 기능은, 기 저장된 오디오 데이터들 중 적어도 하나를 출력하는 기능, 또는 상기 적어도 하나의 카메라로부터 수신되는 영상 및 상기 감지 결과를 포함하는 정보를 기 설정된 연락처에 따라 전송하는 기능임을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 상기 다른 단말기의 위치에 근거하여, 사용자의 외출 여부를 인식하고, 상기 사용자가 외출하는 것으로 인식되는 경우, 연결가능한 적어도 하나의 가전기기의 상태에 대한 정보를 상기 모니터링 디바이스에 구비된 디스플레이부를 통해 표시하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 상기 디스플레이부 상에 그 상태가 표시된 상기 적어도 하나의 가전기기의 전원 상태를, 상기 디스플레이부 상에 가해지는 사용자의 입력에 근거하여 제어하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 상기 감지부의 감지 결과, 기 설정된 수준 이상의 소음, 진동 또는 충격 중 적어도 하나가 상기 오브젝트 및 상기 오브젝트 주변에서 감지되는 경우, 상기 기 설정된 상황이 발생된 것으로 판단하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 상기 감지된 소음, 충격, 및 진동 중 적어도 하나와 관련된 정보를, 상기 적어도 하나의 카메라에서 수신된 영상과 함께 기 설정된 적어도 하나의 다른 단말기에 전송하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 다른 단말기는, 상기 모니터링 디바이스로부터 수신된 정보에, 상기 감지된 소음, 충격, 및 진동 중 적어도 하나와 관련된 정보가 포함되어 있는 경우, 상기 소음, 충격 및 진동 중 적어도 하나에 대응되는 음향 신호 및 진동 중 적어도 하나를, 상기 적어도 하나의 카메라에서 수신된 영상과 함께 출력하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 상기 감지부의 감지 결과, 기 설정된 시간 이상 상기 대상체가 상기 오브젝트로부터 기 설정된 거리 이내에서 감지되는 경우, 상기 기 설정된 상황이 발생된 것으로 판단하는 것을 특징으로 한다.
일 실시 예에 있어서, 화상 정보를 포함하는 디스플레이부를 더 포함하며, 상기 디스플레이부가 상기 오브젝트의 전면 또는 후면 중 어느 하나의 면에 식별 가능하도록 상기 오브젝트에 장착되고, 상기 제어부는, 상기 모니터링 디바이스가 장착된 상기 오브젝트 면의 반대쪽 면이 향하는 방향의 영상을, 상기 카메라들 중 어느 하나로부터 수신하여 상기 디스플레이부에 표시하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 상기 감지부의 감지 결과, 상기 오브젝트의 전면 또는 후면 중 어느 하나에 일정 거리 이내로 접근한 상기 대상체가 있는 경우, 상기 카메라들 중 상기 대상체가 위치한 방향의 영상을 수신하는 카메라를 촬영 대기 모드로 전환하고, 상기 기 설정된 상황이 발생하는 경우, 상기 촬영 대기 모드로 전환된 카메라로부터 수신되는 영상을 저장하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 모니터링 디바이스는, 스마트 폰(smart phone), PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 태블릿 PC(tablet PC) 중 어느 하나임을 특징으로 한다.
상기 또는 다른 목적을 달성하기 위해 본 발명의 일 측면에 따르면, 본 발명의 실시 예에 따른 음향 정보 녹음 장치의 제어 방법은, 오브젝트의 전면 또는 후면에 장착되어 상기 오브젝트 및 오브젝트의 주변 상황을 감지할 수 있는 모니터링 디바이스를 제어하는 방법에 있어서, 상기 오브젝트의 전면 또는 후면 중 적어도 하나에 기 설정된 거리 이내로 접근한 대상체가 있는지 여부를 감지하는 단계와, 상기 감지 결과에 따라, 상기 오브젝트의 전면 또는 후면 방향의 영상을 수신하기 위한 적어도 두 개의 카메라 중 적어도 하나를 촬영대기 모드로 전환하는 단계와, 상기 오브젝트 및 상기 오브젝트 주변의 상황을 감지한 결과에 근거하여, 기 설정된 상황이 발생하였는지 여부를 판단하는 단계, 및, 상기 판단 결과에 근거하여, 상기 적어도 하나의 카메라에서 수신되는 영상 및, 상기 오브젝트 및 상기 오브젝트 주변을 감지한 결과 중 적어도 하나를 이용하여 현재 발생된 상황에 대응되는 기능을 수행하는 단계를 포함하며, 상기 기 설정된 상황은, 기 설정된 수준 이상의 소음이 발생한 상황, 상기 오브젝트로부터 감지되는 기 설정된 수준 이상의 충격이나 진동이 발생한 상황 또는 상기 대상체가 상기 오브젝트로부터 기 설정된 거리 이내에서 기 설정된 시간 이상 감지되는 상황임을 특징으로 한다.
본 발명에 따른 모니터링 디바이스 및 그 제어 방법의 효과에 대해 설명하면 다음과 같다.
본 발명의 실시 예들 중 적어도 하나에 의하면, 본 발명은 사용자가 사용하지 않는 스마트 폰과 같은 이동 단말기를 사용하여 모니터링 디바이스의 기능을 수행할 수 있도록 함으로써, 사용자가 별도의 모니터링 디바이스를 구매할 필요가 없으므로 저렴하게 고성능의 모니터링 서비스를 제공받을 수 있도록 하는 장점이 있다.
본 발명의 실시 예들 중 적어도 하나에 의하면, 본 발명은 스마트 폰과 같은 이동 단말기를 이용함으로써, 이동 단말기의 다양한 기능들을 이용한 모니터링 서비스를 사용자에게 제공할 수 있도록 하는 장점이 있다.
도 1a는 본 발명과 관련된 모니터링 디바이스를 설명하기 위한 블록도이다.
도 1b 및 1c는 본 발명과 관련된 모니터링 디바이스의 일 예를 서로 다른 방향에서 바라본 개념도이다.
도 2a 및 도 2b는 본 발명과 관련된 모니터링 디바이스가 특정 오브젝트(object)에 장착된 예를 보이고 있는 개념도이다.
도 3은 본 발명과 관련된 모니터링 디바이스가, 오브젝트 주변의 상황을 감지한 결과에 근거하여 동작하는 예를 도시한 개념도이다.
도 4는 본 발명과 관련된 모니터링 디바이스의 동작 흐름을 도시한 흐름도이다.
도 5는, 도 4의 동작 과정들 중, 현재 발생한 상황에 대응되는 기능을 수행하는 동작 과정을 보다 자세히 도시한 흐름도이다.
도 6은 본 발명과 관련된 모니터링 디바이스가, 오브젝트 주변의 상황을 감지한 결과에 따른 기능을 수행하는 예를 도시한 예시도이다.
도 7은 본 발명과 관련된 모니터링 디바이스가, 오브젝트 주변의 상황을 감지한 결과에 따른 기능을 수행하는 다른 예를 도시한 예시도이다.
도 8은 본 발명과 관련된 모니터링 디바이스가, 자신 및 주변의 다른 모니터링 장치들로부터 수집된 정보를 사용자에게 제공하는 예를 도시한 예시도이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 동일하거나 유사한 구성요소에는 동일, 유사한 도면 부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
이하의 본 명세서에서는, 모니터링 디바이스로서 사용자가 현재 사용하지 않는 여분의 스마트 폰을 이용하는 것을 예로 들어 설명하기로 한다. 그러나 본 발명이 이에 국한되는 것은 아니며, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 태블릿 PC(tablet PC) 등 다양한 기기를 활용할 수도 있음은 물론이다. 또한 기존의 모니터링 디바이스가 있는 경우, 이하의 명세서에서 언급하는 본 발명의 동작 과정에 따라 동작할 수 있음은 물론이며, 이러한 경우 기존의 모니터링 디바이스를 사용하는 경우에도 얼마든지 본 발명이 적용될 수도 있음은 물론이다.
도 1a 내지 도 1c를 참조하면, 도 1a는 본 발명과 관련된 모니터링 디바이스(100)를 설명하기 위한 블록도이고, 도 1b 및 1c는 본 발명과 관련된 모니터링 디바이스(100)의 일 예를 서로 다른 방향에서 바라본 개념도이다.
상기 모니터링 디바이스(100)는 무선 통신부(110), 입력부(120), 감지부(140), 출력부(150), 메모리(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1a에 도시된 구성요소들은 필수적인 것은 아니어서, 본 발명의 실시 예에 따른 모니터링 디바이스(100)는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.
보다 구체적으로, 상기 구성요소들 중 무선 통신부(110)는, 모니터링 디바이스(100)와 무선 통신 시스템 사이, 모니터링 디바이스(100)와 다른 모니터링 디바이스(100) 사이, 또는 모니터링 디바이스(100)와 외부서버 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 상기 무선 통신부(110)는, 모니터링 디바이스(100)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.
이러한 무선 통신부(110)는, 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 중 적어도 하나를 포함할 수 있다.
여기서 이동통신 모듈(112)은, 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등)에 따라 구축된 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
무선 인터넷 모듈(113)은, 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 모니터링 디바이스(100)에 내장되거나 외장될 수 있다. 무선 인터넷 모듈(113)은, 예를 들어 WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, WiBro(Wireless Broadband) 등과 같은 무선 인터넷 기술들에 따른 통신망에서 무선 신호를 송수신하도록 이루어진다.
근거리 통신 모듈(114)은 근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), Wi-Fi 등과 같은 기술 중 적어도 하나를 이용하여 근거리 통신을 지원할 수 있다. 이러한 근거리 통신 모듈(114)은, 모니터링 디바이스(100)와 무선 통신 시스템 사이, 모니터링 디바이스(100)와 다른 모니터링 디바이스(100) 사이 등의 무선 통신을 지원할 수 있다.
입력부(120)는, 영상 신호 입력을 위한 카메라(121)와 같은 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(microphone, 122), 또는 오디오 입력부, 사용자로부터 정보를 입력받기 위한 사용자 입력부(123, 예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있다. 입력부(120)에서 수집한 음향 데이터나 이미지 데이터는 분석되어 다양한 모니터링 기능과 관련된 서비스를 위해 사용될 수 있다.
카메라(121)는 복수개 구비될 수 있으며, 상기 복수개의 카메라는 상기 모니터링 디바이스(100)가 장착되는 오브젝트의 서로 다른 면(예를 들어 전면과 후면)을 촬영할 수 있도록 구비될 수 잇다. 상기 카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시되거나 메모리(170)에 저장될 수 있다. 한편, 상기 카메라(121)는 각각 매트릭스 구조를 이루도록 복수개의 렌즈를 포함하는 형태로 배치될 수 있으며, 이와 같이 매트릭스 구조를 통하여, 모니터링 디바이스(100)에는 다양한 각도 또는 초점을 갖는 복수의 영상정보가 입력될 수 있다. 또한, 카메라(121)는 입체영상을 구현하기 위한 좌 영상 및 우 영상을 획득하도록, 각각 스테레오 구조로 배치될 수 있다.
마이크로폰(122)은 외부의 음향 신호를 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 모니터링 디바이스(100)에서 제공하는 모니터링 서비스에 따라 다양하게 활용될 수 있다.
센싱부(140)는 모니터링 디바이스(100)가 장착된 오브젝트(object) 및/또는 상기 오브젝트 주변의 상황을 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센싱부(140)는 근접센서(141, proximity sensor), 조도 센서(142, illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라(121 참조)), 마이크로폰(microphone, 122 참조), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 모니터링 디바이스(100)는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 다양한 모니터링 서비스를 위해 활용할 수 있다.
제어부(180)는 상기 모니터링 디바이스(100)가 장착된 오브젝트의 일정 거리 이내에 접근하는 물건 또는 사람(이하 ‘대상체’ 라고 칭하기로 한다)이 있는 경우 이를 감지할 수 있다. 예를 들어 제어부(180)는 상기 대상체가 접근하는 경우 발생하는 조도의 변화에 따라 이를 감지하거나, 초음파, 적외선 센서를 이용하여 접근하는 대상체의 유무를 감지할 수 있다. 또는 카메라(121)를 통해 기 설정된 시간을 주기로 수신되는 영상들의 비교 결과에 따라 상기 대상체의 접근을 감지할 수도 있다.
한편 제어부(180)는 상기 오브젝트에 대해 발생하는 상황을 감지할 수도 있다. 예를 들어 제어부(180)는 오브젝트 또는 오브젝트 주변에서 발생하는 소음에 근거하여 기 설정된 수준 이상의 소음(예를 들어 초인종 소리 또는 노크(knock)와 같이 상기 오브젝트를 두드리는 소리)이 발생하는 경우 이를 감지할 수 있다. 또는 제어부(180)는 가속도 센서 또는 상기 모니터링 디바이스(100)의 본체에 구비된 터치 센서를 이용하여, 상기 오브젝트에 발생하는 진동 또는 충격 등을 감지할 수도 있다.
한편 출력부(150)는 디스플레이부(151), 음향 출력부(152) 중 적어도 하나를 포함할 수 있다.
디스플레이부(151)는 상기 카메라(121)를 통해 수신되는 다양한 영상 및 상기 모니터링 디바이스(100)와 연결가능한 다양한 주변기기에 관련된 정보들을 표시할 수 있다. 예를 들어 디스플레이부(151)에는, 상기 오브젝트의 특정 면(예를 들어 후면)을 향하도록 설치된 카메라로부터 수신되는 영상을 표시할 수 있으며, 전자 렌지나 TV와 같은 실내의 각종 전자 기기의 작동 상태와 같은 정보가 표시될 수 있다. 또는 주변에 다른 모니터링 디바이스가 있는 경우, 상기 다른 모니터링 디바이스로부터 수신되는 영상이 상기 디스플레이부(151) 상에 표시될 수도 있다.
한편 음향 출력부(152)는 무선 통신부(110)로부터 수신되거나 메모리(170)에 저장된 다양한 오디오 데이터를 출력할 수 있다. 예를 들어 본 발명의 실시 예에 따른 음향 출력부(152)는 사용자의 선택에 따라, 또는 사용자의 이동 단말기로부터 전송된 제어 신호에 따라, 생활 소음이나 미리 녹음된 사람들의 목소리와 같이 제공되는 모니터링 서비스에 관련된 다양한 오디오 데이터를 출력할 수 있다.
한편 메모리(170)는 모니터링 디바이스(100)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(170)는 모니터링 디바이스(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 모니터링 디바이스(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 모니터링 디바이스(100)의 기본적인 기능(예를 들어, 이미지 촬영 기능, 녹음 기능 등)을 위하여 출고 당시부터 모니터링 디바이스(100)상에 존재할 수 있다. 한편, 응용 프로그램은, 메모리(170)에 저장되고, 모니터링 디바이스(100) 상에 설치되어, 제어부(180)에 의하여 상기 이동 단말기의 동작(또는 기능)을 수행하도록 구동될 수 있다.
제어부(180)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 모니터링 디바이스(100)의 전반적인 동작을 제어한다. 제어부(180)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(170)에 저장된 응용 프로그램을 구동함으로써, 모니터링 서비스를 제공하기 위한 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.
또한, 제어부(180)는 메모리(170)에 저장된 응용 프로그램을 구동하기 위하여, 도 1a와 함께 살펴본 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 제어부(180)는 상기 응용 프로그램의 구동을 위하여, 모니터링 디바이스(100)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.
전원공급부(190)는 제어부(180)의 제어 하에서, 외부의 전원, 내부의 전원을 인가 받아 모니터링 디바이스(100)에 포함된 각 구성요소들에 전원을 공급한다. 이러한 전원공급부(190)는 배터리를 포함하며, 상기 배터리는 내장형 배터리 또는 교체가능한 형태의 배터리가 될 수 있다.
한편, 이하에서 다양한 실시 예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.
이하, 상기 도 1a에서 살펴본 본 발명의 일 실시 예에 따른 모니터링 디바이스 또는 모니터링 디바이스의 구성요소들이 배치된 모니터링 디바이스 또는 그 구조를 도 1b 및 1c를 참조하여 살펴보기로 한다.
도 1b 및 1c를 참조하면, 개시된 모니터링 디바이스(100)는 외관을 이루는 케이스(예를 들면, 프레임, 하우징, 커버 등)를 포함한다. 도시된 바와 같이, 모니터링 디바이스(100)는 프론트 케이스(101)와 리어 케이스(102)를 포함할 수 있다. 그리고 모니터링 디바이스(100)에는 디스플레이부(151), 제1 및 제2 음향 출력부(152a, 152b), 근접 센서(141), 조도 센서(142), 광 출력부(154), 제1 및 제2 카메라(121a, 121b), 제1 및 제2 조작유닛(123a, 123b), 마이크로폰(122), 인터페이스부(160) 등이 구비될 수 있다.
도 1b에서 보이고 있는 것과 같이, 모니터링 디바이스(100)의 바디 전면에는 디스플레이부(151)가 배치되어 정보를 출력할 수 있다. 도시된 바와 같이, 디스플레이부(151)의 윈도우(151a)는 프론트 케이스(101)에 장착되어 프론트 케이스(101)와 함께 모니터링 디바이스(100) 바디의 전면을 형성할 수 있다. 그리고 제1 음향 출력부(152a), 제1 카메라(121a) 등이 상기 모니터링 디바이스(100)의 전면에 배치될 수 있다.
한편 도 1c에서 보이고 있는 것과 같이, 모니터링 디바이스(100) 바디의 후면에는 제2카메라(121b)가 배치될 수 있다. 이 경우, 제2 카메라(121b)는 제1카메라(121a)와 실질적으로 반대되는 촬영 방향을 가지게 된다.
플래시(124)는 제2 카메라(121b)에 인접하게 배치될 수 있다. 플래시(124)는 제2 카메라(121b)로 피사체를 촬영하는 경우에 주변의 조도에 근거하여 피사체를 향해 빛을 비추게 된다.
한편 모니터링 디바이스(100)의 후면에는 제2 음향 출력부(152b)가 배치될 수 있다. 제2 음향 출력부(152b)는 제1 음향 출력부(152a)와 함께 스테레오 기능을 구현할 수도 있다.
한편 상기 제1 카메라(121a) 및 제2 카메라(121b) 중 적어도 하나는, 적어도 하나의 라인을 따라 배열되는 복수의 렌즈를 포함할 수 있다. 복수의 렌즈는 행렬(matrix) 형식으로 배열될 수도 있다. 이러한 카메라는, '어레이(array) 카메라'로 명명될 수 있다. 제1 카메라(121a) 및 제2 카메라(121b) 중 적어도 하나가 어레이 카메라로 구성되는 경우, 복수의 렌즈를 이용하여 다양한 방식으로 영상을 촬영할 수 있으며, 보다 나은 품질의 영상을 획득할 수 있다.
한편 도 2a 및 도 2b는 본 발명과 관련된 모니터링 디바이스가 특정 오브젝트(object)에 장착된 예를 보이고 있는 개념도이다.
도 2a 및 도 2b는 본 발명의 실시 예에 따른 모니터링 디바이스(100)가 장착된 오브젝트가 문(door)인 경우를 예로 들어 설명하고 있는 것이며, 이하의 본 명세서의 설명에서는 본 발명의 실시 예에 따른 모니터링 디바이스(100)가 장착되는 오브젝트가 도 2a 및 도 2b에서 보이고 있는 것과 같이‘문’인 경우를 가정하여 설명하기로 한다. 그러나 이는 본 발명의 설명의 편의를 돕기 위해 가정한 것일 뿐, 본 발명이 이에 국한되는 것이 아님은 물론이다. 즉, 본 발명의 실시 예에 따른 모니터링 디바이스(100)가 장착되는 오브젝트는 ‘문’ 뿐만이 아니라, 벽 등의 구조체는 물론, 다양한 물체가 될 수 있으며, 본 발명의 실시 예에 따른 모니터링 디바이스(100)는 방이나 상자, 어항, 케이지(cage) 등 내부와 외부가 단절될 수 있는 공간의 경계에서, 내부 및 외부의 상황을 모두 모니터링하기 위한 용도 등으로 다양하게 사용될 수 있다.
도 2a 및 도 2b를 참조하여 살펴보면, 도 2a는 본 발명의 실시 예에 따른 모니터링 디바이스(100)가 장착된 오브젝트(200)의 후면을 보이고 있는 것이며, 도 2b는 본 발명의 실시 예에 따른 모니터링 디바이스(100)가 장착된 오브젝트(200)의 전면을 보이고 있는 것이다. 이하의 설명에서 상기 오브젝트의 전면은 실내를 의미할 수 있고, 상기 오브젝트의 후면은 실외를 의미하는 것일 수 있다.
우선 도 2a를 참조하여 살펴보면, 본 발명의 실시 예에 따른 모니터링 디바이스(100)는, 도 2a의 (a) 및 (b)에서 보이고 있는 것처럼, 제2 음향 출력부(152b) 및 제2 카메라(121b) 그리고 플래시(124)가 상기 홈(210)을 통해 오브젝트(200) 후면에 노출될 수 있도록, 본 발명의 실시 예에 따른 모니터링 디바이스(100)가 오브젝트(200)에 장착될 수 있다. 이에 따라 본 발명의 실시 예에 따른 모니터링 디바이스(100) 후면에 구비된 제2 카메라(121b)는 상기 오브젝트(200) 후면의 영상을 수신할 수 있으며, 필요에 따라 플래시(124)를 발광하여 오브젝트(200) 후면에 빛이 비추어 지도록 할 수도 있다. 또한 사용자의 제어에 따라 기 저장된 오디오 데이터 또는 사용자의 이동 단말기로부터 수신되는 음성 데이터를 상기 제2 음향 출력부(152b)를 통해 출력할 수 있다.
반면 도 2b에서 보이고 있는 것과 같이, 오브젝트(200)의 전면에는 디스플레이부(151)가 노출되는 형태로 본 발명의 실시 예에 따른 모니터링 디바이스(100)가 장착될 수 있다. 이러한 경우 상기 디스플레이부(151)에는 제2 카메라(121b)를 통해 수신되는 오브젝트(200) 후면의 영상이 출력될 수 있다. 이에 따라 오브젝트(200)의 전면, 즉 실내에 위치한 사람이 오브젝트 후면, 즉 실외의 상황을 상기 디스플레이부(151)를 통해 확인할 수도 있다.
뿐만 아니라 본 발명의 실시 예에 따른 모니터링 디바이스(100)는 전면에 구비된 제1 카메라(121a)를 통해 수신되는 오브젝트(200) 전면 방향의 영상을 수신할 수도 있다. 그리고 본 발명의 실시 예에 따른 모니터링 디바이스(100)는 상기 제1 카메라(121a) 또는 제2 카메라(121b)를 통해 수신되는 영상들을 메모리(170)에 저장하거나, 또는 기 설정된 다른 기기에 푸쉬(push) 알림, 또는 호 발신을 통한 영상 통화의 형태로 전송할 수도 있다. 예를 들어 기 설정된 다른 기기는, 사용자의 이동 단말기일 수 있으며, 이러한 경우 사용자는, 상기 푸쉬 알림 또는 상기 모니터링 디바이스(100)로부터 착신된 호를 연결하여 상기 제1 카메라(121a) 및/또는 제2 카메라(121b)에서 수신된 영상을 제공받을 수 있다.
한편, 본 발명의 실시 예에 따른 모니터링 디바이스(100)는, 상기 제1 카메라(121a) 및 제2 카메라(121b)를 통해 수신되는 영상 외에 상기 오브젝트에 관련된 다양한 정보를 감지할 수 있다. 예를 들어 본 발명의 실시 예에 따른 모니터링 디바이스(100)의 제어부(180)는 센싱부(140)의 센서들을 이용하여, 상기 오브젝트(200)의 전면 및/또는 후면에 일정 거리 이상 접근한 대상체가 있는지 여부를 감지할 수 있다. 또는 제어부(180)는 상기 센서들의 감지 결과에 근거하여 상기 오브젝트(200) 주변에서 발생하는 소음 및 충격이나 진동 등을 감지할 수 있다. 그리고 제어부(180)는 상기 오브젝트 및/또는 오브젝트 주변의 상황을 감지한 정보 및, 상기 제1 카메라(121a) 및/또는 제2 카메라(121b)에서 수신된 영상들 중 적어도 하나를 상기 푸쉬(push) 알림, 또는 호 발신을 통한 영상 통화의 형태 또는 메시지의 형태로 사용자의 이동 단말기에 전송할 수도 있다.
한편 이처럼 오브젝트 및/또는 오브젝트 주변의 상황을 감지한 결과가 사용자의 이동 단말기(300)에 전송되면, 제어부(180)는 상기 이동 단말기(300)로부터 전송되는 제어 신호에 따라 특정한 동작을 수행할 수도 있다. 예를 들어 제어부(180)는 상기 이동 단말기(300)를 통해 전송되는 오디오 데이터를 상기 제2 음향 출력부(152b)를 통해 출력할 수 있으며, 또는 상기 이동 단말기(300)로부터 전송되는 제어 신호에 따른 특정한 동작이 수행되도록 할 수도 있다.
도 3은 이러한 경우의 예를 보이고 있는 것이다.
도 3을 참조하여 살펴보면, 도 3의 (a)에서 보이고 있는 것과 같이, 오브젝트(200) 주변에 접근한 사람이 있는 경우, 본 발명의 실시 예에 따른 모니터링 디바이스(100)의 제어부(180)는 이러한 접근을 감지할 수 있다. 이러한 경우 제어부(180)는 상기 오브젝트(200) 주변의 상황을 감지한 결과에 근거하여 특정한 동작을 수행할 수 있다.
즉, 도 3의 (a)에서 보이고 있는 것과 같이, 상기 오브젝트(200) 주변에 접근한 사람이, 초인종(302)을 누르는 상황이 발생하는 경우, 제어부(180)는 상기 초인종(302)으로부터 발생하는 소음으로부터 이러한 상황을 감지할 수 있다. 이러한 경우 제어부(180)는 상기 감지된 상황에 대한 정보를 무선 통신망(310a)을 통해 사용자의 이동 단말기(300)로 전송할 수 있다. 이러한 경우 상기 이동 단말기(300)로 전송되는 정보에는, 상기 제2 카메라(121b)를 통해 수신된 오브젝트(200) 후면의 영상 및, 상기 초인종(302)이 눌려진 상황에 관련된 정보가 포함될 수 있다.
이러한 경우, 사용자의 이동 단말기(300)에는 상기 수신된 정보에 관련된 화면이 표시될 수 있다. 즉, 도 3의 (b)에서 보이고 있는 것처럼, 이동 단말기(300)의 디스플레이부에는 상기 제2 카메라(121b)에서 수신된 영상이 표시될 수 있다. 뿐만 아니라 상기 이동 단말기(300)의 디스플레이부에는 상기 초인종(302)이 눌려진 상황에 대한 정보가 메시지의 형태로 표시될 수도 있다.
그러면 사용자는, 도 3의 (b)에서 보이고 있는 것과 같이 음성 데이터를 입력할 수 있다. 이러한 경우, 이동 단말기(300)의 마이크를 통해 수신된 사용자의 음성은 무선 통신망(310b)을 경유하여 본 발명의 실시 예에 따른 무선 통신부(110)의 모듈들 중 어느 하나의 모듈을 통해 수신될 수 있다. 그리고 제어부(180)는 도 3의 (a)에서 보이고 있는 것과 같이, 상기 수신된 사용자의 음성 데이터를 제2 음향 출력부(152b)를 통해 출력할 수도 있다.
한편 상술한 도 3의 설명에서는, 오브젝트(200)에 사람이 접근하고, 접근한 사람이 초인종을 누르는 경우에 사용자의 음성 데이터를 출력하는 것을 예로 들어 설명하였으나, 얼마든지 다른 다양한 기능들이 수행될 수도 있음은 물론이다. 예를 들어 제어부(180)는 오브젝트(200)로부터 기 설정된 거리 이내에 위치한 대상체가 있는 경우 이를 감지할 수 있으며, 상기 대상체가 상기 오브젝트(200)로부터 기 설정된 거리 이내로 접근한 상태에서 머물러 있는 시간을 체크할 수도 있다. 또한 제어부(180)는 초인종(302)을 누르는 소리 뿐만 아니라 오브젝트(200)에 가해지는 노크 또는 충격을 감지할 수 있다. 또는 제어부(180)는 상기 오브젝트(200)에서 일정 시간 이상 가해지는 기 설정된 수준 이상의 진동을 감지할 수도 있다.
이러한 다양한 오브젝트의 주변 상황이 감지되면, 제어부(180)는 이러한 감지 상황에 대한 정보를 사용자의 이동 단말기(300)에 전송할 수 있다. 이러한 경우 사용자의 이동 단말기(300) 및 모니터링 디바이스(100)의 메모리(170)에는 상기 감지된 상황에 대한 정보들이 저장될 수 있으며, 사용자의 선택에 따라 이와 관련된 다양한 적어도 하나의 기능이 수행될 수 있다. 즉, 제어부(180)는 사용자의 제어에 따라 기 저장된 오디오 데이터, 즉, 예를 들어 청소기와 같은 가전기기를 구동하는 소음이나, 아이들이나 어른들의 목소리와 같은 소음 등과 같은 생활 소음에 관련된 오디오 데이터를 적어도 하나 이상 출력할 수 있다. 또는 제어부(180)는 현재 저장된 상황에 관련된 정보를 경비실 또는 경찰서에 전송되도록 할 수도 있다.
이하에서는 이와 같이 구성된 이동 단말기에서 구현될 수 있는 제어 방법과 관련된 실시 예들에 대해 첨부된 도면을 참조하여 살펴보겠다. 본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다.
우선 도 4는 본 발명과 관련된 모니터링 디바이스의 동작 흐름을 도시한 것이다.
도 4를 참조하여 살펴보면, 본 발명의 실시 예에 따른 모니터링 디바이스(100)의 제어부(180)는, 센싱부(140)의 센서들을 이용하여 주변의 상황을 감지한다. 이러한 경우, 모니터링 디바이스(100) 센싱부(140)의 센서들은 모니터링 디바이스(100)의 주변, 즉, 상기 모니터링 디바이스(100)가 장착된 오브젝트(200) 및 상기 오브젝트 주변의 상황을 감지할 수 있다(S400). 예를 들어 상기 센서들중 초음파 센서나, 적외선 센서, 열 센서, 광 센서 등의 센서는 상기 오브젝트(200)의 전면 또는 후면에 접근하는 대상체를 감지할 수 있으며, 상기 센싱부(140)의 센서들 중 가속도 센서나 진동 센서, 또는 관성 센서 등의 센서는 상기 오브젝트(200)를 통해 모니터링 디바이스(100)로 전달되는 충격 또는 진동을 감지할 수 있다. 그리고 마이크(122)는 상기 모니터링 디바이스(100)의 주변, 즉 상기 오브젝트(200)나 상기 오브젝트 주변에서 발생하는 소음 등을 감지할 수 있다.
이러한 센싱부(140)의 감지 결과에 근거하여, 제어부(180)는 상기 오브젝트(200)에 기 설정된 거리 이내로 접근한 대상체가 있는지 여부를 감지할 수 있다(S402). 그리고 상기 S402 단계의 감지 결과에 따라 상기 모니터링 디바이스(100)의 동작 모드를 전환할 수 있다. 즉, 제어부(180)는 상기 S402 단계의 감지 결과에 근거하여, 상기 오브젝트(200) 주변에 기 설정된 거리 이내로 접근한 대상체가 있는 경우, 모니터링 디바이스(100)에 구비된 카메라들(121a, 121b) 중 적어도 하나의 동작 상태를 촬영 대기 모드로 전환할 수 있다(S404).
상기 S404 단계에서, 제어부(180)는 상기 오브젝트(200)를 기준으로, 상기 대상체가 감지되는 방향에 대응되는 카메라의 동작 모드를 전환할 수 있다. 즉, 예를 들어 상기 오브젝트(200)의 전면이 향하는 방향에서 대상체가 감지되는 경우에는 모니터링 디바이스(100)의 전면에 구비된 제1 카메라(121a)를, 상기 오브젝트(200)의 후면이 향하는 방향에서 대상체가 감지되는 경우에는 모니터링 디바이스(100)의 후면에 구비된 제2 카메라(121b)의 동작 모드를 촬영 대기 모드로 전환할 수 있다.
여기서 상기 촬영 대기 모드는, 카메라의 이미지 센서를 통해 영상을 수신하고 이를 디스플레이부(151) 상에 표시하는 동작 모드일 수 있다. 이러한 상태, 즉 오브젝트(200)의 전면 또는 후면으로부터 기 설정된 거리 이내에 위차한 대상체가 감지되고, 또 그에 따라 어느 하나의 카메라(121a 또는 121b)로부터 상기 대상체가 감지된 방향의 영상을 수신하는 상태에서, 제어부(180)는 상기 오브젝트(200)에 기 설정된 상황이 발생하였는지 여부를 판단할 수 있다(S406).
여기서 상기 기 설정된 상황은 다양한 것이 있을 수 있다. 예를 들어 상기 기 설정된 상황은 상기 대상체가 일정 수준 이상의 소음을 발생시키는 상황일 수 있다. 즉, 상기 대상체가 초인종을 누르거나, 사람을 부르는 소음 등을 발생시키는 경우, 제어부(180)는 상기 소음을 감지하여 기 설정된 상황이 발생한 것으로 판단할 수 있다.
또는 상기 기 설정된 상황은 상기 오브젝트(200)를 통해 센싱되는 각종 센싱 결과에 따라 감지될 수도 있다. 예를 들어 제어부(180)는 상기 대상체가 오브젝트에 충격을 가하는 경우(예를 들어 노크 등) 이를 감지하거나, 상기오브젝트(200)로부터 일정 수준 이상의 세기 또는 일정 시간 이상 동안 계속된 진동이 감지되는 경우 이에 근거하여 특정 상황이 발생한 것으로 판단할 수 있다. 또는 제어부(180)는 상기 대상체가 상기 오브젝트(200)로부터 기 설정된 거리 이내에서 감지되는 시간이 기 설정된 시간 이상인 경우, 이를 통해 기 설정된 상황이 발생된 것으로 판단할 수도 있다.
한편 제어부(180)는 기 설정된 시간 이상 동안 상기 기 설정된 상황이 발생하였는지 여부를 판단할 수도 있다(S410). 이러한 경우, 제어부(180)는 상기 대상체가 상기 오브젝트(200)에 기 설정된 거리 이내로 접근한 상태에서 기 설정된 상황이 발생하지 않은 상태로, 일정 시간이 경과되었는지 여부를 판단할 수 있다. 그리고 제어부(180)는 상기 S410 단계의 판단 결과, 일정 시간이 경과되지 않은 경우라면, 상기 S406 단계로 다시 진행하여 기 설정된 상황의 발생 여부를 판단할 수 있다.
그러나 상기 S410 단계의 판단 결과, 일정 시간이 경과된 상황이라면, 제어부(180)는 다시 S400 단계로 진행하여 오브젝트(200) 및 오브젝트(200) 주변의 상황을 감지할 수 있다. 그리고 상기 S402 단계의 감지 결과에 따라 상기 S404 단계에서 S406 단계에 이르는 과정을 다시 반복할 수 있다.
한편 상기 S406 단계의 판단 결과, 기 설정된 상황이 발생한 것으로 판단되는 경우, 제어부(180)는 상기 카메라들(121a, 121b) 중 적어도 하나에서 수신되는 영상 또는 상기 센싱부(140)의 감지 결과 중 적어도 하나를 이용하여, 현재 발생된 상황에 대응되는 기능을 수행할 수 있다(S410). 예를 들어 제어부(180)는 상기 적어도 하나의 카메라로부터 수신된 영상 및/또는 상기 센싱부(140)의 감지 결과를 포함하는 모니터링 정보를 기 설정된 사용자의 이동 단말기(300)에 전송할 수 있다. 예를 들어 제어부(180)는 푸쉬 알림의 형태로 상기 모니터링 정보를 전송하거나, 사용자의 이동 단말기(300)에 호를 발신하는 형태로 상기 모니터링 정보를 전송할 수도 있다. 이러한 경우 사용자가 자신의 이동 단말기(300)에 착신된 호를 통해 통화를 연결하는 경우 영상 통화의 형태로 상기 모니터링 정보가 사용자에게 제공될 수 있다. 이러한 경우 상기 모니터링 정보는 상기 모니터링 디바이스(100) 및/또는 상기 이동 단말기(300)에 저장될 수도 있음은 물론이다.
이러한 경우 제어부(180)는 상기 S410 단계에서, 사용자의 이동 단말기(300)로부터 전송되는 제어 신호에 따라 다양한 기능을 수행할 수 있다. 예를 들어 제어부(180)는 이동 단말기(300)로부터 전송되는 음성 데이터를 제1 음향 출력부(152a) 또는 제2 음향 출력부(152b)를 통해 출력할 수 있다. 또는 제어부(180)는 상기 이동 단말기(300)로부터 전송되는 제어 신호에 따라 특정 기능이 수행되도록 할 수도 있다.
예를 들어 제어부(180)는 상기 제어 신호에 따라 기 저장된 오디오 데이터가 출력되도록 할 수도 있다. 즉, 상기 제어 신호에 따라 기 저장된 각종 생활 소음과 관련된 오디오 데이터들이 음향 출력부(152)를 통해 출력되도록 하거나, 사이렌 소리나 비상 알람벨이 출력되도록 할 수도 있다. 또는 기 설정된 연락처, 즉 경찰서나, 경비실에 현재의 상황을 신고하는 기능을 수행할 수도 있다.
한편 이처럼 사용자의 이동 단말기(300)로부터 전송되는 제어 신호가 없는 경우에도, 상기 기능들을 자동으로 수행할 수도 있음은 물론이다. 예를 들어 제어부(180)는 상기 오브젝트(200)에 기 설정된 거리 이내로 접근한 대상체가, 기 설정된 시간 이상 감지되는 경우 기 설정된 복수의 오디오 데이터(예를 들어 생활 소음과 관련된 오디오 데이터) 중 적어도 일부를 순차 또는 램덤으로, 또는 복수개의 오디오 데이터를 동시에 자동으로 출력할 수도 있다. 이러한 경우, 상기 오디오 데이터가, 아이들 소리, 어른들 소리, 청소 소음인 경우라면, 상기 오브젝트(200) 주변의 감지 결과에 근거하여 상기 오디오 데이터들 중 적어도 두 개가 동시에 출력될 수도 있다.
한편, 상기 제어부(180)는 상기 모니터링 정보에, 상기 카메라들(121a, 121b) 모두에서 수신된 영상들을 포함시킬 수도 있다. 예를 들어 제어부(180)는 상기 오브젝트(200)의 전면 또는 후면에 모두 대상체가 감지되는 경우, 상기 카메라들(121a, 121b) 모두에서 수신된 영상들이 포함된 모니터링 정보를 상기 이동 단말기(300)에 전송할 수도 있다. 이러한 경우 사용자는 상기 모니터링 정보로부터, 상기 카메라들(121a, 121b) 모두에서 수신된 영상을 각각 구분하여 확인할 수도 있다.
한편 상기 제어부(180)는 상기 S410 단계에서, 상기 사용자의 이동 단말기(300)의 위치에 따라 서로 다른 기능이 수행되도록 할 수도 있다. 예를 들어 제어부(180)는 사용자의 이동 단말기(300)가 모니터링 디바이스(100)로부터 일정 거리 이내에 있는 경우에는 상기 모니터링 정보를 상기 이동 단말기(300)에 전송하지 않을 수 있다. 이는 만약 사용자가 상기 오브젝트(200) 근처에 있는 경우, 모니터링 정보를 통하지 않고서도 상기 오브젝트(200) 및 오브젝트(200) 주변의 상황을 알 수 있기 때문이다.
한편, 만약 사용자의 이동 단말기(300)가 모니터링 디바이스(100)로부터 일정 거리 이내에 있는 경우, 모니터링 디바이스(100)의 제어부(180)는 상기 S410 단계에서, 또 다른 기능을 수행할 수도 있다. 예를 들어 제어부(180)는 상기 이동 단말기(300)의 위치로부터 상기 사용자가 오브젝트(200) 주변에 위치한 상태임을 감지하거나, 상기 모니터링 디바이스(100)의 전면에 구비된 제1 카메라(121a)로부터 수신된 사용자의 영상으로부터 사용자를 인식(예를 들어 사용자의 안면 인식)함으로써, 사용자가 상기 오브젝트(200) 주변에 있음을 감지할 수 있다. 이러한 경우 제어부(180)는 사용자가 외출을 하려 하는 상태라고 판단할 수 있으며, 이와 관련된 다양한 기능들을 제공할 수 있다.
예를 들어 제어부(180)는, 상기 모니터링 디바이스(100)와 연결 가능한 주변의 다양한 가전기기의 상태에 관련된 정보를 상기 디스플레이부(151) 상에 표시할 수 있다. 예를 들어 제어부(180)는 TV나 청소기, 또는 형광등, 및 전자 렌지 등과 같은 다양한 가전기기가 현재 동작하고 있는 상태인지 여부를 상기 디스플레이부(151) 상에 표시할 수 있다. 이러한 경우 제어부(180)는 상기 가전기기의 동작 상태에 관련된 정보들에 대한 사용자의 입력(예를 들어 디스플레이부(151)에 대한 터치 입력)에 근거하여 상기 표시된 가전기기들의 동작 상태를 제어할 수도 있다. 즉, 사용자는 외출 전에 본 발명의 실시 예에 따른 모니터링 디바이스(100)의 디스플레이부(151)를 통해 집안의 각종 가전기기들의 상태를 확인하고, 현재 ‘온(on)’ 되어 있는 상태의 가전기기의 동작 상태를 ‘오프(off)’ 상태로 전환할 수도 있다.
한편 S410 단계에서 이러한 다양한 기능들이 실행되면, 제어부(180)는 다시 S400 단계로 진행하여, 오브젝트(200) 및 오브젝트(200) 주변의 상황을 다시 감지할 수 있다. 그리고 상기 S402 단계의 감지 결과에 따라 상기 S404 단계에서 S410 단계에 이르는 과정을 다시 반복할 수 있다.
한편 도 5는, 도 4의 동작 과정들 중, 상기 S410 단계에서 수행되는 동작 과정 중, 사용자의 이동 단말기(300)로부터 전송되는 제어 신호에 따른 동작을 수행하는 과정을 보다 자세히 도시한 것이다.
도 5를 참조하여 살펴보면, 상기 S406 단계에서 기 설정된 상황이 발생하는 경우, 즉 상기 대상체가, 상기 오브젝트(200)로부터 기 설정된 거리 이내에 기 설정된 시간 이상 동안 감지되거나, 기 설정된 수준 이상의 소음이나 진동 또는 충격이 감지되는 경우, 제어부(180)는 이를 감지할 수 있다.
이러한 경우 제어부(180)는, 사용자의 이동 단말기(300)에 통신 연결을 수행하고, 호 발신 또는 푸쉬 알림 등의 형태로 현재 감지된 상황에 대한 모니터링 정보를 사용자의 이동 단말기(300)에 전송할 수 있다(S500). 여기서 상기 모니터링 정보에는 상기 제1 카메라(121a) 및 제2 카메라(121b) 중 어느 하나로부터 수신된 영상 및 상기 감지된 상황에 대한 감지 정보, 예를 들어 충격, 진동, 또는 소음의 발생 여부 및 상기 충격, 진동 또는 소음의 발생 시각에 대한 정보를 포함할 수 있다.
이러한 경우 사용자의 이동 단말기(300)는 상기 모니터링 정보에 포함된 영상 뿐만 아니라, 상기 감지된 상황에 대한 정보를 사용자에게 제공할 수 있다. 상기 감지된 상황에 대한 정보는, 텍스트의 형태로 사용자에게 제공될 수 있으나, 다양한 형태로 사용자에게 전달될 수도 있음은 물론이다. 예를 들어 소음의 경우, 상기 모니터링 정보는, 상기 발생된 소음을 녹음한 오디오 정보를 포함할 수 있으며, 상기 사용자의 이동 단말기(300)는 사용자의 요청에 따라 상기 녹음된 정보를 출력할 수도 있다. 또는 진동 또는 충격의 경우, 이동 단말기(300)는 상기 모니터링 정보에 따라 햅틱 모듈 또는 바이브레이션(vibration)을 구동하여 상기 모니터링 정보에 포함된 진동 또는 충격에 대응되는 햅틱 반응 또는 진동을 발생시킬 수도 있다.
한편, 상기 S500 단계에서, 모니터링 정보가 사용자의 이동 단말기(300)에 제공되면, 제어부(180)는 사용자의 이동 단말기(300)로부터 전송된 제어 신호가 있는지 여부를 감지할 수 있다(S502), 예를 들어 제어부(180)는 상기 모니터링 정보를 전송한 이후 기 설정된 시간 이내에 상기 전송된 모니터링 정보에 대한 응답으로 제어 신호가 수신되었는지 여부를 확인할 수 있으며, 상기 제어 신호의 수신 여부에 따라 특정 기능을 수행할 수 있다.
상기 S502 단계의 확인 결과, 사용자의 이동 단말기(300)로부터 특정 기능의 실행을 위한 제어 신호가 수신된 경우라면, 제어부(180)는 상기 제어 신호에 따른 기능을 수행할 수 있다(S504). 여기서 상기 제어 신호는 메모리(170)에 기 저장된 오디오 데이터 또는 기 설정된 외부의 서버(예를 들어 클라우드 서버)에 저장된 오디오 데이터를 제1 음향 출력부(152a) 또는 제2 음향 출력부(152b) 중 적어도 하나를 통해 출력하는 것일 수 있다. 이러한 경우 상기 제어 신호는 상기 메모리(170) 또는 상기 기 설정된 외부의 서버에 저장된 오디오 데이터들 중 적어도 하나를 지정하기 위한 것일 수 있다.
이러한 경우 제어부(180)는 상기 제어 신호에 의해 지정된 적어도 하나의 오디오 데이터를 출력할 수 있다. 만약 상기 제어 신호가 복수의 오디오 데이터를 지정하기 위한 것이라면, 제어부(180)는 동시에 복수의 오디오 데이터가 출력되도록 할 수도 있다. 여기서 제어부(180)는 제1 음향 출력부(152a) 및, 제2 음향 출력부(152b)를 이용하여 스테레오(stereo) 방식으로 상기 복수의 오디오 데이터를 출력할 수도 있다. 이에 따라 본 발명의 실시 예에 따른 모니터링 디바이스(100)에서는 사용자의 선택에 따라, 상기 복수의 오디오 데이터들의 조합에 따른 다양한 음향 신호가 음향 출력부(152)를 통해 출력될 수 있다.
한편, 제어부(180)는 상기 S502 단계의 확인 결과, 기 설정된 시간 이내에 수신된 제어 신호가 없는 경우라면, 현재 오브젝트(200) 및 오브젝트(200) 주변을 감지한 결과로부터 판단된 상황에 근거하여 기 설정된 기능을 수행할 수 있다. 예를 들어 제어부(180)는 오브젝트(200) 및 오브젝트(200) 주변을 감지한 결과, 초인종 소리 또는 오브젝트(200)를 두드리는 노크 등이 감지된 경우라면, 사용자로부터 녹음된 오디오 데이터가 출력되도록 할 수 있다. 예를 들어 사용자는 “누구세요?” 또는 “용건을 말씀하세요” 등의 멘트를 녹음할 수 있고, 상기 모니터링 디바이스(100)에 구비된 마이크(122)를 통해 오브젝트(200) 주변의 소리를 녹음할 수도 있다.
한편, 만약 상기 오브젝트(200)로부터 기 설정된 거리이내에, 일정 시간 이상 감지되는 대상체가 있는 경우, 제어부(180)는 그에 대응되는 기능을 자동으로 수행할 수 있다. 예를 들어 제어부(180)는 기 설정된 오디오 데이터들 중 적어도 하나의 오디오 데이터를 재생할 수도 있다. 이러한 경우 제어부(180)는 기 설정된 오디오 데이터들 중 적어도 일부를 무작위로 선출할 수 있으며, 상기 선출된 적어도 하나의 오디오 데이터를 동시에 출력할 수도 있다. 또는 제어부(180)는 제1 음향 출력부(152a) 및, 제2 음향 출력부(152b)를 이용하여 스테레오(stereo) 방식으로 상기 적어도 하나의 오디오 데이터를 출력할 수도 있다.
한편, 제어부(180)는 상기 오브젝트(200) 및 오브젝트(200) 주변을 감지한 결과에 근거하여, 경찰서 또는 경비실에 현재 상황을 알리는 기능, 즉 신고 기능을 수행할 수도 있다. 예를 들어 제어부(180)는 기 설정된 수준 이상의 진동이나 소음, 또는 기 설정된 수준 이상의 충격이 상기 오브젝트(200)에 가해지는 경우, 누군가가 강제로 침입하는 것으로 판단할 수도 있다. 이러한 경우 제어부(180)는 경찰서 및 경비실 등에 현재 누군가가 강제로 침입한다는 사실을 알리고, 현재의 위치 정보(예를 들어 아파트 호실 번호) 및, 상기 제1 카메라(121a) 및/또는 제2 카메라(121b)에서 수신되는 영상과, 상기 감지 결과를 포함하는 정보를 상기 경찰서 및 경비실 등에 전송할 수도 있다. 그리고 제어부(180)는, 이와 더불어 사이렌 소리나 알람 등의 경고음을 기 설정된 수준 이상의 볼륨으로 출력할 수도 있다.
한편 이상의 설명에서는, 본 발명의 실시 예에 따른 모니터링 디바이스(100)의 동작 흐름을 흐름도를 참조하여 살펴보았다.
이하의 설명에서는, 오브젝트(200) 및 오브젝트(200)의 주변을 감지한 결과에 근거하여 본 발명의 실시 예에 따른 모니터링 디바이스(100) 및 사용자의 이동 단말기(300)가 동작하는 예를 예시도를 참조하여 보다 자세하게 살펴보기로 한다.
우선 도 6은 본 발명과 관련된 모니터링 디바이스가, 오브젝트(200) 주변의 상황을 감지한 결과에 따른 기능을 수행하는 예를 도시한 예시도이다.
도 6을 참조하여 살펴보면, 도 6의 (a)에서 보이고 있는 것과 같이 대상체(600)가 오브젝트(200) 주변에서 감지되는 경우, 제어부(180)는 제2 카메라(121b)의 동작 상태를 촬영 대기 상태로 전환할 수 있다. 이러한 경우 상기 제2 카메라(121b)는 이미지 센서로부터 영상을 수신할 수 있으며, 제어부(180)의 제어가 있는 경우 상기 수신되는 영상을 메모리(170) 또는 기 설정된 외부 서버(예를 들어 클라우드 서버)에 저장할 수 있다.
그리고 이러한 상태에서 상기 대상체(600)가 오브젝트 주변에서 감지되는 시간이 기 설정된 시간 이상인 경우라면, 제어부(180)는 기 설정된 상황이 발생한 것으로 판단할 수 있다. 이러한 경우 제어부(180)는 상기 제2 카메라(121b)를 제어하여 수신되는 영상을 저장할 수 있으며, 저장된 영상을 포함하는 모니터링 정보를 사용자의 이동 단말기(300)에 전송할 수 있다. 도 6의 (b)는 이처럼 모니터링 정보에 포함된 대상체(600)에 대한 영상(610)이, 사용자의 이동 단말기(300)에 전송된 예를 보이고 있는 것이다.
이러한 경우, 사용자의 이동 단말기(300)는, 도 6의 (c)에서 보이고 있는 것처럼, 본 발명의 실시 예에 따른 모니터링 디바이스(100)에서 수행 가능한 다양한 기능들을 표시하는 메뉴 화면(620)을 디스플레이부 상에 표시할 수 있다. 예를 들어 이러한 기능들은 메뉴 화면(620)에서 보이고 있는 것처럼, 경비실(Security) 또는 경찰서(Police)에 신고를 하는 기능(622)일 수 있다. 또는 상기 기능들은, 아이들 소리(children), 어른들 소리(people), 또는 청소기 소음(vacuum), TV 소음등과 같은 다양한 오디오 데이터를 출력하는 기능(624)일 수 있다.
이러한 메뉴 화면(620)이 표시되는 상태에서, 이동 단말기(300)의 제어부는 사용자로부터 적어도 하나의 기능을 선택받을 수 있다. 예를 들어 사용자가 도 6의 (c)에서 보이고 있는 것과 같이 “청소기 소음(vacuum)”을 선택하는 경우라면, 이동 단말기(300)의 제어부는 사용자로부터 선택된 오디오 데이터를 출력하기 위한 제어 신호를, 모니터링 디바이스(100)에 전송할 수 있다. 이러한 경우, 모니터링 디바이스(100)의 제어부(180)는 상기 이동 단말기(300)로부터 수신된 제어 신호에 따라 특정 오디오 데이터, 즉 “청소기 소음(650)”을 음향 출력부(152)를 통해 출력할 수 있다. 이러한 경우 상기 “청소기 소음”은 제1 음향 출력부(152a) 및 제2 음향 출력부(152b)를 통해 번갈아 출력되며 스테레오 효과를 발생시킬 수 있으며, 이에 따라 상기 대상체(600)에게 집안에 사람이 있는 것처럼 보이도록 할 수 있다. 도 6의 (d)는 이러한 예를 보이고 있는 것이다.
한편 상술한 설명에 따르면, 본 발명의 실시 예에 따른 모니터링 디바이스(100)는 제1 카메라(121a) 및 제2 카메라(121b) 모두에서 수신되는 영상 및, 상기 오브젝트(200)의 전면 및 후면 모두에서 감지되는 감지 결과를 모니터링 정보로 사용자의 이동 단말기(300)에 전송할 수 있다. 이러한 경우 사용자는 상기 감지 결과 및 제1 카메라(121a) 및 제2 카메라(121b)에서 수신되는 영상을 각각 구분하여 확인할 수 있고, 그에 따른 기능이 상기 모니터링 디바이스(100)에서 수행되도록 할 수도 있다.
도 7은 이러한 경우의 예를 도시한 것이다.
도 7을 참조하여 살펴보면, 본 발명의 실시 예에 따른 모니터링 디바이스(100)는 오브젝트(200)의 전면 및 후면 주변의 상황을 모두 감지할 수 있다. 이에 따라 도 7의 (a)에서 보이고 있는 것과 같이, 오브젝트(200)의 전면 및 후면 모두에 기 설정된 거리 이내로 접근한 대상체들(700, 702)이 있는 경우, 제어부(180)는 제1 카메라(121a) 및 제2 카메라(121b)를 모두 촬영 대기 모드로 전환할 수 있다. 그리고 제어부(180)는 상기 오브젝트(200)에 기 설정된 상황(예를 들어 진동이나 소음, 충격이 감지되는 상황 또는 상기 대상체들이 기 설정된 시간 이상 상기 오브젝트(200) 주변에 머무르는 상황)이 발생하는 경우, 상기 오브젝트(200)에서 감지되는 상황 및 제1 카메라(121a) 및 제2 카메라(121b)에서 수신되는 영상을 촬영할 수 있다.
이러한 경우 상기 오브젝트(200)의 전면 방향의 영상을 수신하는 제1 카메라(121a)는 제1 대상체(700)의 영상을 촬영할 수 있으며, 상기 오브젝트(200)의 후면 방향의 영상을 수신하는 제2 카메라(121b)는 제2 대상체(702)의 영상을 촬영할 수 있다. 그리고 상기 제1 카메라(121a) 및 제2 카메라(121b)에서 촬영된 영상들은 사용자의 이동 단말기(300)로 전송할 수 있다. 이러한 경우 도 7의 (b)에서 보이고 있는 것과 같이 상기 제1 카메라(121a) 및 제2 카메라(121b)를 통해 촬영된 영상들은, 사용자의 이동 단말기(300)에 출력될 수 있으며, 상기 모니터링 디바이스(100)에서 감지되는 음향 정보가 함께 출력될 수 있다.
이러한 경우, 사용자는 자신의 이동 단말기(300) 및 모니터링 디바이스(100)를 통해, 상기 오브젝트의 전면 또는 후면에 사용자의 음성이 출력되도록 할 수도 있다. 예를 들어 사용자가 상기 오브젝트(200)의 전면 방향에 위치한 아이(제1 대상체 : 700)의 부모인 경우, 사용자는 모니터링 디바이스(100)의 감지 결과에 따라 자신의 아이가 외출을 하는 경우에 이를 확인할 수 있다. 또는 아이, 즉 아이(제1 대상체 : 700)는 모니터링 디바이스(100)를 통해 자신의 외출에 대해 부모님, 즉 사용자에게 허락을 구할 수 있으며, 상기 모니터링 디바이스(100)를 통해 사용자의 허락을 득할 수 있다. 이러한 경우 사용자는 자신의 아이가 외출한 시각 및, 오브젝트(200)의 후면 방향 영상을 수신하는 모니터링 디바이스(100)의 제2 카메라(121b)를 통해, 자신의 아이(제1 대상체 : 700)와 같이 외출한 다른 사람(제2 대상체 : 702)에 관한 정보를 확인 및 저장할 수도 있다.
한편 상술한 설명에 따르면, 본 발명의 실시 예에 따른 모니터링 디바이스(100)는 연결 가능한 주변의 다른 기기가 있는 경우, 상기 다른 기기로부터 수집된 정보를 더 포함하는 모니터링 정보를 제공할 수 있음을 언급한 바 있다.
도 8은 이러한 경우에, 본 발명과 관련된 모니터링 디바이스가, 자신 및 주변의 다른 모니터링 장치들로부터 수집된 정보를 더 포함하는 모니터링 정보를 사용자에게 제공하는 예를 도시한 것이다.
본 발명의 실시 예에 따른 모니터링 디바이스(100)의 제어부(180)는 적어도 하나의 다른 모니터링 기기가 있는 경우, 상기 오브젝트(200) 및 오브젝트(200)의 주변을 감지한 결과에 근거하여 상기 적어도 하나의 다른 모니터링 기기로부터 감지되는 신호를 수집할 수 있다. 그리고 상기 수집된 정보를 포함하는 모니터링 정보를 사용자의 이동 단말기(300)에 전송할 수 있다.
예를 들어, 도 8의 (a)에서 보이고 있는 것과 같이, 본 발명의 실시 예에 따른 모니터링 디바이스(100) 주변에 CCTV(810), 초인종(820)에 구비된 카메라 등의 다른 모니터링 기기가 있는 경우, 제어부(180)는 이러한 다른 모니터링 기기에서 감지된 정보를 수집할 수 있다. 즉, 도 8의 (a)에서 보이고 있는 것과 같이, 오브젝트(200) 주변에서 대상체(800)가 감지되는 상태에서, 기 설정된 상황, 예를 들어 진동이나 소음, 충격이 감지되는 상황 또는 상기 대상체(800)가 기 설정된 시간 이상 상기 오브젝트(200) 주변에 머무르는 상황이 발생하는 경우, 제어부(180)는 상기 대상체(900)가 감지된 방향, 즉 오브젝트의 후면 방향의 영상을 수신하는 제2 카메라(121b)를 이용하여 상기 대상체(800)의 영상을 저장할 수 있다.
한편 이러한 경우, 제어부(180)는 모니터링 디바이스(100) 주변의 다른 모니터링 기기들, 즉 CCTV(810), 초인종(820)으로부터 수신되는 정보들을 같이 수집할 수 있다. 이러한 경우, 제어부(180)는 상기 다른 모니터링 기기들(810, 920)로부터 수집된 정보들을 더 포함하는 모니터링 정보를 생성할 수 있으며, 생성된 모니터링 정보는 사용자의 이동 단말기(300)로 전달될 수 있다.
이에 따라 사용자의 이동 단말기(300)에는, 도 8의 (b)에서 보이고 있는 것처럼 상기 대상체(800)를 다양한 각도에서 촬영한 영상이 제공될 수 있다. 이러한 경우, 이동 단말기(300)의, 제어부는 사용자의 선택에 따라, 제2 카메라(121b)에서 촬영된 영상(852) 및 상기 다른 모니터링 기기들(810, 920)로부터 촬영된 영상들(854, 856)이 각각 구분되어 표시될 수 있다. 그리고 상기 제2 카메라(121b) 및, 다른 모니터링 기기들(810, 820)로부터 촬영된 영상들은, 사용자의 선택에 따라 경찰서 또는 경비실에 제공될 수도 있다.
한편 상기 도 8에서는, 사용자의 이동 단말기(300)에 제공되는 모니터링 정보가 단지 오브젝트(200) 후면에 위치한 다른 모니터링 기기들로부터 수집된 정보들을 포함되는 예를 보였으나, 이와는 달리 상기 오브젝트(200) 전면에 위치한 다른 모니터링 기기들이 있는 경우, 이러한 기기들로부터 수집되는 정보들을 더 포함할 수도 있음은 물론이다. 이러한 경우 상기 모니터링 정보를 수신한 이동 단말기(300)는 상기 오브젝트의 전면, 즉 실내의 상황을 감지하는 모니터링 기기들 및 상기 오브젝트의 후면, 즉 실외의 상황을 감지하는 촬영하는 모니터링 기기들로부터 촬영된 영상들을 각각 구분하여 디스플레이부 상에 표시할 수도 있다.
또한 상술한 설명에서는, 본 발명의 실시 예에 따른 모니터링 디바이스(100)가 오브젝트(200)의 전면에 장착되는 것을 예로 들어 설명하였으나, 이는 본 발명의 실시 예에 불과할 뿐 본 발명이 이에 국한되는 것은 아니다. 즉, 상기 모니터링 디바이스(100)는 상기 도 2a 및 2b에서 보이고 있는 것과는 달리, 오브젝트(200)의 후면에 장착될 수도 있으며, 이러한 경우 상기 모니터링 디바이스(100)의 디스플레이부(151)가 식별가능하게 장착되는 부분이, 상기 오브젝트(200)의 전면이 아니라 후면일 수도 있다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 단말기의 제어부(180)를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.

Claims (20)

  1. 전면과 후면을 구비하는 오브젝트의 어느 한 면에 장착되는 디바이스 본체;
    상기 디바이스에 구비되며, 상기 오브젝트의 전면이 향하는 방향 및, 상기 오브젝트의 후면이 향하는 방향의 영상을 수신하는 적어도 두 개의 카메라;
    상기 오브젝트 및 상기 오브젝트 주변의 상황을 감지하는 감지부; 및,
    상기 오브젝트에 일정 거리 이내로 접근한 대상체가 있는 경우 상기 카메라들 중 적어도 하나를 촬영 대기 모드로 구동하고, 상기 감지부의 감지 결과 기 설정된 상황이 발생하면 상기 적어도 하나의 카메라를 촬영 활성화 모드로 전환 및, 상기 적어도 하나의 카메라에서 수신되는 영상과 상기 감지부의 감지 결과 중 적어도 하나를 이용하여 현재 발생된 상황에 대응되는 기능을 수행하는 제어부를 포함하는 것을 특징으로 하는 모니터링 디바이스.
  2. 제1항에 있어서, 상기 제어부는,
    상기 적어도 하나의 카메라로부터 수신되는 영상과 상기 감지 결과 중 적어도 하나를 기 설정된 다른 단말기에 전송하고,
    상기 다른 단말기로부터 전송되는 제어 신호에 따른 기능을 수행하는 것을 특징으로 하는 모니터링 디바이스.
  3. 제2항에 있어서, 상기 제어 신호에 따른 수행되는 기능은,
    상기 모니터링 디바이스에 저장된 복수의 오디오 데이터 중 상기 제어 신호에 따른 적어도 하나를 출력하는 기능임을 특징으로 하는 모니터링 디바이스.
  4. 제3항에 있어서, 상기 제어부는,
    상기 제어 신호에 따라 상기 저장된 복수의 오디오 데이터 중 적어도 일부를 선택하고, 선택된 복수의 오디오 데이터를 동시에 출력하는 것을 특징으로 하는 모니터링 디바이스.
  5. 제3항에 있어서, 상기 제어부는,
    상기 적어도 하나의 오디오 데이터를, 상기 모니터링 디바이스에 구비된 복수의 음향 출력부를 이용하여 스테레오 방식으로 출력하는 것을 특징으로 하는 모니터링 디바이스.
  6. 제2항에 있어서,
    상기 기 설정된 다른 단말기는,
    사용자의 음성 신호를 입력받고,
    상기 제어 신호는,
    상기 다른 단말기를 통해 입력된 사용자의 음성 신호가 출력되도록 상기 모니터링 디바이스를 제어하는 신호임을 특징으로 하는 모니터링 디바이스.
  7. 제2항에 있어서, 상기 제어부는,
    상기 오브젝트의 전면 및 후면 모두로부터 일정 거리 이내에 접근한 대상체들이 있는 경우, 상기 적어도 두 개의 카메라 모두에서 감지되는 영상들을 상기 다른 단말기에 전송하는 것을 특징으로 하는 모니터링 디바이스.
  8. 제2항에 있어서, 상기 제어부는,
    상기 모니터링 디바이스 주변에 위치한 적어도 하나의 다른 모니터링 기기가 있는 경우, 상기 기 설정된 상황의 발생 시에, 상기 다른 모니터링 기기로부터 감지된 정보를 더 수집하여 상기 다른 단말기에 전송하는 것을 특징으로 하는 모니터링 디바이스.
  9. 제2항에 있어서, 상기 제어부는,
    상기 적어도 하나의 카메라로부터 수신되는 영상과 상기 감지 결과가 상기 다른 단말기에 전송된 후, 상기 다른 단말기로부터 기 설정된 시간 이내에 상기 제어 신호가 수신되지 않으면 상기 발생된 상황에 대응되는 기능을 자동으로 수행하는 것을 특징으로 하는 모니터링 디바이스.
  10. 제9항에 있어서, 상기 자동으로 수행되는 기능은,
    기 저장된 오디오 데이터들 중 적어도 하나를 출력하는 기능, 또는 상기 적어도 하나의 카메라로부터 수신되는 영상 및 상기 감지 결과를 포함하는 정보를 기 설정된 연락처에 따라 전송하는 기능임을 특징으로 하는 모니터링 디바이스.
  11. 제2항에 있어서, 상기 제어부는,
    상기 다른 단말기의 위치에 근거하여, 사용자의 외출 여부를 인식하고,
    상기 사용자가 외출하는 것으로 인식되는 경우, 연결가능한 적어도 하나의 가전기기의 상태에 대한 정보를 상기 모니터링 디바이스에 구비된 디스플레이부를 통해 표시하는 것을 특징으로 하는 모니터링 디바이스.
  12. 제11항에 있어서, 상기 제어부는,
    상기 디스플레이부 상에 그 상태가 표시된 상기 적어도 하나의 가전기기의 전원 상태를, 상기 디스플레이부 상에 가해지는 사용자의 입력에 근거하여 제어하는 것을 특징으로 하는 모니터링 디바이스.
  13. 제1항에 있어서, 상기 제어부는,
    상기 감지부의 감지 결과, 기 설정된 수준 이상의 소음, 진동 또는 충격 중 적어도 하나가 상기 오브젝트 및 상기 오브젝트 주변에서 감지되는 경우, 상기 기 설정된 상황이 발생된 것으로 판단하는 것을 특징으로 하는 모니터링 디바이스.
  14. 제13항에 있어서, 상기 제어부는,
    상기 감지된 소음, 충격, 및 진동 중 적어도 하나와 관련된 정보를, 상기 적어도 하나의 카메라에서 수신된 영상과 함께 기 설정된 적어도 하나의 다른 단말기에 전송하는 것을 특징으로 하는 모니터링 디바이스.
  15. 제14항에 있어서, 상기 다른 단말기는,
    상기 모니터링 디바이스로부터 수신된 정보에, 상기 감지된 소음, 충격, 및 진동 중 적어도 하나와 관련된 정보가 포함되어 있는 경우, 상기 소음, 충격 및 진동 중 적어도 하나에 대응되는 음향 신호 및 진동 중 적어도 하나를, 상기 적어도 하나의 카메라에서 수신된 영상과 함께 출력하는 것을 특징으로 하는 모니터링 디바이스.
  16. 제1항에 있어서, 상기 제어부는,
    상기 감지부의 감지 결과, 기 설정된 시간 이상 상기 대상체가 상기 오브젝트로부터 기 설정된 거리 이내에서 감지되는 경우, 상기 기 설정된 상황이 발생된 것으로 판단하는 것을 특징으로 하는 모니터링 디바이스.
  17. 제1항에 있어서,
    화상 정보를 포함하는 디스플레이부를 더 포함하며, 상기 디스플레이부가 상기 오브젝트의 전면 또는 후면 중 어느 하나의 면에 식별 가능하도록 상기 오브젝트에 장착되고,
    상기 제어부는,
    상기 모니터링 디바이스가 장착된 상기 오브젝트 면의 반대쪽 면이 향하는 방향의 영상을, 상기 카메라들 중 어느 하나로부터 수신하여 상기 디스플레이부에 표시하는 것을 특징으로 하는 모니터링 디바이스.
  18. 제1항에 있어서, 상기 제어부는,
    상기 감지부의 감지 결과, 상기 오브젝트의 전면 또는 후면 중 어느 하나에 일정 거리 이내로 접근한 상기 대상체가 있는 경우, 상기 카메라들 중 상기 대상체가 위치한 방향의 영상을 수신하는 카메라를 촬영 대기 모드로 전환하고,
    상기 기 설정된 상황이 발생하는 경우, 상기 촬영 대기 모드로 전환된 카메라로부터 수신되는 영상을 저장하는 것을 특징으로 하는 모니터링 디바이스.
  19. 제1항에 있어서, 상기 모니터링 디바이스는,
    스마트 폰(smart phone), PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 태블릿 PC(tablet PC) 중 어느 하나임을 특징으로 하는 모니터링 디바이스.
  20. 오브젝트의 전면 또는 후면에 장착되어 상기 오브젝트 및 오브젝트의 주변 상황을 감지할 수 있는 모니터링 디바이스를 제어하는 방법에 있어서,
    상기 오브젝트의 전면 또는 후면 중 적어도 하나에 기 설정된 거리 이내로 접근한 대상체가 있는지 여부를 감지하는 단계;
    상기 감지 결과에 따라, 상기 오브젝트의 전면 또는 후면 방향의 영상을 수신하기 위한 적어도 두 개의 카메라 중 적어도 하나를 촬영대기 모드로 전환하는 단계;
    상기 오브젝트 및 상기 오브젝트 주변의 상황을 감지한 결과에 근거하여, 기 설정된 상황이 발생하였는지 여부를 판단하는 단계; 및,
    상기 판단 결과에 근거하여, 상기 적어도 하나의 카메라에서 수신되는 영상 및, 상기 오브젝트 및 상기 오브젝트 주변을 감지한 결과 중 적어도 하나를 이용하여 현재 발생된 상황에 대응되는 기능을 수행하는 단계를 포함하며,
    상기 기 설정된 상황은,
    기 설정된 수준 이상의 소음이 발생한 상황, 상기 오브젝트로부터 감지되는 기 설정된 수준 이상의 충격이나 진동이 발생한 상황 또는 상기 대상체가 상기 오브젝트로부터 기 설정된 거리 이내에서 기 설정된 시간 이상 감지되는 상황임을 특징으로 하는 모니터링 디바이스의 제어 방법.
PCT/KR2014/010135 2014-10-27 2014-10-27 모니터링 장치 및 그 장치의 제어 방법 WO2016068350A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US15/522,053 US10582161B2 (en) 2014-10-27 2014-10-27 Monitoring apparatus and controlling method therefor
KR1020177007509A KR101969804B1 (ko) 2014-10-27 2014-10-27 모니터링 장치 및 그 장치의 제어 방법
PCT/KR2014/010135 WO2016068350A1 (ko) 2014-10-27 2014-10-27 모니터링 장치 및 그 장치의 제어 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2014/010135 WO2016068350A1 (ko) 2014-10-27 2014-10-27 모니터링 장치 및 그 장치의 제어 방법

Publications (1)

Publication Number Publication Date
WO2016068350A1 true WO2016068350A1 (ko) 2016-05-06

Family

ID=55857681

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2014/010135 WO2016068350A1 (ko) 2014-10-27 2014-10-27 모니터링 장치 및 그 장치의 제어 방법

Country Status (3)

Country Link
US (1) US10582161B2 (ko)
KR (1) KR101969804B1 (ko)
WO (1) WO2016068350A1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016168667A1 (en) * 2015-04-16 2016-10-20 Offender Smartphone Monitoring, LLC Monitoring process
KR102019863B1 (ko) * 2018-06-29 2019-09-10 주식회사 새론다이내믹스 드론을 이용한 사용자 안전 확보방법 및 그를 위한 시스템
US10943419B2 (en) * 2019-02-15 2021-03-09 Nec Corporation Physical structure, state machine, and concepts of a RFID walk-through gate
KR102241027B1 (ko) * 2019-12-30 2021-04-15 박용덕 착탈식 가정용 블랙박스

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070115354A (ko) * 2006-06-02 2007-12-06 김기석 경보장치가 구비된 벽걸이 수족관 및 그 경보장치를 이용한 외부 침입자 감지방법
KR20110077874A (ko) * 2009-12-30 2011-07-07 (주)골드레이크에스엘 현관문 외부 감시장치
KR20120114489A (ko) * 2011-04-07 2012-10-17 채상우 온라인 블랙박스 인터폰 및 이용방법
US20130057695A1 (en) * 2011-09-07 2013-03-07 Timothy J. Huisking Method and apparatus for unlocking/locking a door and enabling two-way communications with a door security system via a smart phone
KR101425598B1 (ko) * 2013-07-01 2014-08-04 한국지역난방공사 스마트폰을 이용한 주요 설비 모니터링 시스템

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8154581B2 (en) * 2002-10-15 2012-04-10 Revolutionary Concepts, Inc. Audio-video communication system for receiving person at entrance
EP1989693B1 (en) * 2006-02-23 2010-08-11 Robert Bosch GmbH Audio module for a video surveillance system, video surveillance system and method for keeping a plurality of locations under surveillance
US20110292213A1 (en) * 2010-05-26 2011-12-01 Lacey James H Door mountable camera surveillance device and method
US10332059B2 (en) * 2013-03-14 2019-06-25 Google Llc Security scoring in a smart-sensored home
US9065987B2 (en) * 2013-07-26 2015-06-23 SkyBell Technologies, Inc. Doorbell communication systems and methods

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070115354A (ko) * 2006-06-02 2007-12-06 김기석 경보장치가 구비된 벽걸이 수족관 및 그 경보장치를 이용한 외부 침입자 감지방법
KR20110077874A (ko) * 2009-12-30 2011-07-07 (주)골드레이크에스엘 현관문 외부 감시장치
KR20120114489A (ko) * 2011-04-07 2012-10-17 채상우 온라인 블랙박스 인터폰 및 이용방법
US20130057695A1 (en) * 2011-09-07 2013-03-07 Timothy J. Huisking Method and apparatus for unlocking/locking a door and enabling two-way communications with a door security system via a smart phone
KR101425598B1 (ko) * 2013-07-01 2014-08-04 한국지역난방공사 스마트폰을 이용한 주요 설비 모니터링 시스템

Also Published As

Publication number Publication date
KR20170077113A (ko) 2017-07-05
US20170318265A1 (en) 2017-11-02
KR101969804B1 (ko) 2019-04-17
US10582161B2 (en) 2020-03-03

Similar Documents

Publication Publication Date Title
WO2016068350A1 (ko) 모니터링 장치 및 그 장치의 제어 방법
US20120051714A1 (en) surveillance and recording device
JP5656304B1 (ja) ホームセキュリティに用いられる監視カメラシステム
JPWO2004032086A1 (ja) ロボットシステムおよび自律走行ロボット
KR20100091758A (ko) 감시기능을 구비하는 이동통신 단말기 및 그 감시방법
WO2015053599A1 (ko) 클라우딩 블랙박스 및 클라우딩 블랙박스의 영상처리방법
CN107666527B (zh) 一种光线感应器组件及其控制方法与移动终端
WO2015186900A1 (ko) 영상 프레임을 이용한 보안 방법, 이를 실행하는 장치 및 이를 저장한 기록 매체
JP2016100791A (ja) 監視システム及び監視システムにおける監視方法
JP2005071064A (ja) ホームセキュリティシステム
JP2011217055A (ja) 画像記録制御装置及び監視システム
WO2015111805A1 (ko) 웨어러블 단말기 및 이를 포함하는 시스템
KR20150041939A (ko) 실시간 이벤트 감지를 통한 도어 감시시스템 및 그 방법
KR101477913B1 (ko) 와이파이를 통한 이벤트 알림 기능을 갖는 차량용 영상운행기록 시스템
JP5536127B2 (ja) 監視装置、監視システム、及び、監視方法
WO2020091441A2 (ko) 가전 기기
AU2009100570A4 (en) A Surveillance and Recording Device
JP2004289625A (ja) カーセキュリティ装置、システム及び方法
KR20060124232A (ko) 이동통신단말기 카메라와 이동통신단말기 내외장형탐지센서를 이용한 침입탐지 및 방범 시스템
JP2011114720A (ja) 外部異常検知機能を有するインターホンシステム
JP5033218B2 (ja) ドアホンシステム
KR20100073671A (ko) 방범 장치
KR102194903B1 (ko) 착탈식 가정용 현관 도어 블랙박스
WO2017003152A1 (en) Apparatus and method for controlling object movement
KR102241027B1 (ko) 착탈식 가정용 블랙박스

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14905186

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20177007509

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15522053

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14905186

Country of ref document: EP

Kind code of ref document: A1