WO2022197005A1 - Audio signal-based device and method for controlling same - Google Patents

Audio signal-based device and method for controlling same Download PDF

Info

Publication number
WO2022197005A1
WO2022197005A1 PCT/KR2022/003292 KR2022003292W WO2022197005A1 WO 2022197005 A1 WO2022197005 A1 WO 2022197005A1 KR 2022003292 W KR2022003292 W KR 2022003292W WO 2022197005 A1 WO2022197005 A1 WO 2022197005A1
Authority
WO
WIPO (PCT)
Prior art keywords
electronic device
whistle
information
sensor
unit
Prior art date
Application number
PCT/KR2022/003292
Other languages
French (fr)
Korean (ko)
Inventor
한윤창
이수빈
박정수
정일영
이돈문
임현기
Original Assignee
주식회사 코클
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020210118288A external-priority patent/KR20220129986A/en
Application filed by 주식회사 코클 filed Critical 주식회사 코클
Publication of WO2022197005A1 publication Critical patent/WO2022197005A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/26Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/90Pitch determination of speech signals

Definitions

  • the present invention relates to a device using an audio signal such as a whistle and a method for controlling the same.
  • Audio identification technology which is one of audio-related processing technologies, is developed for the purpose of detecting whether an audio input is generated from a subject and under what circumstances of the subject.
  • a method for controlling an electronic device using non-verbal audio that can be generated by a human is limitedly applied. For example, simple methods such as turning a light on and off in response to a sound of applause are being used.
  • non-verbal audio such as applause is somewhat limited in containing meaning, so it is difficult to control electronic devices for various purposes.
  • a whistle sound that can be easily generated by a plurality of users may have various features such as pitch, sound change pattern, and melody. Accordingly, if the audio identification technology is applied to the whistle sound generated by the user, it is possible to control the electronic device only with the simple whistle sound without the user speaking.
  • the present invention intends to propose a method of extracting an operation command of an electronic device from a whistle sound generated by a user using an audio identification technology and controlling the electronic device based on the extracted operation command.
  • the present invention relates to a control method of an electronic device including a microphone, a memory, a control unit and a driving unit, comprising the steps of: receiving an audio signal from a user; determining whether the inputted audio signal is a whistle sound; When it is determined that the signal is a whistle sound, the method may include analyzing the characteristics of the whistle sound and controlling the operation of the electronic device using the analysis result.
  • the user can operate the electronic device only by generating a whistling sound, there is an effect that the user's convenience is improved.
  • FIG. 1 is a conceptual diagram illustrating components of an electronic device that is a target of a control method proposed in the present invention.
  • FIG. 2 is a flowchart illustrating a method for controlling an electronic device according to an embodiment of the present invention.
  • 3A and 3B are block diagrams illustrating components of a refrigerator to which the electronic device control method according to the present invention is applied.
  • FIG. 4 is a conceptual diagram illustrating a method of controlling an operation of a refrigerator using a whistle sound.
  • FIG. 5 is a block diagram showing the components of an AI speaker to which the electronic device control method according to the present invention is applied.
  • FIG. 6 is a conceptual diagram illustrating a method of controlling an operation of an AI speaker using a whistle sound.
  • FIG. 1 the components of the electronic device 100 are described.
  • the electronic device 100 described herein is defined as various devices that perform data communication, perform data processing, and perform predetermined operations, such as a refrigerator, artificial intelligence speaker, cleaner, mobile terminal, washing machine, and dryer. can be
  • the electronic device 100 when the electronic device 100 is a mobile terminal, the electronic device 100 includes a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, personal digital assistants (PDA), and a portable terminal (PMP). multimedia player), navigation, slate PC, tablet PC, ultrabook, wearable device, for example, watch-type terminal (smartwatch), glass-type terminal (smart glass) , a head mounted display (HMD), etc. may be included.
  • PDA personal digital assistants
  • PMP portable terminal
  • multimedia player multimedia player
  • slate PC slate PC
  • tablet PC tablet PC
  • ultrabook ultrabook
  • wearable device for example, watch-type terminal (smartwatch), glass-type terminal (smart glass) , a head mounted display (HMD), etc.
  • the electronic device 100 includes a wireless communication unit 110 , an input unit 120 , a sensing unit 140 , an output unit 150 , an interface unit 160 , a memory 170 , a control unit 180 , and a power supply unit 190 . ) and the like.
  • the wireless communication unit 110 of the components, between the electronic device 100 and the wireless communication system, between the electronic device 100 and another electronic device 100, or the electronic device 100 and an external server It may include one or more modules that enable wireless communication between them. Also, the wireless communication unit 110 may include one or more modules for connecting the electronic device 100 to one or more networks.
  • the wireless communication unit 110 may include at least one of a broadcast reception module 111 , a mobile communication module 112 , a wireless Internet module 113 , a short-range communication module 114 , and a location information module 115 . .
  • the input unit 120 includes a camera 121 or an image input unit for inputting an image signal, a microphone 122 or an audio input unit for inputting an audio signal, and a user input unit 123 for receiving information from a user, for example, , a touch key, a push key, etc.).
  • the voice data or image data collected by the input unit 120 may be analyzed and processed as a user's control command.
  • the sensing unit 140 may include one or more sensors for sensing at least one of information in the collection device, surrounding environment information surrounding the collection device, and user information.
  • the sensing unit 140 may include a proximity sensor 141, an illumination sensor 142, an illumination sensor, a touch sensor, an acceleration sensor, a magnetic sensor, and gravity.
  • G-sensor gyroscope sensor
  • motion sensor RGB sensor
  • infrared sensor IR sensor: infrared sensor
  • fingerprint sensor fingerprint sensor
  • ultrasonic sensor ultrasonic sensor
  • optical sensors eg, cameras (see 121)
  • microphones see 122
  • battery gauges environmental sensors (eg, barometers, hygrometers, thermometers, radiation sensors, It may include at least one of a thermal sensor, a gas sensor, etc.) and a chemical sensor (eg, an electronic nose, a healthcare sensor, a biometric sensor, etc.).
  • the output unit 150 is for generating an output related to visual, auditory or tactile sense, and includes at least one of a display unit 151 , a sound output unit 152 , a haptip module 153 , and an optical output unit 154 . can do.
  • the display unit 151 may implement a touch screen by forming a layer structure with the touch sensor or being formed integrally with the touch sensor. Such a touch screen may function as the user input unit 123 providing an input interface between the electronic device 100 and the user, and may provide an output interface between the electronic device 100 and the user.
  • the interface unit 160 serves as a passage with various types of external devices connected to the electronic device 100 .
  • Such an interface unit 160 a wired / wireless headset port (port), an external charger port (port), a wired / wireless data port (port), a memory card (memory card) port, for connecting a device equipped with an identification module It may include at least one of a port, an audio I/O (Input/Output) port, a video I/O (Input/Output) port, and an earphone port.
  • the electronic device 100 may perform appropriate control related to the connected external device.
  • the memory 170 stores data supporting various functions of the electronic device 100 .
  • the memory 170 may store a plurality of application programs (or applications) driven in the electronic device 100 , data for operation of the electronic device 100 , and commands. At least some of these application programs may be downloaded from an external server through wireless communication. In addition, at least some of these application programs may exist on the electronic device 100 from the time of shipment for basic functions (eg, incoming calls, outgoing functions, message reception, and outgoing functions) of the electronic device 100 . Meanwhile, the application program may be stored in the memory 170 , installed on the electronic device 100 , and driven to perform an operation (or function) of the audio analysis information collecting device by the controller 180 .
  • the controller 180 In addition to the operation related to the application program, the controller 180 generally controls the overall operation of the electronic device 100 .
  • the controller 180 may provide or process appropriate information or functions to the user by processing signals, data, information, etc. input or output through the above-described components or by driving an application program stored in the memory 170 .
  • controller 180 may control at least some of the components discussed with reference to FIG. 1 in order to drive an application program stored in the memory 170 . Furthermore, in order to drive the application program, the controller 180 may operate at least two or more of the components included in the electronic device 100 in combination with each other.
  • the power supply unit 190 receives external power and internal power under the control of the control unit 180 to supply power to each component included in the electronic device 100 .
  • the power supply unit 190 includes a battery, and the battery may be a built-in battery or a replaceable battery.
  • At least some of the respective components may operate in cooperation with each other to implement the operation, control, or control method of the apparatus for collecting audio analysis information according to various embodiments to be described below.
  • the operation, control, or control method of the audio analysis information collecting apparatus may be implemented on the audio analysis information collecting apparatus by driving at least one application program stored in the memory 170 .
  • the broadcast reception module 111 of the wireless communication unit 110 receives a broadcast signal and/or broadcast related information from an external broadcast management server through a broadcast channel.
  • the broadcast channel may include a satellite channel and a terrestrial channel.
  • Two or more of the broadcast reception modules may be provided in the electronic device 100 for simultaneous broadcast reception or broadcast channel switching for at least two broadcast channels.
  • Mobile communication module 112 the technical standards or communication methods for mobile communication (eg, Global System for Mobile communication (GSM), Code Division Multi Access (CDMA), Code Division Multi Access 2000 (CDMA2000), EV -DO (Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA (Wideband CDMA), HSDPA (High Speed Downlink Packet Access), HSUPA (High Speed Uplink Packet Access), LTE (Long Term Evolution), LTE-A (Long Term Evolution-Advanced, etc.) transmits and receives radio signals to and from at least one of a base station, an external terminal, and a server on a mobile communication network constructed according to (Long Term Evolution-Advanced).
  • GSM Global System for Mobile communication
  • CDMA Code Division Multi Access
  • CDMA2000 Code Division Multi Access 2000
  • EV -DO Enhanced Voice-Data Optimized or Enhanced Voice-Data Only
  • WCDMA Wideband CDMA
  • HSDPA High Speed Downlink Packet Access
  • HSUPA High Speed
  • the wireless signal may include various types of data according to transmission/reception of a voice call signal, a video call signal, or a text/multimedia message.
  • the wireless Internet module 113 refers to a module for wireless Internet access, and may be built-in or external to the electronic device 100 .
  • the wireless Internet module 113 is configured to transmit and receive wireless signals in a communication network according to wireless Internet technologies.
  • wireless Internet technology for example, WLAN (Wireless LAN), Wi-Fi (Wireless-Fidelity), Wi-Fi (Wireless Fidelity) Direct, DLNA (Digital Living Network Alliance), WiBro (Wireless Broadband), WiMAX (World Interoperability for Microwave Access), High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), Long Term Evolution (LTE), Long Term Evolution-Advanced (LTE-A), etc.
  • the wireless Internet module ( 113) transmits and receives data according to at least one wireless Internet technology within a range including Internet technologies not listed above.
  • the wireless Internet module 113 performs wireless Internet access through the mobile communication network.
  • the wireless Internet module 113 may be understood as a type of the mobile communication module 112 .
  • Short-range communication module 114 is for short-range communication, Bluetooth (Bluetooth), RFID (Radio Frequency Identification), infrared communication (Infrared Data Association; IrDA), UWB (Ultra Wideband), ZigBee, NFC Short-distance communication may be supported by using at least one of (Near Field Communication), Wireless-Fidelity (Wi-Fi), Wi-Fi Direct, and Wireless Universal Serial Bus (USB) technologies.
  • the short-distance communication module 114, between the electronic device 100 and the wireless communication system, between the electronic device 100 and the other electronic device 100, or the electronic device 100 through a wireless local area network (Wireless Area Networks) ) and a network in which another terminal (or external server) is located can support wireless communication.
  • the local area network may be local area networks (Wireless Personal Area Networks).
  • another terminal is a wearable device capable of exchanging (or interworking) data with the electronic device 100 according to the present invention, for example, a smart watch, a smart glass.
  • the short-range communication module 114 may detect (or recognize) a wearable device capable of communicating with the electronic device 100 in the vicinity of the electronic device 100 .
  • the controller 180 transmits at least a portion of data processed by the electronic device 100 to the short-range communication module ( 114) to transmit to the wearable device. Accordingly, the user of the wearable device may use data processed by the electronic device 100 through the wearable device.
  • the user when a call is received in the electronic device 100, the user performs a phone call through the wearable device, or when a message is received in the electronic device 100, the user receives the received call through the wearable device. It is possible to check the message.
  • the location information module 115 is a module for acquiring a location (or current location) of a mobile terminal, and a representative example thereof includes a Global Positioning System (GPS) module or a Wireless Fidelity (WiFi) module.
  • GPS Global Positioning System
  • WiFi Wireless Fidelity
  • the audio analysis information collecting device utilizes a GPS module, it may acquire the location of the audio analysis information collecting device using a signal transmitted from a GPS satellite.
  • the location of the audio analysis information collecting device is based on the Wi-Fi module and the information of the wireless AP (Wireless Access Point) that transmits or receives the wireless signal. can be obtained.
  • Wi-Fi Wireless Fidelity
  • the location information module 115 may perform any function of other modules of the wireless communication unit 110 in order to obtain data on the location of the audio analysis information collecting device as a substitute or additionally.
  • the location information module 115 is a module used to obtain the location (or current location) of the audio analysis information collecting device, and is not limited to a module that directly calculates or obtains the location of the audio analysis information collecting device.
  • the input unit 120 is for input of image information (or signal), audio information (or signal), data, or information input from a user.
  • the electronic device 100 is one Alternatively, a plurality of cameras 121 may be provided.
  • the camera 121 processes an image frame such as a still image or a moving image obtained by an image sensor in a video call mode or a shooting mode.
  • the processed image frame may be displayed on the display unit 151 or stored in the memory 170 .
  • the plurality of cameras 121 provided in the electronic device 100 may be arranged to form a matrix structure, and through the cameras 121 forming the matrix structure as described above, various angles or focal points are applied to the electronic device 100 .
  • a plurality of image information having a plurality of images may be input.
  • the plurality of cameras 121 may be arranged in a stereo structure to acquire a left image and a right image for realizing a stereoscopic image.
  • the microphone 122 processes an external sound signal as electrical voice data.
  • the processed voice data may be utilized in various ways according to a function (or a running application program) being performed by the electronic device 100 .
  • various noise removal algorithms for removing noise generated in the process of receiving an external sound signal may be implemented in the microphone 122 .
  • the user input unit 123 is for receiving information from a user, and when information is input through the user input unit 123 , the controller 180 may control the operation of the electronic device 100 to correspond to the input information.
  • the user input unit 123 is a mechanical input means (or a mechanical key, for example, a button located on the front or back or sides of the electronic device 100 , a dome switch, a jog wheel, and a jog). switch, etc.) and a touch input means.
  • the touch input means consists of a virtual key, a soft key, or a visual key displayed on the touch screen through software processing, or a part other than the touch screen. It may be made of a touch key (touch key) disposed on the.
  • the virtual key or the visual key it is possible to be displayed on the touch screen while having various forms, for example, graphic (graphic), text (text), icon (icon), video (video) or these can be made by a combination of
  • the sensing unit 140 senses at least one of information in the collection device, surrounding environment information surrounding the collection device, and user information, and generates a sensing signal corresponding thereto.
  • the controller 180 may control the driving or operation of the electronic device 100 or perform data processing, functions, or operations related to an application program installed in the electronic device 100 based on the sensing signal. Representative sensors among various sensors that may be included in the sensing unit 140 will be described in more detail.
  • the proximity sensor 141 refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object existing in the vicinity without mechanical contact using the force of an electromagnetic field or infrared rays.
  • the proximity sensor 141 may be disposed in an inner region of the collection device covered by the touch screen as described above or in the vicinity of the touch screen.
  • the proximity sensor 141 examples include a transmission type photoelectric sensor, a direct reflection type photoelectric sensor, a mirror reflection type photoelectric sensor, a high frequency oscillation type proximity sensor, a capacitive type proximity sensor, a magnetic type proximity sensor, an infrared proximity sensor, and the like.
  • the proximity sensor 141 may be configured to detect the proximity of an object having conductivity by a change in an electric field according to the proximity of the object.
  • the touch screen (or touch sensor) itself may be classified as a proximity sensor.
  • the act of approaching an object on the touch screen without contacting it so that the object is recognized that it is located on the touch screen is called “proximity touch”, and the touch The act of actually touching an object on the screen is called “contact touch”.
  • the position where the object is touched in proximity on the touch screen means a position where the object is perpendicular to the touch screen when the object is touched in proximity.
  • the proximity sensor 141 may detect a proximity touch and a proximity touch pattern (eg, proximity touch distance, proximity touch direction, proximity touch speed, proximity touch time, proximity touch position, proximity touch movement state, etc.) have.
  • the controller 180 processes data (or information) corresponding to the proximity touch operation and the proximity touch pattern sensed through the proximity sensor 141 as described above, and furthermore, provides visual information corresponding to the processed data. It can be printed on the touch screen. Furthermore, the controller 180 may control the electronic device 100 to process different operations or data (or information) according to whether a touch to the same point on the touch screen is a proximity touch or a contact touch. .
  • the touch sensor receives a touch (or touch input) applied to the touch screen (or the display unit 151) using at least one of various touch methods such as a resistive film method, a capacitive method, an infrared method, an ultrasonic method, and a magnetic field method. detect a touch (or touch input) applied to the touch screen (or the display unit 151) using at least one of various touch methods such as a resistive film method, a capacitive method, an infrared method, an ultrasonic method, and a magnetic field method. detect
  • the touch sensor may be configured to convert a change in pressure applied to a specific part of the touch screen or a change in capacitance occurring in a specific part of the touch screen into an electrical input signal.
  • the touch sensor may be configured to detect a position, an area, a pressure at the time of touch, capacitance at the time of touch, and the like where a touch object applying a touch on the touch screen is touched on the touch sensor.
  • the touch object is an object that applies a touch to the touch sensor, and may be, for example, a finger, a touch pen, a stylus pen, or a pointer.
  • the touch controller processes the signal(s) and then transmits corresponding data to the controller 180 . Accordingly, the controller 180 can know which area of the display unit 151 has been touched, and the like.
  • the touch controller may be a component separate from the controller 180 , or may be the controller 180 itself.
  • the controller 180 may perform different controls or may perform the same control according to the type of the touch object that touches the touch screen (or a touch key provided in addition to the touch screen). Whether to perform different control or the same control according to the type of the touch object may be determined according to the current operating state of the electronic device 100 or a running application program.
  • the above-described touch sensor and proximity sensor independently or in combination, a short (or tap) touch on the touch screen (short touch), long touch (long touch), multi touch (multi touch), drag touch (drag touch) ), flick touch, pinch-in touch, pinch-out touch, swype touch, hovering touch, etc. It can sense touch.
  • the ultrasonic sensor may recognize location information of a sensing target by using ultrasonic waves.
  • the controller 180 may calculate the position of the wave source based on information sensed by the optical sensor and the plurality of ultrasonic sensors.
  • the position of the wave source may be calculated using the property that light is much faster than ultrasonic waves, that is, the time at which light arrives at the optical sensor is much faster than the time at which ultrasonic waves reach the ultrasonic sensor. More specifically, the position of the wave source may be calculated by using a time difference from the time that the ultrasonic wave arrives using light as a reference signal.
  • the camera 121 as seen in the configuration of the input unit 120 includes at least one of a camera sensor (eg, CCD, CMOS, etc.), a photo sensor (or an image sensor), and a laser sensor.
  • a camera sensor eg, CCD, CMOS, etc.
  • a photo sensor or an image sensor
  • a laser sensor e.g., a laser sensor
  • the camera 121 and the laser sensor may be combined with each other to detect a touch of a sensing target for a 3D stereoscopic image.
  • the photo sensor may be stacked on the display device, and the photo sensor is configured to scan the motion of the sensing target close to the touch screen. More specifically, the photo sensor mounts photo diodes and transistors (TRs) in rows/columns and scans the contents placed on the photo sensor using electrical signals that change according to the amount of light applied to the photo diodes. That is, the photo sensor calculates the coordinates of the sensing target according to the amount of change in light, and through this, location information of the sensing target can be obtained.
  • TRs photo diodes and transistors
  • the display unit 151 displays (outputs) information processed by the electronic device 100 .
  • the display unit 151 may display execution screen information of an application program driven in the electronic device 100 or UI (User Interface) and GUI (Graphic User Interface) information according to the execution screen information. .
  • the display unit 151 may be configured as a stereoscopic display unit for displaying a stereoscopic image.
  • a three-dimensional display method such as a stereoscopic method (glasses method), an auto stereoscopic method (glassesless method), or a projection method (holographic method) may be applied to the stereoscopic display unit.
  • the sound output unit 152 may output audio data received from the wireless communication unit 110 or stored in the memory 170 in a call signal reception, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, and the like.
  • the sound output unit 152 also outputs a sound signal related to a function (eg, a call signal reception sound, a message reception sound, etc.) performed by the electronic device 100 .
  • the sound output unit 152 may include a receiver, a speaker, a buzzer, and the like.
  • the haptic module 153 generates various tactile effects that the user can feel.
  • a representative example of the tactile effect generated by the haptic module 153 may be vibration.
  • the intensity and pattern of vibration generated by the haptic module 153 may be controlled by a user's selection or setting of the controller. For example, the haptic module 153 may synthesize and output different vibrations or output them sequentially.
  • the haptic module 153 is configured to respond to stimuli such as a pin arrangement that moves vertically with respect to the contact skin surface, a jet or suction force of air through a nozzle or an inlet, a brush against the skin surface, contact of an electrode, an electrostatic force, etc.
  • stimuli such as a pin arrangement that moves vertically with respect to the contact skin surface, a jet or suction force of air through a nozzle or an inlet, a brush against the skin surface, contact of an electrode, an electrostatic force, etc.
  • Various tactile effects can be generated, such as an effect caused by heat absorption and an effect by reproducing a feeling of cold and heat using an element capable of absorbing heat or generating heat.
  • the haptic module 153 may not only deliver a tactile effect through direct contact, but may also be implemented so that the user can feel the tactile effect through a muscle sense such as a finger or arm. Two or more haptic modules 153 may be provided according to the configuration of the electronic device 100 .
  • the light output unit 154 outputs a signal for notifying the occurrence of an event by using the light of the light source of the electronic device 100 .
  • Examples of the event generated in the electronic device 100 may be message reception, call signal reception, missed call, alarm, schedule notification, email reception, information reception through an application, and the like.
  • the signal output by the light output unit 154 is implemented as the collection device emits light of a single color or a plurality of colors toward the front or rear.
  • the signal output may be terminated when the collection device detects the user's event confirmation.
  • the interface unit 160 serves as a passage with all external devices connected to the electronic device 100 .
  • the interface unit 160 receives data from an external device, receives power and transmits it to each component inside the electronic device 100 , or allows data inside the electronic device 100 to be transmitted to an external device.
  • a wired/wireless headset port, an external charger port, a wired/wireless data port, a memory card port, a port for connecting a device equipped with an identification module (port), audio I/O (Input/Output) port (port), video I/O (Input/Output) port (port), earphone port (port), etc. may be included in the interface unit 160 .
  • the identification module is a chip that stores various information for authenticating the use authority of the electronic device 100, a user identification module (UIM), a subscriber identity module (subscriber identity module; SIM), universal user authentication It may include a universal subscriber identity module (USIM) and the like.
  • a device equipped with an identification module (hereinafter, 'identification device') may be manufactured in the form of a smart card. Accordingly, the identification device may be connected to the terminal 100 through the interface unit 160 .
  • the interface unit 160 is a passage through which power from the cradle is supplied to the electronic device 100 when the electronic device 100 is connected to an external cradle, or is input from the cradle by a user. It may be a path through which various command signals are transmitted to the electronic device 100 . Various command signals or the power input from the cradle may be operated as signals for recognizing that the electronic device 100 is correctly mounted on the cradle.
  • the memory 170 may store a program for the operation of the controller 180 and may temporarily store input/output data (eg, a phone book, a message, a still image, a moving picture, etc.).
  • the memory 170 may store data related to vibrations and sounds of various patterns output when a touch input is performed on the touch screen.
  • Memory 170 is a flash memory type (flash memory type), a hard disk type (hard disk type), an SSD type (Solid State Disk type), an SDD type (Silicon Disk Drive type), a multimedia card micro type ), card-type memory (such as SD or XD memory), random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), electrically erasable programmable read (EEPROM) -only memory), a programmable read-only memory (PROM), a magnetic memory, a magnetic disk, and an optical disk may include at least one type of storage medium.
  • the electronic device 100 may be operated in relation to a web storage that performs a storage function of the memory 170 on the Internet.
  • the controller 180 controls the operation related to the application program and the general operation of the electronic device 100 . For example, if the state of the collection device satisfies a set condition, the controller 180 may execute or release a lock state that restricts input of a user's control command to applications.
  • the controller 180 performs control and processing related to voice calls, data communication, video calls, etc., or performs pattern recognition processing capable of recognizing handwriting input or drawing input performed on the touch screen as characters and images, respectively.
  • the controller 180 may control any one or a plurality of the components described above by combining them.
  • the power supply unit 190 receives external power and internal power under the control of the control unit 180 to supply power required for operation of each component.
  • the power supply unit 190 includes a battery, and the battery may be a built-in battery configured to be rechargeable, and may be detachably coupled to the terminal body for charging or the like.
  • the power supply unit 190 may include a connection port, and the connection port may be configured as an example of the interface 160 to which an external charger that supplies power for charging the battery is electrically connected.
  • the power supply unit 190 may be configured to charge the battery in a wireless manner without using the connection port.
  • the power supply unit 190 using one or more of an inductive coupling method based on a magnetic induction phenomenon or a resonance coupling method based on an electromagnetic resonance phenomenon from an external wireless power transmitter. power can be transmitted.
  • the location information module 115 provided in the collecting device is for detecting, calculating, or identifying the location of the collecting device, and representative examples thereof may include a GPS (Global Position System) module and a WiFi (Wireless Fidelity) module. If necessary, the location information module 115 may perform any function of the other modules of the wireless communication unit 110 in order to obtain data on the location of the collection device as a substitute or additionally.
  • GPS Global Position System
  • WiFi Wireless Fidelity
  • the GPS module 115 calculates distance information and accurate time information from three or more satellites, and then applies trigonometry to the calculated information to accurately calculate three-dimensional current location information according to latitude, longitude, and altitude. can do.
  • a method of calculating position and time information using three satellites and correcting errors in the calculated position and time information using another one satellite is widely used.
  • the GPS module 115 may calculate the speed information by continuously calculating the current location in real time.
  • WPS WiFi Positioning System
  • a Wi-Fi positioning system uses a WiFi module provided in the electronic device 100 and a wireless AP (Wireless Access Point) that transmits or receives a wireless signal with the WiFi module, the electronic device 100
  • a wireless AP Wireless Access Point
  • WiFi Wireless Fidelity
  • WLAN wireless local area network
  • the Wi-Fi location tracking system may include a Wi-Fi positioning server, the electronic device 100, a wireless AP connected to the electronic device 100, and a database in which arbitrary wireless AP information is stored.
  • the electronic device 100 connected to the wireless AP may transmit a location information request message to the Wi-Fi location location server.
  • the Wi-Fi positioning server extracts information on the wireless AP connected to the electronic device 100 based on the location information request message (or signal) of the electronic device 100 .
  • the information on the wireless AP connected to the electronic device 100 may be transmitted to the Wi-Fi positioning server through the electronic device 100 or may be transmitted from the wireless AP to the Wi-Fi positioning server.
  • the extracted wireless AP information is MAC Address, Service Set IDentification (SSID), Received Signal Strength Indicator (RSSI), Reference Signal Received Power (RSRP), RSRQ ( Reference Signal Received Quality), channel information, Privacy, Network Type, signal strength, and noise strength may be at least one.
  • SSID Service Set IDentification
  • RSSI Received Signal Strength Indicator
  • RSRP Reference Signal Received Power
  • RSRQ Reference Signal Received Quality
  • channel information Privacy, Network Type, signal strength, and noise strength may be at least one.
  • the Wi-Fi positioning server may receive information on the wireless AP connected to the electronic device 100 and extract wireless AP information corresponding to the wireless AP to which the collection device is connected from a pre-established database.
  • the information of arbitrary wireless APs stored in the database includes MAC Address, SSID, channel information, Privacy, Network Type, latitude and longitude coordinates of the wireless AP, the name of the building where the wireless AP is located, the number of floors, and detailed indoor location information (GPS coordinates). available), the AP owner's address, phone number, and the like.
  • the Wi-Fi positioning server may extract only a predetermined number of wireless AP information in order of increasing RSSI.
  • the Wi-Fi positioning server may extract (or analyze) the location information of the electronic device 100 using at least one wireless AP information extracted from the database. By comparing the included information and the received wireless AP information, the location information of the electronic device 100 is extracted (or analyzed).
  • a Cell-ID method As a method for extracting (or analyzing) the location information of the electronic device 100, a Cell-ID method, a fingerprint method, a triangulation method, a landmark method, etc. may be utilized.
  • the Cell-ID method is a method of determining the location of the wireless AP having the strongest signal strength among the surrounding wireless AP information collected by the collecting device as the location of the collecting device. It has the advantages of being simple to implement, not requiring additional cost, and being able to obtain location information quickly, but has a disadvantage in that positioning accuracy is lowered if the installed density of the wireless AP is low.
  • the fingerprint method is a method of collecting signal strength information by selecting a reference position in a service area, and estimating the position through signal strength information transmitted from a collection device based on the collected information. In order to use the fingerprint method, it is necessary to database the propagation characteristics in advance.
  • the triangulation method is a method of calculating the position of the collecting device based on the coordinates of at least three wireless APs and the distance between the collecting device.
  • the signal strength is converted into distance information, or the time at which the wireless signal is transmitted (Time of Arrival, ToA), the time difference of the signal is transmitted (Time Difference of Arrival, TDoA) , the angle at which the signal is transmitted (Angle of Arrival, AoA), etc. may be used.
  • the landmark method is a method of measuring the location of a collection device using a landmark transmitter that knows the location.
  • various algorithms may be utilized as a method for extracting (or analyzing) the location information of the collection device.
  • the location information of the electronic device 100 extracted in this way is transmitted to the electronic device 100 through the Wi-Fi positioning server, so that the electronic device 100 may obtain the location information.
  • the electronic device 100 may acquire location information by being connected to at least one wireless AP.
  • the number of wireless APs required to acquire the location information of the electronic device 100 may be variously changed according to the wireless communication environment in which the electronic device 100 is located.
  • the collection device includes Bluetooth (Bluetooth), RFID (Radio Frequency Identification), Infrared Data Association (IrDA), UWB (Ultra Wideband), ZigBee, NFC (Near). Field Communication), a short-distance communication technology such as Wireless USB (Wireless Universal Serial Bus) may be applied.
  • Bluetooth Bluetooth
  • RFID Radio Frequency Identification
  • IrDA Infrared Data Association
  • UWB Ultra Wideband
  • ZigBee Ultra Wideband
  • NFC Near
  • Field Communication a short-distance communication technology such as Wireless USB (Wireless Universal Serial Bus) may be applied.
  • the NFC module provided in the collection device supports contactless short-range wireless communication between terminals at a distance of about 10 cm.
  • the NFC module may operate in any one of a card mode, a reader mode, and a P2P mode.
  • the electronic device 100 may further include a security module for storing card information.
  • the security module may be a physical medium such as a Universal Integrated Circuit Card (UICC) (eg, a Subscriber Identification Module (SIM) or a Universal SIM (USIM)), a Secure micro SD, and a sticker, and a logical medium embedded in the collection device ( For example, it may be an embedded secure element (SE).
  • UICC Universal Integrated Circuit Card
  • SIM Subscriber Identification Module
  • USB Universal SIM
  • SE embedded secure element
  • Data exchange based on SWP Single Wire Protocol
  • SWP Single Wire Protocol
  • the collecting device can transmit the stored card information to the outside like a traditional IC card.
  • a collection device for storing card information of a payment card such as a credit card or a bus card
  • a mobile short-distance payment can be processed, and the collection device for storing card information of the access card is approved for access Approaching the flag, the access approval process can begin.
  • Cards such as credit cards, transportation cards, and access cards are loaded in the security module in the form of an applet, and the security module may store card information on the loaded card.
  • the card information of the payment card may be at least one of a card number, balance, and usage history
  • the card information of the access card includes at least one of a user's name, number (eg, user's student number or company number), and access history.
  • a user's name e.g, user's student number or company number
  • access history e.g., access history
  • the collection device may read data from an external tag.
  • the data that the collection device receives from the tag may be coded in a data exchange format (NFC Data Exchange Format) determined by the NFC forum.
  • NFC forum defines four record types. Specifically, the NFC forum defines four Record Type Definitions (RTDs) such as Smart Poster, Text, Uniform Resource Identifier (URI), and General Control.
  • RTDs Record Type Definitions
  • the controller executes a browser (eg, an Internet browser), and when the data received from the tag is a text type, the controller executes a text viewer.
  • the controller executes a browser or makes a call, and when the data received from the tag is a general control type, an appropriate operation may be executed according to the control content.
  • the collecting device may perform P2P communication with another collecting device.
  • a Logical Link Control Protocol (LLCP) may be applied to P2P communication.
  • LLCP Logical Link Control Protocol
  • a connection may be created between a collection device and another collection device.
  • the generated connection may be divided into a connectionless mode in which one packet is exchanged and terminated, and a connection-oriented mode in which packets are continuously exchanged.
  • data such as electronic business cards, contact information, digital photos, URLs, and setup parameters for Bluetooth and Wi-Fi connections may be exchanged.
  • the P2P mode may be effectively utilized for exchanging small-sized data.
  • controller 180 of the electronic device 100 may be equipped with an artificial intelligence engine for performing audio recognition.
  • the artificial intelligence engine mounted on the controller 180 may be configured to identify which audio event the non-verbal audio input corresponds to.
  • the artificial intelligence engine may perform self-learning using training data labeled with a whistle sound and training data labeled with a non-whistle sound. That is, the artificial intelligence engine builds an artificial neural network, receives training data labeled whether a whistle is heard, and uses the input training data to perform machine learning or deep learning to identify whether an unknown input audio signal is a whistle. running can be done.
  • the AI engine may identify a label of the corresponding audio signal, and determine at least one of the height, intensity, and duration of at least a portion of the audio signal identified by the specific label. can be discerned.
  • the sensing unit 140 or the microphone of the electronic device 100 may receive an audio signal from a user ( S201 ).
  • the controller 180 may determine whether the inputted audio signal is a whistle sound (S202).
  • the controller 180 may determine whether the input audio signal is a whistle sound by using a pre-learned artificial intelligence model.
  • the artificial intelligence model may be configured to identify information related to the subject that generated the input audio signal.
  • the artificial intelligence model may be learned by training data labeled for each of the plurality of classes, and may calculate a probability corresponding to each of the plurality of classes with respect to the input audio.
  • the plurality of classes may include a whistle sound.
  • the AI model may be trained by training data labeled as whistling and training data labeled as non-whistle to determine whether the input audio is a whistle.
  • the controller 180 may analyze the characteristics of the whistle sound ( S203 ).
  • the characteristic of the whistle may be related to at least one of a height, a size, and a duration of the whistle.
  • the controller 180 may detect information related to a change in the whistling sound. That is, the controller 180 may detect whether the whistle changes to a high pitch in a low-pitched tone, or, conversely, detects whether the whistle changes into a low-pitched tone in a high-pitched tone.
  • the controller 180 may detect whether the whistle sound is a sound of a specific height. Furthermore, the controller 180 may also detect whether the whistling sound corresponds to a specific melody.
  • the controller 180 determines at least one of the height, intensity, and duration of the whistle sound, and the electronic device ( 100) may perform a process of generating an operation command corresponding to the operation command.
  • the controller 180 detects a change in the height of the whistle and generates an operation command corresponding to the electronic device based on the detected height change. process can be performed.
  • the controller 180 may control the operation of the electronic device 100 using the analysis result ( S204 ).
  • the controller 180 controls the driving unit to perform the first operation of the electronic device when it is sensed that the height of the whistle is increased. a process of controlling the driving unit to perform a second operation of the electronic device when it is sensed that the height of the whistle is reduced 3 A process of controlling the driving unit to perform the operation may be performed.
  • the controller 180 may control the door driving unit to open the door of the refrigerator.
  • the audio-based electronic device control method proposed by the present invention may be applied to a refrigerator.
  • the refrigerator may include a microphone for receiving an audio signal, a control unit that determines whether the input audio signal is a whistle, and a driving unit that operates according to a whistle sound.
  • the driving unit includes a door opening and closing device for opening and closing the door of the refrigerator, and a display for outputting information related to the operation of the refrigerator.
  • the door opening and closing device may include a motor for providing a driving force to a hinge portion of the door, and a guide for limiting the direction of the driving force.
  • the controller may control the door opening and closing device to open the door of the refrigerator. Conversely, the controller may control the door opening and closing device to close the door when the whistling sound changes from a high tone to a low tone.
  • the controller may change the output screen of the display of the refrigerator.
  • the audio-based electronic device control method proposed by the present invention may be applied to IoT devices such as artificial intelligence speakers.
  • an artificial intelligence speaker performs communication with a plurality of devices existing in an installed place, and serves to control operations of the plurality of devices.
  • the artificial intelligence speaker may include a microphone for receiving an audio signal, a controller for processing the audio signal, a memory for storing information related to the audio signal, and a communication unit for transmitting an operation command to the plurality of devices.
  • the controller of the artificial intelligence speaker may generate an operation command corresponding to the first device paired with the artificial intelligence speaker.
  • the controller of the artificial intelligence speaker may generate an operation command corresponding to the second device paired with the artificial intelligence speaker.
  • the control unit of the artificial intelligence speaker may generate operation commands for different devices according to changes in the whistling sound, and may control the operation of each device based on the generated operation commands.
  • the controller of the artificial intelligence speaker may generate different operation commands for one device according to a change in a whistle sound.
  • 3A is a control block diagram of an embodiment according to the present invention.
  • the present invention may include a control unit 300 that manages a single photo taken by the camera 70 by dividing it into a plurality of images.
  • the image may mean a part of the photo processed or corrected by the controller 300 .
  • the controller 300 may command the camera 70 to take a picture, and may receive a picture taken by the camera 70 .
  • control unit 300 may provide a portion of the divided image to the display 14 to provide the user with the latest information about the food stored in the storage compartment 22 .
  • the display 14 may be installed on the front of the refrigerator, or it may be a separate device separated from the refrigerator. That is, it is possible for the user to receive the image related to the storage room 22 through an external communication terminal such as a mobile phone and obtain information.
  • control unit 300 may divide the picture taken by the camera 70 for each area, classify it into a plurality of independent images, and provide it to the display 14 .
  • the photo selected by the control unit 100 may include information about the recent storage room state in which the user last accessed the storage room 22 and took out food from the storage room or put food in it.
  • An embodiment of the present invention may include a door switch 310 capable of detecting whether the door 20 opens or closes the storage compartment 22 .
  • the door switch 310 is provided in the outer case 10 , and when the door 20 comes into contact with the outer case 10 , it is sensed that the door 20 seals the storage chamber 22 . can do. Also, when the door 20 does not contact the outer case 10 , it may be detected that the door 20 opens the storage compartment 22 .
  • an embodiment of the present invention may include a door sensor 320 that detects a rotation angle of the door 20 .
  • the door sensor 320 may detect a rotation direction of the door 20 and a rotation angle of the door 20 .
  • the door sensor 320 can detect that the door 20 is rotated by a certain angle or more. have.
  • the door sensor 320 may be modified in various forms other than the above-described method.
  • the door sensor 320 includes a light emitting unit and a light receiving unit to determine whether the light irradiated from the light emitting unit is transmitted to the light receiving unit, and thus it is also possible to detect the rotation angle of the door 20 .
  • the door sensor 320 may be driven only when the door switch 310 determines that the door 20 has opened the storage compartment 22 .
  • the door sensor 320 determines that the door 20 is rotated at a specific angle, it is also possible to take a picture with the camera 70 . In this case, even if the door switch 310 detects that the door 20 is opened, the camera 70 does not immediately start taking a picture, but takes a picture when the door sensor 320 reaches a specific angle. will be filmed
  • the camera 70 When the camera 70 starts shooting, it is also possible to continuously take pictures at predetermined time intervals. Of course, if the door sensor 320 determines that the door 20 is opened by a certain angle, the camera 70 may continue to take pictures until a command to stop taking pictures is provided, instead of a single picture. do.
  • the control unit 300 may include a drawer detection unit 330 that detects whether the drawer 50 is drawn out or retracted.
  • the drawer detection unit 330 may mean a portion in which the picture taken by the camera 70 reads an image in the control unit 300 .
  • the drawer sensing unit 330 may sense the movement of the drawer 50 as well as the movement direction of the drawer 50 .
  • the drawer sensing unit 330 may be implemented by software.
  • the drawer detection unit 330 may detect the position of the drawer 50 by using information taken from a picture taken by the camera 70 .
  • the drawer 50 is provided with a recognition mark called a marker, and whether the drawer 50 has entered a specific section through the photograph in which the marker is taken, whether it is stopped if it has entered, or whether the movement direction is changed after stopping information can be found about
  • the markers will be described in detail later.
  • the marker Since the marker is marked on the drawer, it has the same movement as the drawer 50 . Accordingly, various information about the movement of the drawer 50 can be obtained by using the information of the picture taken by the camera 70 without a separate sensor for detecting the movement of the drawer.
  • the photo taken by the camera 70 may be stored in the storage unit 18 .
  • the storage unit 18 may be provided in the refrigerator or may be provided in another device separate from the refrigerator.
  • the storage unit 18 may be disposed in the refrigerator together with the display 14, or may be provided in a device other than the refrigerator together with the display 14, a server connected to the refrigerator and a network, or a terminal connected to the refrigerator and the network. have.
  • the storage unit 18 may not store all the photos taken by the camera 70 .
  • the storage unit 18 may delete a previously captured photo and store the currently captured photo (First In). , First Out).
  • the storage unit 18 stores only some of the photos taken by the camera 70, thereby reducing the storage capacity.
  • 3B is a control block diagram of a modified form of an embodiment according to the present invention.
  • the drawer detection unit 330 does not use the information obtained from the picture taken by the camera 70, but separately moves the drawer 50. can detect
  • the drawer sensing unit 330 may have the same shape as a plurality of Hall sensors.
  • a plurality of Hall sensors may be installed in the movement path of the drawer 50 . When the drawer 50 is moved, it is possible to detect a change in a plurality of Hall sensors, respectively, to detect a position and a movement direction of the drawer 50 .
  • the drawer detection unit 330 may detect a point in time at which information about an item stored in the drawer can be expressed in the picture taken by the camera.
  • the drawer sensing unit 330 may detect the movement of the drawer, and may detect a point in time when the user determines that the drawer is in the latest state after using the drawer. That is, the drawer detection unit 330 may detect a point in time including the latest information that the user has finished using the drawer in the picture taken by the camera. That is, it is possible to indirectly grasp the completion time of the arrival and departure of goods or the end time of the update of the goods.
  • FIG. 4 is a conceptual diagram illustrating a method of controlling an operation of a refrigerator using a whistle sound.
  • the user may control the operation of the refrigerator by blowing a whistle.
  • the user may blow a whistle in various ways to control the operation of the refrigerator, and the controller analyzes the manner in which the user blows a whistle, and the refrigerator performs an operation of a preset pattern corresponding to the analysis result.
  • Various methods of blowing the whistle include a method of varying the pitch of the whistle, a method of varying the length of the whistle, a method of varying the strength of the whistle, a method of blowing a specific melody, and the like.
  • the method of changing the pitch may include a method of increasing the height of the sound, decreasing the height of the sound, or maintaining the height of the sound constant, and the method of varying the length of the whistle is short. It may include a method of repeatedly making a long whistle, or a method of making a short or long whistle a predetermined number of times.
  • a method of blowing a specific melody may include a method of blowing a whistle according to the pitch of a note corresponding to a predetermined melody.
  • the user can whistle in more ways by combining the above methods.
  • the operation of the refrigerator corresponding to the method by which the user blows a whistle may include an operation of opening or closing a door of the refrigerator, changing an external display output screen, temperature control and humidity control in the refrigerator or freezer compartment of the refrigerator, humidity control, ice freezing, etc. .
  • the number of doors may be different depending on the structure of the refrigerator, and may include an operation to open or close all the doors or an operation to open or close each door.
  • It may include the operation of changing the displayed information to other information that you want to see or calling specific information, and may include the operation of raising or lowering the temperature or humidity of the freezer or refrigerating compartment of the refrigerator step by step, or changing the operation to a specific level,
  • an operation of freezing the ice may be included.
  • additional functions provided according to the refrigerator may also be operated.
  • the various methods for the user to whistle there may be various methods for the user to whistle, and there may be various operations of the refrigerator corresponding thereto.
  • the various methods of blowing the whistle and the operation of the refrigerator may be matched to perform a preset operation.
  • a method of matching an operation of the refrigerator desired by the user to a specific whistling method and additionally setting an operation of the refrigerator corresponding to the corresponding whistling method may be included.
  • a method in which a plurality of operations are sequentially performed may be included rather than corresponding.
  • FIG. 5 is a block diagram showing the components of an AI speaker to which the electronic device control method according to the present invention is applied.
  • AI speaker 500 is a TV, projector, mobile phone, smartphone, desktop computer, notebook computer, digital broadcasting terminal, PDA (personal digital assistants), PMP (portable multimedia player), navigation, tablet PC, wearable device, set-top box (STB) ), a DMB receiver, a radio, a washing machine, a refrigerator, a desktop computer, a digital signage, a robot, a vehicle, etc.
  • the AI speaker 500 includes a communication unit 510 , an input unit 520 , a learning processor 530 , a sensing unit 540 , an output unit 550 , a memory 570 and a processor 580 , etc. may include
  • the communication unit 510 may transmit/receive data to and from external devices such as other AI devices 500a to 500e or an AI server (not shown) using wired/wireless communication technology.
  • the communication unit 510 may transmit and receive sensor information, a user input, a learning model, a control signal, and the like with external devices.
  • the communication technology used by the communication unit 510 includes Global System for Mobile communication (GSM), Code Division Multi Access (CDMA), Long Term Evolution (LTE), 5G, Wireless LAN (WLAN), and Wireless-Fidelity (Wi-Fi). ), Bluetooth, RFID (Radio Frequency Identification), Infrared Data Association (IrDA), ZigBee, NFC (Near Field Communication), and the like.
  • GSM Global System for Mobile communication
  • CDMA Code Division Multi Access
  • LTE Long Term Evolution
  • 5G Fifth Generation
  • Wi-Fi Wireless-Fidelity
  • Bluetooth Bluetooth
  • RFID Radio Frequency Identification
  • IrDA Infrared Data Association
  • ZigBee ZigBee
  • NFC Near Field Communication
  • the input unit 520 may acquire various types of data.
  • the input unit 520 may include a camera for inputting an image signal, a microphone for receiving an audio signal, a user input unit for receiving information from a user, and the like.
  • a signal obtained from the camera or the microphone may be referred to as sensing data or sensor information.
  • the input unit 520 may acquire training data for model training and input data to be used when acquiring an output using the training model.
  • the input unit 520 may acquire raw input data, and in this case, the processor 580 or the learning processor 530 may extract an input feature by preprocessing the input data.
  • the learning processor 530 may train a model composed of an artificial neural network by using the training data.
  • the learned artificial neural network may be referred to as a learning model.
  • the learning model may be used to infer a result value with respect to new input data other than the training data, and the inferred value may be used as a basis for a decision to perform a certain operation.
  • the learning processor 530 may perform AI processing together with a running processor (not shown) of the AI server.
  • the learning processor 530 may include a memory integrated or implemented in the AI speaker 500 .
  • the learning processor 530 may be implemented using the memory 570 , an external memory directly coupled to the AI speaker 500 , or a memory maintained in an external device.
  • the sensing unit 540 may acquire at least one of internal information of the AI speaker 500 , information about the surrounding environment of the AI speaker 500 , and user information by using various sensors.
  • sensors included in the sensing unit 540 include a proximity sensor, an illuminance sensor, an acceleration sensor, a magnetic sensor, a gyro sensor, an inertial sensor, an RGB sensor, an IR sensor, a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor, a microphone, and a lidar. , radar, etc.
  • the output unit 550 may generate an output related to sight, hearing, or touch.
  • the output unit 550 may include a display unit that outputs visual information, a speaker that outputs auditory information, and a haptic module that outputs tactile information.
  • the memory 570 may store data supporting various functions of the AI speaker 500 .
  • the memory 570 may store input data obtained from the input unit 520 , learning data, a learning model, a learning history, and the like.
  • the processor 580 may determine at least one executable operation of the AI speaker 500 based on information determined or generated using a data analysis algorithm or a machine learning algorithm. In addition, the processor 580 may control the components of the AI speaker 500 to perform the determined operation.
  • the processor 580 may request, search, receive, or utilize the data of the learning processor 530 or the memory 570, and perform a predicted operation or an operation determined to be desirable among the at least one executable operation. It is possible to control the components of the AI speaker 500 to execute.
  • the processor 580 may generate a control signal for controlling the corresponding external device and transmit the generated control signal to the corresponding external device.
  • the processor 580 may obtain intention information with respect to a user input, and determine a user's requirement based on the obtained intention information.
  • the processor 580 uses at least one of a speech to text (STT) engine for converting a voice input into a character string or a natural language processing (NLP) engine for obtaining intention information of a natural language. Intention information corresponding to the input may be obtained.
  • STT speech to text
  • NLP natural language processing
  • At least one of the STT engine and the NLP engine may be configured as an artificial neural network, at least a part of which is learned according to a machine learning algorithm. And, at least one or more of the STT engine or the NLP engine may be learned by the learning processor 530, learned by the learning processor (not shown) of the AI server, or learned by distributed processing thereof. have.
  • the processor 580 collects history information including the user's feedback on the operation contents or operation of the AI speaker 500 and stores it in the memory 570 or the learning processor 530, or to an external device such as an AI server. can be transmitted The collected historical information may be used to update the learning model.
  • the processor 580 may control at least some of the components of the AI speaker 500 in order to drive an application program stored in the memory 570 . Furthermore, the processor 580 may operate by combining two or more of the components included in the AI speaker 500 to drive the application program.
  • FIG. 6 is a conceptual diagram illustrating a method of controlling an operation of an AI speaker using a whistle sound.
  • the user can control the operation of the AI speaker by blowing a whistle.
  • the user can blow a whistle in various ways to control the operation of the AI speaker, and the control unit analyzes how the user blows a whistle, and the AI speaker performs the operation of a preset pattern corresponding to the analysis result.
  • Various methods of blowing the whistle include a method of varying the pitch of the whistle, a method of varying the length of the whistle, a method of varying the strength of the whistle, a method of blowing a specific melody, and the like.
  • the method of changing the pitch may include a method of increasing the height of the sound, decreasing the height of the sound, or maintaining the height of the sound constant, and the method of varying the length of the whistle is short. It may include a method of repeatedly making a long whistle, or a method of making a short or long whistle a predetermined number of times.
  • a method of blowing a specific melody may include a method of blowing a whistle according to the pitch of a note corresponding to a predetermined melody.
  • the user can whistle in more ways by combining the above methods.
  • the operation of the AI speaker corresponding to the method of whistling by the user includes the operation of controlling the power of the AI speaker, the operation of controlling the search function, the operation of controlling the AI speaker when playing music, and the operation of controlling other devices linked to the AI speaker It may include an action to perform, an action to search for a melody, and the like. Specifically, it can include the operation of turning on or off the power of the AI speaker, turning on or off the search function of the corresponding category to search for weather, fine dust, news, etc. It may include an operation to search, and when playing music, control the AI speaker to play, pause, play the next song, play the previous song, repeat one song, random play, set and release the start and end points of section repeat, etc.
  • an additional function provided according to the AI speaker may also be operated.
  • the various methods for the user to whistle there may be various methods for the user to whistle, and there may be various operations of the AI speaker corresponding thereto.
  • the various methods of blowing the whistle and the operation of the AI speaker may be matched to perform a preset operation.
  • a method of matching the operation of the AI speaker desired by the user to a specific whistling method and setting the operation of the AI speaker corresponding to the corresponding whistle blowing method may be included.
  • a method in which a plurality of operations are sequentially performed may be included rather than corresponding.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Telephone Function (AREA)

Abstract

The present invention relates to a method for controlling an electronic device comprising a microphone, memory, a control unit, and a drive unit, the method being characterized by comprising the steps of: receiving an input of an audio signal from a user; determining whether the input audio signal is a whistle sound; if it is determined that the audio signal is a whistle sound, analyzing the features of the whistle sound; and controlling the operation of the electronic device using the analysis result.

Description

오디오 신호 기반 디바이스 및 그의 제어방법Audio signal-based device and method for controlling the same
본 발명은 휘파람과 같은 오디오 신호를 이용한 디바이스와 그의 제어방법에 관한 것이다.The present invention relates to a device using an audio signal such as a whistle and a method for controlling the same.
최근 오디오를 처리하기 위하여 딥 러닝과 같은 인공지는 기술들이 적용되고 있다. 오디오와 관련된 처리 기술 중 하나인 오디오 식별 기술은 오디오 입력이 어떤 주체로부터 발생되었는지, 해당 주체의 어떤 상황에서 발생되는 것인지 여부를 검출하기 위한 목적으로 개발된다.Recently, artificial intelligence technologies such as deep learning are being applied to process audio. Audio identification technology, which is one of audio-related processing technologies, is developed for the purpose of detecting whether an audio input is generated from a subject and under what circumstances of the subject.
오디오 식별 기술이 점점 발전함에 따라, 이를 이용한 응용 기술의 연구도 활발히 진행되고 있다. 구체적으로, 사용자의 발화에 근거하여 전자기기를 제어하는 다양한 방법들이 등장하고 있다. 음성 인식 기술의 상용화된 방법으로는 시리(Siri), S보이스와 같은 예가 존재한다.As audio identification technology gradually develops, research on applied technology using the same is being actively conducted. Specifically, various methods for controlling an electronic device based on a user's utterance have emerged. Examples of commercialized methods of speech recognition technology, such as Siri and S Voice, exist.
반면, 인간이 발생시킬 수 있는 비언어적 오디오를 이용하여 전자기기를 제어하는 방법은 제한적으로 적용되고 있다. 예를 들어, 박수 소리에 반응하여 전등을 켜고 끄는 정도의 간단한 방법이 사용되고 있을 뿐이다.On the other hand, a method for controlling an electronic device using non-verbal audio that can be generated by a human is limitedly applied. For example, simple methods such as turning a light on and off in response to a sound of applause are being used.
박수 소리와 같은 비언어적 오디오는 언어 오디오와 달리 의미를 함유하는데 다소 제약이 따르므로, 전자기기를 다양한 목적으로 제어하기 어려운 문제점이 있다.Unlike verbal audio, non-verbal audio such as applause is somewhat limited in containing meaning, so it is difficult to control electronic devices for various purposes.
한편, 다수의 사용자가 쉽게 발생시킬 수 있는 휘파람 소리는 음의 높낮이나, 음의 변화 패턴, 멜로디와 같이 다양한 특성(features)을 가질 수 있다. 따라서, 사용자가 발생시킨 휘파람 소리에 대해 오디오 식별 기술을 적용한다면, 사용자가 발화를 하지 않고도 간단한 휘파람 소리만으로 전자기기를 제어할 수 있게 된다.On the other hand, a whistle sound that can be easily generated by a plurality of users may have various features such as pitch, sound change pattern, and melody. Accordingly, if the audio identification technology is applied to the whistle sound generated by the user, it is possible to control the electronic device only with the simple whistle sound without the user speaking.
본 발명에서는 오디오 식별 기술을 이용하여 사용자가 발생시킨 휘파람 소리로부터 전자기기의 동작 명령을 추출하고, 추출한 동작 명령에 기반하여 전자기기를 제어하는 방법에 대해 제안하고자 한다.The present invention intends to propose a method of extracting an operation command of an electronic device from a whistle sound generated by a user using an audio identification technology and controlling the electronic device based on the extracted operation command.
본 발명의 기술적 과제는, 음성이 아닌 비언어적 오디오에 근거하여 동작하는 전자기기를 제공하는 것이다.It is an object of the present invention to provide an electronic device that operates based on non-verbal audio instead of voice.
본 발명의 기술적 과제는, 휘파람 소리에 기반하여 전자기기를 동작시킬 수 있는 제어방법을 제공하는 것이다.It is an object of the present invention to provide a control method capable of operating an electronic device based on a whistle sound.
본 발명의 기술적 과제는, 휘파람 소리의 높낮이, 멜로디 및 변화양상을 분석하고, 분석결과에 근거하여 전자기기를 동작시키는 제어방법을 제공하4는 것이다.It is an object of the present invention to analyze the pitch, melody, and change of a whistle, and to provide a control method for operating an electronic device based on the analysis result.
본 발명은 마이크, 메모리, 제어부 및 구동부를 포함하는 전자기기의 제어방법에 관한 것으로서, 사용자로부터 오디오 신호를 입력받는 단계와, 입력된 상기 오디오 신호가 휘파람 소리인지 여부를 판단하는 단계와, 상기 오디오 신호가 휘파람 소리인 것으로 판단되면, 상기 휘파람 소리의 특성을 분석하는 단계 및 분석결과를 이용하여 상기 전자기기의 동작을 제어하는 단계를 포함하는 것을 특징으로 한다.The present invention relates to a control method of an electronic device including a microphone, a memory, a control unit and a driving unit, comprising the steps of: receiving an audio signal from a user; determining whether the inputted audio signal is a whistle sound; When it is determined that the signal is a whistle sound, the method may include analyzing the characteristics of the whistle sound and controlling the operation of the electronic device using the analysis result.
본 발명에 따르면, 사용자가 휘파람 소리를 발생시키는 것만으로 전자기기를 동작시킬 수 있으므로, 사용자의 편의가 향상되는 효과가 있다.According to the present invention, since the user can operate the electronic device only by generating a whistling sound, there is an effect that the user's convenience is improved.
본 발명에 따르면, 오디오 기반 전자기기 제어 기술의 트리거가 사용자의 발화에 제한되어 있던 한계점을, 비언어적 신호를 이용하는 방식으로 해결할 수 있는 장점이 있다.According to the present invention, there is an advantage in that a limitation in that the trigger of the audio-based electronic device control technology is limited to the user's utterance can be solved by using a non-verbal signal.
도 1은 본 발명에서 제안하는 제어방법의 대상인 전자기기의 구성요소를 나타낸 개념도이다.1 is a conceptual diagram illustrating components of an electronic device that is a target of a control method proposed in the present invention.
도 2는 본 발명의 일 실시예에 따른 전자기기 제어방법을 나타낸 흐름도이다.2 is a flowchart illustrating a method for controlling an electronic device according to an embodiment of the present invention.
도 3a 및 도 3b는 본 발명에 따른 전자기기 제어방법이 적용되는 냉장고의 구성요소를 나타낸 블록도이다.3A and 3B are block diagrams illustrating components of a refrigerator to which the electronic device control method according to the present invention is applied.
도 4는 휘파람 소리를 이용하여 냉장고의 동작을 제어하는 방법을 나타내는 개념도이다.4 is a conceptual diagram illustrating a method of controlling an operation of a refrigerator using a whistle sound.
도 5는 본 발명에 따른 전자기기 제어방법이 적용되는 AI 스피커의 구성요소를 나타낸 블록도이다.5 is a block diagram showing the components of an AI speaker to which the electronic device control method according to the present invention is applied.
도 6은 휘파람 소리를 이용하여 AI 스피커의 동작을 제어하는 방법을 나타내는 개념도이다.6 is a conceptual diagram illustrating a method of controlling an operation of an AI speaker using a whistle sound.
이하, 첨부된 도면을 참조하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 이하에서 개시되는 도면 및 실시예에 한정되는 것은 아니다. 또한, 도면에서 본 발명을 명확하게 설명하기 위하여 본 발명과 관계없는 부분은 생략하였으며, 도면에서 동일하거나 유사한 부호들은 동일하거나 유사한 구성요소들을 나타낸다.Hereinafter, with reference to the accompanying drawings, embodiments of the present invention will be described in detail so that those of ordinary skill in the art can easily implement them. However, the present invention may be embodied in various different forms and is not limited to the drawings and examples disclosed below. In addition, in order to clearly explain the present invention in the drawings, parts irrelevant to the present invention are omitted, and the same or similar symbols in the drawings indicate the same or similar components.
본 발명의 목적 및 효과는 하기의 설명에 의해서 자연스럽게 이해되거나 보다 분명해질 수 있으며, 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하므로, 하기의 기재만으로 본 발명의 목적 및 효과가 제한되는 것은 아니다.Objects and effects of the present invention can be naturally understood or made clearer by the following description, and if it is determined that the gist of the present invention may be unnecessarily obscured, the detailed description will be omitted. and effects are not limited.
도 1에서는 전자기기(100)의 구성요소가 설명된다.In FIG. 1 , the components of the electronic device 100 are described.
본 명세서에서 설명되는 전자기기(100)는 냉장고, 인공지능 스피커, 청소기, 이동단말기, 세탁기, 건조기와 같이, 데이터 통신을 수행하고, 데이터 처리를 수행하며, 소정의 동작을 수행하는 다양한 디바이스로 정의될 수 있다.The electronic device 100 described herein is defined as various devices that perform data communication, perform data processing, and perform predetermined operations, such as a refrigerator, artificial intelligence speaker, cleaner, mobile terminal, washing machine, and dryer. can be
일 예로, 전자기기(100)가 이동 단말기인 경우, 전자기기(100)는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)) 등이 포함될 수 있다.For example, when the electronic device 100 is a mobile terminal, the electronic device 100 includes a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, personal digital assistants (PDA), and a portable terminal (PMP). multimedia player), navigation, slate PC, tablet PC, ultrabook, wearable device, for example, watch-type terminal (smartwatch), glass-type terminal (smart glass) , a head mounted display (HMD), etc. may be included.
그러나, 본 명세서에 기재된 실시 예에 따른 구성은 이동 단말기에만 적용 가능한 경우를 제외하면, 디지털 TV, 데스크탑 컴퓨터, 디지털 사이니지 등과 같은 고정 단말기에도 적용될 수도 있음을 본 기술분야의 당업자라면 쉽게 알 수 있을 것이다.However, it will be readily apparent to those skilled in the art that the configuration according to the embodiments described in this specification may be applied to fixed terminals such as digital TV, desktop computer, digital signage, etc., except when applicable only to mobile terminals. will be.
상기 전자기기(100)는 무선 통신부(110), 입력부(120), 센싱부(140), 출력부(150), 인터페이스부(160), 메모리(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다.The electronic device 100 includes a wireless communication unit 110 , an input unit 120 , a sensing unit 140 , an output unit 150 , an interface unit 160 , a memory 170 , a control unit 180 , and a power supply unit 190 . ) and the like.
보다 구체적으로, 상기 구성요소들 중 무선 통신부(110)는, 전자기기(100)와 무선 통신 시스템 사이, 전자기기(100)와 다른 전자기기(100) 사이, 또는 전자기기(100)와 외부서버 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 상기 무선 통신부(110)는, 전자기기(100)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.More specifically, the wireless communication unit 110 of the components, between the electronic device 100 and the wireless communication system, between the electronic device 100 and another electronic device 100, or the electronic device 100 and an external server It may include one or more modules that enable wireless communication between them. Also, the wireless communication unit 110 may include one or more modules for connecting the electronic device 100 to one or more networks.
이러한 무선 통신부(110)는, 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114), 위치정보 모듈(115) 중 적어도 하나를 포함할 수 있다.The wireless communication unit 110 may include at least one of a broadcast reception module 111 , a mobile communication module 112 , a wireless Internet module 113 , a short-range communication module 114 , and a location information module 115 . .
입력부(120)는, 영상 신호 입력을 위한 카메라(121) 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(microphone, 122), 또는 오디오 입력부, 사용자로부터 정보를 입력받기 위한 사용자 입력부(123, 예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있다. 입력부(120)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다.The input unit 120 includes a camera 121 or an image input unit for inputting an image signal, a microphone 122 or an audio input unit for inputting an audio signal, and a user input unit 123 for receiving information from a user, for example, , a touch key, a push key, etc.). The voice data or image data collected by the input unit 120 may be analyzed and processed as a user's control command.
센싱부(140)는 수집장치 내 정보, 수집장치를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센싱부(140)는 근접센서(141, proximity sensor), 조도 센서(142, illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라(121 참조)), 마이크로폰(microphone, 122 참조), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다.The sensing unit 140 may include one or more sensors for sensing at least one of information in the collection device, surrounding environment information surrounding the collection device, and user information. For example, the sensing unit 140 may include a proximity sensor 141, an illumination sensor 142, an illumination sensor, a touch sensor, an acceleration sensor, a magnetic sensor, and gravity. Sensor (G-sensor), gyroscope sensor, motion sensor, RGB sensor, infrared sensor (IR sensor: infrared sensor), fingerprint sensor (finger scan sensor), ultrasonic sensor , optical sensors (eg, cameras (see 121)), microphones (see 122), battery gauges, environmental sensors (eg, barometers, hygrometers, thermometers, radiation sensors, It may include at least one of a thermal sensor, a gas sensor, etc.) and a chemical sensor (eg, an electronic nose, a healthcare sensor, a biometric sensor, etc.).
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(151), 음향 출력부(152), 햅팁 모듈(153), 광 출력부(154) 중 적어도 하나를 포함할 수 있다. 디스플레이부(151)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 전자기기(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(123)로써 기능함과 동시에, 전자기기(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.The output unit 150 is for generating an output related to visual, auditory or tactile sense, and includes at least one of a display unit 151 , a sound output unit 152 , a haptip module 153 , and an optical output unit 154 . can do. The display unit 151 may implement a touch screen by forming a layer structure with the touch sensor or being formed integrally with the touch sensor. Such a touch screen may function as the user input unit 123 providing an input interface between the electronic device 100 and the user, and may provide an output interface between the electronic device 100 and the user.
인터페이스부(160)는 전자기기(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행한다. 이러한 인터페이스부(160)는, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 중 적어도 하나를 포함할 수 있다. 전자기기(100)에서는, 상기 인터페이스부(160)에 외부 기기가 연결되는 것에 대응하여, 연결된 외부 기기와 관련된 적절할 제어를 수행할 수 있다.The interface unit 160 serves as a passage with various types of external devices connected to the electronic device 100 . Such an interface unit 160, a wired / wireless headset port (port), an external charger port (port), a wired / wireless data port (port), a memory card (memory card) port, for connecting a device equipped with an identification module It may include at least one of a port, an audio I/O (Input/Output) port, a video I/O (Input/Output) port, and an earphone port. In response to the connection of the external device to the interface unit 160 , the electronic device 100 may perform appropriate control related to the connected external device.
또한, 메모리(170)는 전자기기(100)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(170)는 전자기기(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 전자기기(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 전자기기(100)의 기본적인 기능(예를 들어, 전화 착신, 발신 기능, 메시지 수신, 발신 기능)을 위하여 출고 당시부터 전자기기(100)상에 존재할 수 있다. 한편, 응용 프로그램은, 메모리(170)에 저장되고, 전자기기(100) 상에 설치되어, 제어부(180)에 의하여 상기 오디오 분석정보 수집장치의 동작(또는 기능)을 수행하도록 구동될 수 있다.In addition, the memory 170 stores data supporting various functions of the electronic device 100 . The memory 170 may store a plurality of application programs (or applications) driven in the electronic device 100 , data for operation of the electronic device 100 , and commands. At least some of these application programs may be downloaded from an external server through wireless communication. In addition, at least some of these application programs may exist on the electronic device 100 from the time of shipment for basic functions (eg, incoming calls, outgoing functions, message reception, and outgoing functions) of the electronic device 100 . Meanwhile, the application program may be stored in the memory 170 , installed on the electronic device 100 , and driven to perform an operation (or function) of the audio analysis information collecting device by the controller 180 .
제어부(180)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 전자기기(100)의 전반적인 동작을 제어한다. 제어부(180)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(170)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.In addition to the operation related to the application program, the controller 180 generally controls the overall operation of the electronic device 100 . The controller 180 may provide or process appropriate information or functions to the user by processing signals, data, information, etc. input or output through the above-described components or by driving an application program stored in the memory 170 .
또한, 제어부(180)는 메모리(170)에 저장된 응용 프로그램을 구동하기 위하여, 도 1과 함께 살펴본 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 제어부(180)는 상기 응용 프로그램의 구동을 위하여, 전자기기(100)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.Also, the controller 180 may control at least some of the components discussed with reference to FIG. 1 in order to drive an application program stored in the memory 170 . Furthermore, in order to drive the application program, the controller 180 may operate at least two or more of the components included in the electronic device 100 in combination with each other.
전원공급부(190)는 제어부(180)의 제어 하에서, 외부의 전원, 내부의 전원을 인가 받아 전자기기(100)에 포함된 각 구성요소들에 전원을 공급한다. 이러한 전원공급부(190)는 배터리를 포함하며, 상기 배터리는 내장형 배터리 또는 교체가능한 형태의 배터리가 될 수 있다.The power supply unit 190 receives external power and internal power under the control of the control unit 180 to supply power to each component included in the electronic device 100 . The power supply unit 190 includes a battery, and the battery may be a built-in battery or a replaceable battery.
상기 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시 예들에 따른 오디오 분석정보 수집장치의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 상기 오디오 분석정보 수집장치의 동작, 제어, 또는 제어방법은 상기 메모리(170)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 오디오 분석정보 수집장치 상에서 구현될 수 있다. At least some of the respective components may operate in cooperation with each other to implement the operation, control, or control method of the apparatus for collecting audio analysis information according to various embodiments to be described below. In addition, the operation, control, or control method of the audio analysis information collecting apparatus may be implemented on the audio analysis information collecting apparatus by driving at least one application program stored in the memory 170 .
이하에서는, 위에서 살펴본 전자기기(100)를 통하여 구현되는 다양한 실시 예들을 살펴보기에 앞서, 위에서 열거된 구성요소들에 대하여 도 1을 참조하여 보다 구체적으로 살펴본다.Hereinafter, before looking at various embodiments implemented through the electronic device 100 as described above, the above-listed components will be described in more detail with reference to FIG. 1 .
먼저, 무선 통신부(110)에 대하여 살펴보면, 무선 통신부(110)의 방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 적어도 두 개의 방송 채널들에 대한 동시 방송 수신 또는 방송 채널 스위칭을 위해 둘 이상의 상기 방송 수신 모듈이 상기 전자기기(100)에 제공될 수 있다.First, referring to the wireless communication unit 110 , the broadcast reception module 111 of the wireless communication unit 110 receives a broadcast signal and/or broadcast related information from an external broadcast management server through a broadcast channel. The broadcast channel may include a satellite channel and a terrestrial channel. Two or more of the broadcast reception modules may be provided in the electronic device 100 for simultaneous broadcast reception or broadcast channel switching for at least two broadcast channels.
이동통신 모듈(112)은, 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등)에 따라 구축된 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. Mobile communication module 112, the technical standards or communication methods for mobile communication (eg, Global System for Mobile communication (GSM), Code Division Multi Access (CDMA), Code Division Multi Access 2000 (CDMA2000), EV -DO (Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA (Wideband CDMA), HSDPA (High Speed Downlink Packet Access), HSUPA (High Speed Uplink Packet Access), LTE (Long Term Evolution), LTE-A (Long Term Evolution-Advanced, etc.) transmits and receives radio signals to and from at least one of a base station, an external terminal, and a server on a mobile communication network constructed according to (Long Term Evolution-Advanced).
상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. The wireless signal may include various types of data according to transmission/reception of a voice call signal, a video call signal, or a text/multimedia message.
무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 전자기기(100)에 내장되거나 외장될 수 있다. 무선 인터넷 모듈(113)은 무선 인터넷 기술들에 따른 통신망에서 무선 신호를 송수신하도록 이루어진다.The wireless Internet module 113 refers to a module for wireless Internet access, and may be built-in or external to the electronic device 100 . The wireless Internet module 113 is configured to transmit and receive wireless signals in a communication network according to wireless Internet technologies.
무선 인터넷 기술로는, 예를 들어 WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등이 있으며, 상기 무선 인터넷 모듈(113)은 상기에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다.As wireless Internet technology, for example, WLAN (Wireless LAN), Wi-Fi (Wireless-Fidelity), Wi-Fi (Wireless Fidelity) Direct, DLNA (Digital Living Network Alliance), WiBro (Wireless Broadband), WiMAX (World Interoperability for Microwave Access), High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), Long Term Evolution (LTE), Long Term Evolution-Advanced (LTE-A), etc., and the wireless Internet module ( 113) transmits and receives data according to at least one wireless Internet technology within a range including Internet technologies not listed above.
WiBro, HSDPA, HSUPA, GSM, CDMA, WCDMA, LTE, LTE-A 등에 의한 무선인터넷 접속은 이동통신망을 통해 이루어진다는 관점에서 본다면, 상기 이동통신망을 통해 무선인터넷 접속을 수행하는 상기 무선 인터넷 모듈(113)은 상기 이동통신 모듈(112)의 일종으로 이해될 수도 있다.From the point of view that wireless Internet access by WiBro, HSDPA, HSUPA, GSM, CDMA, WCDMA, LTE, LTE-A, etc. is made through a mobile communication network, the wireless Internet module 113 performs wireless Internet access through the mobile communication network. ) may be understood as a type of the mobile communication module 112 .
근거리 통신 모듈(114)은 근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth쪠), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다. 이러한, 근거리 통신 모듈(114)은, 근거리 무선 통신망(Wireless Area Networks)을 통해 전자기기(100)와 무선 통신 시스템 사이, 전자기기(100)와 다른 전자기기(100) 사이, 또는 전자기기(100)와 다른 단말기(또는 외부서버)가 위치한 네트워크 사이의 무선 통신을 지원할 수 있다. 상기 근거리 무선 통신망은 근거리 무선 개인 통신망(Wireless Personal Area Networks)일 수 있다.Short-range communication module 114 is for short-range communication, Bluetooth (Bluetooth), RFID (Radio Frequency Identification), infrared communication (Infrared Data Association; IrDA), UWB (Ultra Wideband), ZigBee, NFC Short-distance communication may be supported by using at least one of (Near Field Communication), Wireless-Fidelity (Wi-Fi), Wi-Fi Direct, and Wireless Universal Serial Bus (USB) technologies. The short-distance communication module 114, between the electronic device 100 and the wireless communication system, between the electronic device 100 and the other electronic device 100, or the electronic device 100 through a wireless local area network (Wireless Area Networks) ) and a network in which another terminal (or external server) is located can support wireless communication. The local area network may be local area networks (Wireless Personal Area Networks).
여기에서, 다른 단말기는 본 발명에 따른 전자기기(100)와 데이터를 상호 교환하는 것이 가능한(또는 연동 가능한) 웨어러블 디바이스(wearable device, 예를 들어, 스마트워치(smartwatch), 스마트 글래스(smart glass), HMD(head mounted display))가 될 수 있다. 근거리 통신 모듈(114)은, 전자기기(100) 주변에, 상기 전자기기(100)와 통신 가능한 웨어러블 디바이스를 감지(또는 인식)할 수 있다. 나아가, 제어부(180)는 상기 감지된 웨어러블 디바이스가 본 발명에 따른 전자기기(100)와 통신하도록 인증된 디바이스인 경우, 전자기기(100)에서 처리되는 데이터의 적어도 일부를, 상기 근거리 통신 모듈(114)을 통해 웨어러블 디바이스로 전송할 수 있다. 따라서, 웨어러블 디바이스의 사용자는, 전자기기(100)에서 처리되는 데이터를, 웨어러블 디바이스를 통해 이용할 수 있다. 예를 들어, 이에 따르면 사용자는, 전자기기(100)에 전화가 수신된 경우, 웨어러블 디바이스를 통해 전화 통화를 수행하거나, 전자기기(100)에 메시지가 수신된 경우, 웨어러블 디바이스를 통해 상기 수신된 메시지를 확인하는 것이 가능하다.Here, another terminal is a wearable device capable of exchanging (or interworking) data with the electronic device 100 according to the present invention, for example, a smart watch, a smart glass. , can be a head mounted display (HMD). The short-range communication module 114 may detect (or recognize) a wearable device capable of communicating with the electronic device 100 in the vicinity of the electronic device 100 . Furthermore, when the sensed wearable device is a device authenticated to communicate with the electronic device 100 according to the present invention, the controller 180 transmits at least a portion of data processed by the electronic device 100 to the short-range communication module ( 114) to transmit to the wearable device. Accordingly, the user of the wearable device may use data processed by the electronic device 100 through the wearable device. For example, according to this, when a call is received in the electronic device 100, the user performs a phone call through the wearable device, or when a message is received in the electronic device 100, the user receives the received call through the wearable device. It is possible to check the message.
위치정보 모듈(115)은 이동 단말기의 위치(또는 현재 위치)를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Positioning System) 모듈 또는 WiFi(Wireless Fidelity) 모듈이 있다. 예를 들어, 오디오 분석정보 수집장치는 GPS모듈을 활용하면, GPS 위성에서 보내는 신호를 이용하여 오디오 분석정보 수집장치의 위치를 획득할 수 있다. 다른 예로서, 오디오 분석정보 수집장치는 Wi-Fi모듈을 활용하면, Wi-Fi모듈과 무선신호를 송신 또는 수신하는 무선 AP(Wireless Access Point)의 정보에 기반하여, 오디오 분석정보 수집장치의 위치를 획득할 수 있다. 필요에 따라서, 위치정보모듈(115)은 치환 또는 부가적으로 오디오 분석정보 수집장치의 위치에 관한 데이터를 얻기 위해 무선 통신부(110)의 다른 모듈 중 어느 기능을 수행할 수 있다. 위치정보모듈(115)은 오디오 분석정보 수집장치의 위치(또는 현재 위치)를 획득하기 위해 이용되는 모듈로, 오디오 분석정보 수집장치의 위치를 직접적으로 계산하거나 획득하는 모듈로 한정되지는 않는다.The location information module 115 is a module for acquiring a location (or current location) of a mobile terminal, and a representative example thereof includes a Global Positioning System (GPS) module or a Wireless Fidelity (WiFi) module. For example, if the audio analysis information collecting device utilizes a GPS module, it may acquire the location of the audio analysis information collecting device using a signal transmitted from a GPS satellite. As another example, when the audio analysis information collecting device utilizes the Wi-Fi module, the location of the audio analysis information collecting device is based on the Wi-Fi module and the information of the wireless AP (Wireless Access Point) that transmits or receives the wireless signal. can be obtained. If necessary, the location information module 115 may perform any function of other modules of the wireless communication unit 110 in order to obtain data on the location of the audio analysis information collecting device as a substitute or additionally. The location information module 115 is a module used to obtain the location (or current location) of the audio analysis information collecting device, and is not limited to a module that directly calculates or obtains the location of the audio analysis information collecting device.
다음으로, 입력부(120)는 영상 정보(또는 신호), 오디오 정보(또는 신호), 데이터, 또는 사용자로부터 입력되는 정보의 입력을 위한 것으로서, 영상 정보의 입력을 위하여, 전자기기(100)는 하나 또는 복수의 카메라(121)를 구비할 수 있다. 카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시되거나 메모리(170)에 저장될 수 있다. 한편, 전자기기(100)에 구비되는 복수의 카메라(121)는 매트릭스 구조를 이루도록 배치될 수 있으며, 이와 같이 매트릭스 구조를 이루는 카메라(121)를 통하여, 전자기기(100)에는 다양한 각도 또는 초점을 갖는 복수의 영상정보가 입력될 수 있다. 또한, 복수의 카메라(121)는 입체영상을 구현하기 위한 좌 영상 및 우 영상을 획득하도록, 스트레오 구조로 배치될 수 있다.Next, the input unit 120 is for input of image information (or signal), audio information (or signal), data, or information input from a user. For input of image information, the electronic device 100 is one Alternatively, a plurality of cameras 121 may be provided. The camera 121 processes an image frame such as a still image or a moving image obtained by an image sensor in a video call mode or a shooting mode. The processed image frame may be displayed on the display unit 151 or stored in the memory 170 . On the other hand, the plurality of cameras 121 provided in the electronic device 100 may be arranged to form a matrix structure, and through the cameras 121 forming the matrix structure as described above, various angles or focal points are applied to the electronic device 100 . A plurality of image information having a plurality of images may be input. In addition, the plurality of cameras 121 may be arranged in a stereo structure to acquire a left image and a right image for realizing a stereoscopic image.
마이크로폰(122)은 외부의 음향 신호를 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 전자기기(100)에서 수행 중인 기능(또는 실행 중인 응용 프로그램)에 따라 다양하게 활용될 수 있다. 한편, 마이크로폰(122)에는 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The microphone 122 processes an external sound signal as electrical voice data. The processed voice data may be utilized in various ways according to a function (or a running application program) being performed by the electronic device 100 . Meanwhile, various noise removal algorithms for removing noise generated in the process of receiving an external sound signal may be implemented in the microphone 122 .
사용자 입력부(123)는 사용자로부터 정보를 입력받기 위한 것으로서, 사용자 입력부(123)를 통해 정보가 입력되면, 제어부(180)는 입력된 정보에 대응되도록 전자기기(100)의 동작을 제어할 수 있다. 이러한, 사용자 입력부(123)는 기계식 (mechanical) 입력수단(또는, 메커니컬 키, 예를 들어, 전자기기(100)의 전후면 또는 측면에 위치하는 버튼, 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등) 및 터치식 입력수단을 포함할 수 있다. 일 예로서, 터치식 입력수단은, 소프트웨어적인 처리를 통해 터치스크린에 표시되는 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)로 이루어지거나, 상기 터치스크린 이외의 부분에 배치되는 터치 키(touch key)로 이루어질 수 있다. 한편, 상기 가상키 또는 비주얼 키는, 다양한 형태를 가지면서 터치스크린 상에 표시되는 것이 가능하며, 예를 들어, 그래픽(graphic), 텍스트(text), 아이콘(icon), 비디오(video) 또는 이들의 조합으로 이루어질 수 있다. The user input unit 123 is for receiving information from a user, and when information is input through the user input unit 123 , the controller 180 may control the operation of the electronic device 100 to correspond to the input information. . The user input unit 123 is a mechanical input means (or a mechanical key, for example, a button located on the front or back or sides of the electronic device 100 , a dome switch, a jog wheel, and a jog). switch, etc.) and a touch input means. As an example, the touch input means consists of a virtual key, a soft key, or a visual key displayed on the touch screen through software processing, or a part other than the touch screen. It may be made of a touch key (touch key) disposed on the. On the other hand, the virtual key or the visual key, it is possible to be displayed on the touch screen while having various forms, for example, graphic (graphic), text (text), icon (icon), video (video) or these can be made by a combination of
한편, 센싱부(140)는 수집장치 내 정보, 수집장치를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하고, 이에 대응하는 센싱 신호를 발생시킨다. 제어부(180)는 이러한 센싱 신호에 기초하여, 전자기기(100)의 구동 또는 동작을 제어하거나, 전자기기(100)에 설치된 응용 프로그램과 관련된 데이터 처리, 기능 또는 동작을 수행 할 수 있다. 센싱부(140)에 포함될 수 있는 다양한 센서 중 대표적인 센서들의 대하여, 보다 구체적으로 살펴본다.Meanwhile, the sensing unit 140 senses at least one of information in the collection device, surrounding environment information surrounding the collection device, and user information, and generates a sensing signal corresponding thereto. The controller 180 may control the driving or operation of the electronic device 100 or perform data processing, functions, or operations related to an application program installed in the electronic device 100 based on the sensing signal. Representative sensors among various sensors that may be included in the sensing unit 140 will be described in more detail.
먼저, 근접 센서(141)는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선 등을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 이러한 근접 센서(141)는 위에서 살펴본 터치 스크린에 의해 감싸지는 수집장치의 내부 영역 또는 상기 터치 스크린의 근처에 근접 센서(141)가 배치될 수 있다. First, the proximity sensor 141 refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object existing in the vicinity without mechanical contact using the force of an electromagnetic field or infrared rays. The proximity sensor 141 may be disposed in an inner region of the collection device covered by the touch screen as described above or in the vicinity of the touch screen.
근접 센서(141)의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전 용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 터치 스크린이 정전식인 경우에, 근접 센서(141)는 전도성을 갖는 물체의 근접에 따른 전계의 변화로 상기 물체의 근접을 검출하도록 구성될 수 있다. 이 경우 터치 스크린(또는 터치 센서) 자체가 근접 센서로 분류될 수 있다. Examples of the proximity sensor 141 include a transmission type photoelectric sensor, a direct reflection type photoelectric sensor, a mirror reflection type photoelectric sensor, a high frequency oscillation type proximity sensor, a capacitive type proximity sensor, a magnetic type proximity sensor, an infrared proximity sensor, and the like. When the touch screen is capacitive, the proximity sensor 141 may be configured to detect the proximity of an object having conductivity by a change in an electric field according to the proximity of the object. In this case, the touch screen (or touch sensor) itself may be classified as a proximity sensor.
한편, 설명의 편의를 위해, 터치 스크린 상에 물체가 접촉되지 않으면서 근접되어 상기 물체가 상기 터치 스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 명명하고, 상기 터치 스크린 상에 물체가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 명명한다. 상기 터치 스크린 상에서 물체가 근접 터치 되는 위치라 함은, 상기 물체가 근접 터치될 때 상기 물체가 상기 터치 스크린에 대해 수직으로 대응되는 위치를 의미한다. 상기 근접 센서(141)는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지할 수 있다. 한편, 제어부(180)는 위와 같이, 근접 센서(141)를 통해 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 데이터(또는 정보)를 처리하며, 나아가, 처리된 데이터에 대응하는 시각적인 정보를 터치 스크린상에 출력시킬 수 있다. 나아가, 제어부(180)는, 터치 스크린 상의 동일한 지점에 대한 터치가, 근접 터치인지 또는 접촉 터치인지에 따라, 서로 다른 동작 또는 데이터(또는 정보)가 처리되도록 전자기기(100)를 제어할 수 있다.On the other hand, for convenience of description, the act of approaching an object on the touch screen without contacting it so that the object is recognized that it is located on the touch screen is called “proximity touch”, and the touch The act of actually touching an object on the screen is called "contact touch". The position where the object is touched in proximity on the touch screen means a position where the object is perpendicular to the touch screen when the object is touched in proximity. The proximity sensor 141 may detect a proximity touch and a proximity touch pattern (eg, proximity touch distance, proximity touch direction, proximity touch speed, proximity touch time, proximity touch position, proximity touch movement state, etc.) have. Meanwhile, the controller 180 processes data (or information) corresponding to the proximity touch operation and the proximity touch pattern sensed through the proximity sensor 141 as described above, and furthermore, provides visual information corresponding to the processed data. It can be printed on the touch screen. Furthermore, the controller 180 may control the electronic device 100 to process different operations or data (or information) according to whether a touch to the same point on the touch screen is a proximity touch or a contact touch. .
터치 센서는 저항막 방식, 정전용량 방식, 적외선 방식, 초음파 방식, 자기장 방식 등 여러 가지 터치방식 중 적어도 하나를 이용하여 터치 스크린(또는 디스플레이부(151))에 가해지는 터치(또는 터치입력)을 감지한다.The touch sensor receives a touch (or touch input) applied to the touch screen (or the display unit 151) using at least one of various touch methods such as a resistive film method, a capacitive method, an infrared method, an ultrasonic method, and a magnetic field method. detect
일 예로서, 터치 센서는, 터치 스크린의 특정 부위에 가해진 압력 또는 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는, 터치 스크린 상에 터치를 가하는 터치 대상체가 터치 센서 상에 터치 되는 위치, 면적, 터치 시의 압력, 터치 시의 정전 용량 등을 검출할 수 있도록 구성될 수 있다. 여기에서, 터치 대상체는 상기 터치 센서에 터치를 인가하는 물체로서, 예를 들어, 손가락, 터치펜 또는 스타일러스 펜(Stylus pen), 포인터 등이 될 수 있다. As an example, the touch sensor may be configured to convert a change in pressure applied to a specific part of the touch screen or a change in capacitance occurring in a specific part of the touch screen into an electrical input signal. The touch sensor may be configured to detect a position, an area, a pressure at the time of touch, capacitance at the time of touch, and the like where a touch object applying a touch on the touch screen is touched on the touch sensor. Here, the touch object is an object that applies a touch to the touch sensor, and may be, for example, a finger, a touch pen, a stylus pen, or a pointer.
이와 같이, 터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다. 여기에서, 터치 제어기는, 제어부(180)와 별도의 구성요소일 수 있고, 제어부(180) 자체일 수 있다. As such, when there is a touch input to the touch sensor, a signal(s) corresponding thereto is sent to the touch controller. The touch controller processes the signal(s) and then transmits corresponding data to the controller 180 . Accordingly, the controller 180 can know which area of the display unit 151 has been touched, and the like. Here, the touch controller may be a component separate from the controller 180 , or may be the controller 180 itself.
한편, 제어부(180)는, 터치 스크린(또는 터치 스크린 이외에 구비된 터치키)을 터치하는, 터치 대상체의 종류에 따라 서로 다른 제어를 수행하거나, 동일한 제어를 수행할 수 있다. 터치 대상체의 종류에 따라 서로 다른 제어를 수행할지 또는 동일한 제어를 수행할 지는, 현재 전자기기(100)의 동작상태 또는 실행 중인 응용 프로그램에 따라 결정될 수 있다. Meanwhile, the controller 180 may perform different controls or may perform the same control according to the type of the touch object that touches the touch screen (or a touch key provided in addition to the touch screen). Whether to perform different control or the same control according to the type of the touch object may be determined according to the current operating state of the electronic device 100 or a running application program.
한편, 위에서 살펴본 터치 센서 및 근접 센서는 독립적으로 또는 조합되어, 터치 스크린에 대한 숏(또는 탭) 터치(short touch), 롱 터치(long touch), 멀티 터치(multi touch), 드래그 터치(drag touch), 플리크 터치(flick touch), 핀치-인 터치(pinch-in touch), 핀치-아웃 터치(pinch-out 터치), 스와이프(swype) 터치, 호버링(hovering) 터치 등과 같은, 다양한 방식의 터치를 센싱할 수 있다.On the other hand, the above-described touch sensor and proximity sensor independently or in combination, a short (or tap) touch on the touch screen (short touch), long touch (long touch), multi touch (multi touch), drag touch (drag touch) ), flick touch, pinch-in touch, pinch-out touch, swype touch, hovering touch, etc. It can sense touch.
초음파 센서는 초음파를 이용하여, 감지대상의 위치정보를 인식할 수 있다. 한편 제어부(180)는 광 센서와 복수의 초음파 센서로부터 감지되는 정보를 통해, 파동 발생원의 위치를 산출하는 것이 가능하다. 파동 발생원의 위치는, 광이 초음파보다 매우 빠른 성질, 즉, 광이 광 센서에 도달하는 시간이 초음파가 초음파 센서에 도달하는 시간보다 매우 빠름을 이용하여, 산출될 수 있다. 보다 구체적으로 광을 기준 신호로 초음파가 도달하는 시간과의 시간차를 이용하여 파동 발생원의 위치가 산출될 수 있다.The ultrasonic sensor may recognize location information of a sensing target by using ultrasonic waves. Meanwhile, the controller 180 may calculate the position of the wave source based on information sensed by the optical sensor and the plurality of ultrasonic sensors. The position of the wave source may be calculated using the property that light is much faster than ultrasonic waves, that is, the time at which light arrives at the optical sensor is much faster than the time at which ultrasonic waves reach the ultrasonic sensor. More specifically, the position of the wave source may be calculated by using a time difference from the time that the ultrasonic wave arrives using light as a reference signal.
한편, 입력부(120)의 구성으로 살펴본, 카메라(121)는 카메라 센서(예를 들어, CCD, CMOS 등), 포토 센서(또는 이미지 센서) 및 레이저 센서 중 적어도 하나를 포함한다.On the other hand, the camera 121 as seen in the configuration of the input unit 120 includes at least one of a camera sensor (eg, CCD, CMOS, etc.), a photo sensor (or an image sensor), and a laser sensor.
카메라(121)와 레이저 센서는 서로 조합되어, 3차원 입체영상에 대한 감지대상의 터치를 감지할 수 있다. 포토 센서는 디스플레이 소자에 적층될 수 있는데, 이러한 포토 센서는 터치 스크린에 근접한 감지대상의 움직임을 스캐닝하도록 이루어진다. 보다 구체적으로, 포토 센서는 행/열에 Photo Diode와 TR(Transistor)를 실장하여 Photo Diode에 인가되는 빛의 양에 따라 변화되는 전기적 신호를 이용하여 포토 센서 위에 올려지는 내용물을 스캔한다. 즉, 포토 센서는 빛의 변화량에 따른 감지대상의 좌표 계산을 수행하며, 이를 통하여 감지대상의 위치정보가 획득될 수 있다.The camera 121 and the laser sensor may be combined with each other to detect a touch of a sensing target for a 3D stereoscopic image. The photo sensor may be stacked on the display device, and the photo sensor is configured to scan the motion of the sensing target close to the touch screen. More specifically, the photo sensor mounts photo diodes and transistors (TRs) in rows/columns and scans the contents placed on the photo sensor using electrical signals that change according to the amount of light applied to the photo diodes. That is, the photo sensor calculates the coordinates of the sensing target according to the amount of change in light, and through this, location information of the sensing target can be obtained.
디스플레이부(151)는 전자기기(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 디스플레이부(151)는 전자기기(100)에서 구동되는 응용 프로그램의 실행화면 정보, 또는 이러한 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다. The display unit 151 displays (outputs) information processed by the electronic device 100 . For example, the display unit 151 may display execution screen information of an application program driven in the electronic device 100 or UI (User Interface) and GUI (Graphic User Interface) information according to the execution screen information. .
또한, 상기 디스플레이부(151)는 입체영상을 표시하는 입체 디스플레이부로서 구성될 수 있다.Also, the display unit 151 may be configured as a stereoscopic display unit for displaying a stereoscopic image.
상기 입체 디스플레이부에는 스테레오스코픽 방식(안경 방식), 오토 스테레오스코픽 방식(무안경 방식), 프로젝션 방식(홀로그래픽 방식) 등의 3차원 디스플레이 방식이 적용될 수 있다. A three-dimensional display method such as a stereoscopic method (glasses method), an auto stereoscopic method (glassesless method), or a projection method (holographic method) may be applied to the stereoscopic display unit.
음향 출력부(152)는 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(170)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력부(152)는 전자기기(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력부(152)에는 리시버(receiver), 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다.The sound output unit 152 may output audio data received from the wireless communication unit 110 or stored in the memory 170 in a call signal reception, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, and the like. The sound output unit 152 also outputs a sound signal related to a function (eg, a call signal reception sound, a message reception sound, etc.) performed by the electronic device 100 . The sound output unit 152 may include a receiver, a speaker, a buzzer, and the like.
햅틱 모듈(haptic module)(153)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(153)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 될 수 있다. 햅틱 모듈(153)에서 발생하는 진동의 세기와 패턴 등은 사용자의 선택 또는 제어부의 설정에 의해 제어될 수 있다. 예를 들어, 상기 햅틱 모듈(153)은 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다.The haptic module 153 generates various tactile effects that the user can feel. A representative example of the tactile effect generated by the haptic module 153 may be vibration. The intensity and pattern of vibration generated by the haptic module 153 may be controlled by a user's selection or setting of the controller. For example, the haptic module 153 may synthesize and output different vibrations or output them sequentially.
햅틱 모듈(153)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(electrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다.In addition to vibration, the haptic module 153 is configured to respond to stimuli such as a pin arrangement that moves vertically with respect to the contact skin surface, a jet or suction force of air through a nozzle or an inlet, a brush against the skin surface, contact of an electrode, an electrostatic force, etc. Various tactile effects can be generated, such as an effect caused by heat absorption and an effect by reproducing a feeling of cold and heat using an element capable of absorbing heat or generating heat.
햅틱 모듈(153)은 직접적인 접촉을 통해 촉각 효과를 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(153)은 전자기기(100)의 구성 태양에 따라 2개 이상이 구비될 수 있다.The haptic module 153 may not only deliver a tactile effect through direct contact, but may also be implemented so that the user can feel the tactile effect through a muscle sense such as a finger or arm. Two or more haptic modules 153 may be provided according to the configuration of the electronic device 100 .
광출력부(154)는 전자기기(100)의 광원의 빛을 이용하여 이벤트 발생을 알리기 위한 신호를 출력한다. 전자기기(100)에서 발생 되는 이벤트의 예로는 메시지 수신, 호 신호 수신, 부재중 전화, 알람, 일정 알림, 이메일 수신, 애플리케이션을 통한 정보 수신 등이 될 수 있다.The light output unit 154 outputs a signal for notifying the occurrence of an event by using the light of the light source of the electronic device 100 . Examples of the event generated in the electronic device 100 may be message reception, call signal reception, missed call, alarm, schedule notification, email reception, information reception through an application, and the like.
광출력부(154)가 출력하는 신호는 수집장치가 전면이나 후면으로 단색이나 복수색의 빛을 발광함에 따라 구현된다. 상기 신호 출력은 수집장치가 사용자의 이벤트 확인을 감지함에 의하여 종료될 수 있다.The signal output by the light output unit 154 is implemented as the collection device emits light of a single color or a plurality of colors toward the front or rear. The signal output may be terminated when the collection device detects the user's event confirmation.
인터페이스부(160)는 전자기기(100)에 연결되는 모든 외부 기기와의 통로 역할을 한다. 인터페이스부(160)는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 전자기기(100) 내부의 각 구성요소에 전달하거나, 전자기기(100) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트(port), 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 등이 인터페이스부(160)에 포함될 수 있다.The interface unit 160 serves as a passage with all external devices connected to the electronic device 100 . The interface unit 160 receives data from an external device, receives power and transmits it to each component inside the electronic device 100 , or allows data inside the electronic device 100 to be transmitted to an external device. For example, a wired/wireless headset port, an external charger port, a wired/wireless data port, a memory card port, a port for connecting a device equipped with an identification module (port), audio I/O (Input/Output) port (port), video I/O (Input/Output) port (port), earphone port (port), etc. may be included in the interface unit 160 .
한편, 식별 모듈은 전자기기(100)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(user identify module; UIM), 가입자 인증 모듈(subscriber identity module; SIM), 범용 사용자 인증 모듈(universal subscriber identity module; USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 상기 인터페이스부(160)를 통하여 단말기(100)와 연결될 수 있다.On the other hand, the identification module is a chip that stores various information for authenticating the use authority of the electronic device 100, a user identification module (UIM), a subscriber identity module (subscriber identity module; SIM), universal user authentication It may include a universal subscriber identity module (USIM) and the like. A device equipped with an identification module (hereinafter, 'identification device') may be manufactured in the form of a smart card. Accordingly, the identification device may be connected to the terminal 100 through the interface unit 160 .
또한, 상기 인터페이스부(160)는 전자기기(100)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 전자기기(100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 전자기기(100)로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 전자기기(100)가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수 있다.In addition, the interface unit 160 is a passage through which power from the cradle is supplied to the electronic device 100 when the electronic device 100 is connected to an external cradle, or is input from the cradle by a user. It may be a path through which various command signals are transmitted to the electronic device 100 . Various command signals or the power input from the cradle may be operated as signals for recognizing that the electronic device 100 is correctly mounted on the cradle.
메모리(170)는 제어부(180)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 상기 메모리(170)는 상기 터치 스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.The memory 170 may store a program for the operation of the controller 180 and may temporarily store input/output data (eg, a phone book, a message, a still image, a moving picture, etc.). The memory 170 may store data related to vibrations and sounds of various patterns output when a touch input is performed on the touch screen.
메모리(170)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 전자기기(100)는 인터넷(internet)상에서 상기 메모리(170)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작될 수도 있다. Memory 170 is a flash memory type (flash memory type), a hard disk type (hard disk type), an SSD type (Solid State Disk type), an SDD type (Silicon Disk Drive type), a multimedia card micro type ), card-type memory (such as SD or XD memory), random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), electrically erasable programmable read (EEPROM) -only memory), a programmable read-only memory (PROM), a magnetic memory, a magnetic disk, and an optical disk may include at least one type of storage medium. The electronic device 100 may be operated in relation to a web storage that performs a storage function of the memory 170 on the Internet.
한편, 앞서 살펴본 것과 같이, 제어부(180)는 응용 프로그램과 관련된 동작과, 통상적으로 전자기기(100)의 전반적인 동작을 제어한다. 예를 들어, 제어부(180)는 상기 수집장치의 상태가 설정된 조건을 만족하면, 애플리케이션들에 대한 사용자의 제어 명령의 입력을 제한하는 잠금 상태를 실행하거나, 해제할 수 있다. Meanwhile, as described above, the controller 180 controls the operation related to the application program and the general operation of the electronic device 100 . For example, if the state of the collection device satisfies a set condition, the controller 180 may execute or release a lock state that restricts input of a user's control command to applications.
또한, 제어부(180)는 음성 통화, 데이터 통신, 화상 통화 등과 관련된 제어 및 처리를 수행하거나, 터치 스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다. 나아가 제어부(180)는 이하에서 설명되는 다양한 실시 예들을 본 발명에 따른 전자기기(100) 상에서 구현하기 위하여, 위에서 살펴본 구성요소들을 중 어느 하나 또는 복수를 조합하여 제어할 수 있다.In addition, the controller 180 performs control and processing related to voice calls, data communication, video calls, etc., or performs pattern recognition processing capable of recognizing handwriting input or drawing input performed on the touch screen as characters and images, respectively. can Furthermore, in order to implement various embodiments described below on the electronic device 100 according to the present invention, the controller 180 may control any one or a plurality of the components described above by combining them.
전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가 받아 각 구성요소들의 동작에 필요한 전원을 공급한다. 전원공급부(190)는 배터리를 포함하며, 배터리는 충전 가능하도록 이루어지는 내장형 배터리가 될 수 있으며, 충전 등을 위하여 단말기 바디에 착탈 가능하게 결합될 수 있다.The power supply unit 190 receives external power and internal power under the control of the control unit 180 to supply power required for operation of each component. The power supply unit 190 includes a battery, and the battery may be a built-in battery configured to be rechargeable, and may be detachably coupled to the terminal body for charging or the like.
또한, 전원공급부(190)는 연결포트를 구비할 수 있으며, 연결포트는 배터리의 충전을 위하여 전원을 공급하는 외부 충전기가 전기적으로 연결되는 인터페이스(160)의 일 예로서 구성될 수 있다.In addition, the power supply unit 190 may include a connection port, and the connection port may be configured as an example of the interface 160 to which an external charger that supplies power for charging the battery is electrically connected.
다른 예로서, 전원공급부(190)는 상기 연결포트를 이용하지 않고 무선방식으로 배터리를 충전하도록 이루어질 수 있다. 이 경우에, 전원공급부(190)는 외부의 무선 전력 전송장치로부터 자기 유도 현상에 기초한 유도 결합(Inductive Coupling) 방식이나 전자기적 공진 현상에 기초한 공진 결합(Magnetic Resonance Coupling) 방식 중 하나 이상을 이용하여 전력을 전달받을 수 있다.As another example, the power supply unit 190 may be configured to charge the battery in a wireless manner without using the connection port. In this case, the power supply unit 190 using one or more of an inductive coupling method based on a magnetic induction phenomenon or a resonance coupling method based on an electromagnetic resonance phenomenon from an external wireless power transmitter. power can be transmitted.
한편, 이하에서 다양한 실시 예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다. Meanwhile, various embodiments below may be implemented in a computer-readable recording medium using, for example, software, hardware, or a combination thereof.
수집장치에 구비된 위치정보 모듈(115)은 수집장치의 위치를 탐지, 연산 또는 식별하기 위한 것으로, 대표적인 예로는 GPS(Global Position System) 모듈 및 WiFi(Wireless Fidelity) 모듈을 포함할 수 있다. 필요에 따라서, 위치정보모듈(115)은 치환 또는 부가적으로 수집장치의 위치에 관한 데이터를 얻기 위해 무선 통신부(110)의 다른 모듈 중 어느 기능을 수행할 수 있다. The location information module 115 provided in the collecting device is for detecting, calculating, or identifying the location of the collecting device, and representative examples thereof may include a GPS (Global Position System) module and a WiFi (Wireless Fidelity) module. If necessary, the location information module 115 may perform any function of the other modules of the wireless communication unit 110 in order to obtain data on the location of the collection device as a substitute or additionally.
상기 GPS모듈(115)은 3개 이상의 위성으로부터 떨어진 거리 정보와 정확한 시간 정보를 산출한 다음 상기 산출된 정보에 삼각법을 적용함으로써, 위도, 경도, 및 고도에 따른 3차원의 현 위치 정보를 정확히 산출할 수 있다. 현재, 3개의 위성을 이용하여 위치 및 시간 정보를 산출하고, 또 다른 1개의 위성을 이용하여 상기 산출된 위치 및 시간 정보의 오차를 수정하는 방법이 널리 사용되고 있다. 또한, GPS 모듈(115)은 현 위치를 실시간으로 계속 산출함으로써 속도 정보를 산출할 수 있다. 다만, 실내와 같이 위성 신호의 음영 지대에서는 GPS 모듈을 이용하여 정확히 수집장치의 위치를 측정하는 것이 어렵다. 이에 따라, GPS 방식의 측위를 보상하기 위해, WPS (WiFi Positioning System)이 활용될 수 있다. The GPS module 115 calculates distance information and accurate time information from three or more satellites, and then applies trigonometry to the calculated information to accurately calculate three-dimensional current location information according to latitude, longitude, and altitude. can do. Currently, a method of calculating position and time information using three satellites and correcting errors in the calculated position and time information using another one satellite is widely used. In addition, the GPS module 115 may calculate the speed information by continuously calculating the current location in real time. However, it is difficult to accurately measure the location of the collecting device using the GPS module in the shaded area of the satellite signal, such as indoors. Accordingly, in order to compensate for positioning using the GPS method, a WiFi Positioning System (WPS) may be utilized.
와이파이 위치추적 시스템(WPS: WiFi Positioning System)은 전자기기(100)에 구비된 WiFi모듈 및 상기 WiFi모듈과 무선신호를 송신 또는 수신하는 무선 AP(Wireless Access Point)를 이용하여, 전자기기(100)의 위치를 추적하는 기술로서, WiFi를 이용한 WLAN(Wireless Local Area Network)기반의 위치 측위 기술을 의미한다. A Wi-Fi positioning system (WPS: WiFi Positioning System) uses a WiFi module provided in the electronic device 100 and a wireless AP (Wireless Access Point) that transmits or receives a wireless signal with the WiFi module, the electronic device 100 As a technology for tracking the location of a wireless network, it refers to a wireless local area network (WLAN)-based positioning technology using WiFi.
와이파이 위치추적 시스템은 와이파이 위치측위 서버, 전자기기(100), 상기 전자기기(100)와 접속된 무선 AP, 임의의 무선 AP정보가 저장된 데이터 베이스를 포함할 수 있다.The Wi-Fi location tracking system may include a Wi-Fi positioning server, the electronic device 100, a wireless AP connected to the electronic device 100, and a database in which arbitrary wireless AP information is stored.
무선 AP와 접속 중인 전자기기(100)는 와이파이 위치 측위 서버로 위치정보 요청 메시지를 전송할 수 있다.The electronic device 100 connected to the wireless AP may transmit a location information request message to the Wi-Fi location location server.
와이파이 위치측위 서버는 전자기기(100)의 위치정보 요청 메시지(또는 신호)에 근거하여, 전자기기(100)와 접속된 무선 AP의 정보를 추출한다. 상기 전자기기(100)와 접속된 무선 AP의 정보는 전자기기(100)를 통해 상기 와이파이 위치측위 서버로 전송되거나, 무선 AP에서 와이파이 위치측위 서버로 전송될 수 있다.The Wi-Fi positioning server extracts information on the wireless AP connected to the electronic device 100 based on the location information request message (or signal) of the electronic device 100 . The information on the wireless AP connected to the electronic device 100 may be transmitted to the Wi-Fi positioning server through the electronic device 100 or may be transmitted from the wireless AP to the Wi-Fi positioning server.
상기 전자기기(100)의 위치정보 요청 메시지에 근거하여, 추출되는 무선 AP의 정보는 MAC Address, SSID(Service Set IDentification), RSSI(Received Signal Strength Indicator), RSRP(Reference Signal Received Power), RSRQ(Reference Signal Received Quality), 채널정보, Privacy, Network Type, 신호세기(Signal Strength) 및 노이즈 세기(Noise Strength)중 적어도 하나일 수 있다.Based on the location information request message of the electronic device 100, the extracted wireless AP information is MAC Address, Service Set IDentification (SSID), Received Signal Strength Indicator (RSSI), Reference Signal Received Power (RSRP), RSRQ ( Reference Signal Received Quality), channel information, Privacy, Network Type, signal strength, and noise strength may be at least one.
와이파이 위치측위 서버는 위와 같이, 전자기기(100)와 접속된 무선 AP의 정보를 수신하여, 미리 구축된 데이터베이스로부터 수집장치가 접속 중인 무선 AP와 대응되는 무선 AP 정보를 추출할 수 있다. 이때, 상기 데이터 베이스에 저장되는 임의의 무선 AP 들의 정보는 MAC Address, SSID, 채널정보, Privacy, Network Type, 무선 AP의 위경도 좌표, 무선 AP가 위치한 건물명, 층수, 실내 상세 위치정보(GPS 좌표 이용가능), AP소유자의 주소, 전화번호 등의 정보일 수 있다. 이때, 측위 과정에서 이동형 AP나 불법 MAC 주소를 이용하여 제공되는 무선 AP를 측위 과정에서 제거하기 위해, 와이파이 위치측위 서버는 RSSI 가 높은 순서대로 소정 개수의 무선 AP 정보만을 추출할 수도 있다.As described above, the Wi-Fi positioning server may receive information on the wireless AP connected to the electronic device 100 and extract wireless AP information corresponding to the wireless AP to which the collection device is connected from a pre-established database. At this time, the information of arbitrary wireless APs stored in the database includes MAC Address, SSID, channel information, Privacy, Network Type, latitude and longitude coordinates of the wireless AP, the name of the building where the wireless AP is located, the number of floors, and detailed indoor location information (GPS coordinates). available), the AP owner's address, phone number, and the like. In this case, in order to remove a mobile AP or a wireless AP provided using an illegal MAC address in the positioning process, the Wi-Fi positioning server may extract only a predetermined number of wireless AP information in order of increasing RSSI.
이후, 와이파이 위치측위 서버는 데이터 베이스로부터 추출된 적어도 하나의 무선 AP 정보를 이용하여 전자기기(100)의 위치정보를 추출(또는 분석)할 수 있다. 포함된 정보와 상기 수신된 무선 AP 정보를 비교하여, 상기 전자기기(100)의 위치정보를 추출(또는 분석)한다. Thereafter, the Wi-Fi positioning server may extract (or analyze) the location information of the electronic device 100 using at least one wireless AP information extracted from the database. By comparing the included information and the received wireless AP information, the location information of the electronic device 100 is extracted (or analyzed).
전자기기(100)의 위치정보를 추출(또는 분석)하기 위한 방법으로, Cell-ID 방식, 핑거 프린트 방식, 삼각 측량 방식 및 랜드마크 방식 등이 활용될 수 있다. As a method for extracting (or analyzing) the location information of the electronic device 100, a Cell-ID method, a fingerprint method, a triangulation method, a landmark method, etc. may be utilized.
Cell-ID 방식은 수집장치가 수집한 주변의 무선 AP 정보 중 신호 세기가 가장 강한 무선 AP의 위치를 수집장치의 위치로 결정하는 방법이다. 구현이 단순하고 별도의 비용이 들지 않으며 위치 정보를 신속히 얻을 수 있다는 장점이 있지만 무선 AP의 설치 밀도가 낮으면 측위 정밀도가 떨어진다는 단점이 있다. The Cell-ID method is a method of determining the location of the wireless AP having the strongest signal strength among the surrounding wireless AP information collected by the collecting device as the location of the collecting device. It has the advantages of being simple to implement, not requiring additional cost, and being able to obtain location information quickly, but has a disadvantage in that positioning accuracy is lowered if the installed density of the wireless AP is low.
핑거프린트 방식은 서비스 지역에서 참조위치를 선정하여 신호 세기 정보를 수집하고, 수집한 정보를 바탕으로 수집장치에서 전송하는 신호 세기 정보를 통해 위치를 추정하는 방법이다. 핑거프린트 방식을 이용하기 위해서는, 사전에 미리 전파 특성을 데이터베이스화할 필요가 있다. The fingerprint method is a method of collecting signal strength information by selecting a reference position in a service area, and estimating the position through signal strength information transmitted from a collection device based on the collected information. In order to use the fingerprint method, it is necessary to database the propagation characteristics in advance.
삼각 측량 방식은 적어도 세개의 무선 AP의 좌표와 수집장치 사이의 거리를 기초로 수집장치의 위치를 연산하는 방법이다. 수집장치와 무선 AP사이의 거리를 측정하기 위해, 신호 세기를 거리 정보로 변환하거나, 무선 신호가 전달되는 시간(Time of Arrival, ToA), 신호가 전달되는 시간 차이(Time Difference of Arrival, TDoA), 신호가 전달되는 각도(Angle of Arrival, AoA) 등을 이용할 수 있다. The triangulation method is a method of calculating the position of the collecting device based on the coordinates of at least three wireless APs and the distance between the collecting device. In order to measure the distance between the acquisition device and the wireless AP, the signal strength is converted into distance information, or the time at which the wireless signal is transmitted (Time of Arrival, ToA), the time difference of the signal is transmitted (Time Difference of Arrival, TDoA) , the angle at which the signal is transmitted (Angle of Arrival, AoA), etc. may be used.
랜드마크 방식은 위치를 알고 있는 랜드마크 발신기를 이용하여 수집장치의 위치를 측정하는 방법이다. The landmark method is a method of measuring the location of a collection device using a landmark transmitter that knows the location.
열거된 방법 이외에도 다양한 알고리즘이 수집장치의 위치정보를 추출(또는 분석)하기 위한 방법으로 활용될 수 있다. In addition to the enumerated methods, various algorithms may be utilized as a method for extracting (or analyzing) the location information of the collection device.
이렇게 추출된 전자기기(100)의 위치정보는 상기 와이파이 위치측위 서버를 통해 전자기기(100)로 전송됨으로써, 전자기기(100)는 위치정보를 획득할 수 있다.The location information of the electronic device 100 extracted in this way is transmitted to the electronic device 100 through the Wi-Fi positioning server, so that the electronic device 100 may obtain the location information.
전자기기(100)는 적어도 하나의 무선 AP 에 접속됨으로써, 위치 정보를 획득할 수 있다. 이때, 전자기기(100)의 위치 정보를 획득하기 위해 요구되는 무선 AP의 개수는 전자기기(100)가 위치한 무선 통신환경에 따라 다양하게 변경될 수 있다. The electronic device 100 may acquire location information by being connected to at least one wireless AP. In this case, the number of wireless APs required to acquire the location information of the electronic device 100 may be variously changed according to the wireless communication environment in which the electronic device 100 is located.
앞서 도 1을 통해 살펴본 바와 같이, 본 발명에 따른 수집장치에는 블루투스(Bluetooth쪠), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wireless USB(Wireless Universal Serial Bus) 등의 근거리 통신 기술이 적용될 수 있다.1, the collection device according to the present invention includes Bluetooth (Bluetooth), RFID (Radio Frequency Identification), Infrared Data Association (IrDA), UWB (Ultra Wideband), ZigBee, NFC (Near). Field Communication), a short-distance communication technology such as Wireless USB (Wireless Universal Serial Bus) may be applied.
이 중, 수집장치에 구비된 NFC 모듈은 10cm 안팎의 거리에서 단말 간 비접촉식 근거리 무선 통신을 지원한다. NFC 모듈은 카드 모드, 리더 모드 및 P2P 모드 중 어느 하나로 동작할 수 있다. NFC 모듈이 카드 모드로 운용되기 위해서, 전자기기(100)는 카드 정보를 저장하는 보안 모듈을 더 포함할 수도 있다. 여기서, 보안 모듈이란 UICC(Universal Integrated Circuit Card)(예컨대, SIM(Subscriber Identification Module) 또는 USIM(Universal SIM)), Secure micro SD 및 스티커 등 물리적 매체일 수도 있고, 수집장치에 임베디드되어 있는 논리적 매체(예컨대, embeded SE(Secure element))일 수도 있다. NFC 모듈과 보안 모듈 사이에는 SWP(Single Wire Protocol)에 기반한 데이터 교환이 이루어질 수 있다.Among them, the NFC module provided in the collection device supports contactless short-range wireless communication between terminals at a distance of about 10 cm. The NFC module may operate in any one of a card mode, a reader mode, and a P2P mode. In order for the NFC module to operate in the card mode, the electronic device 100 may further include a security module for storing card information. Here, the security module may be a physical medium such as a Universal Integrated Circuit Card (UICC) (eg, a Subscriber Identification Module (SIM) or a Universal SIM (USIM)), a Secure micro SD, and a sticker, and a logical medium embedded in the collection device ( For example, it may be an embedded secure element (SE). Data exchange based on SWP (Single Wire Protocol) may be performed between the NFC module and the security module.
NFC 모듈이 카드 모드로 운용되는 경우, 수집장치는 전통적인 IC 카드처럼 저장하고 있는 카드 정보를 외부로 전달할 수 있다. 구체적으로, 신용카드 또는 버스 카드 등 결제용 카드의 카드 정보를 저장하는 수집장치를 요금 결제기에 근접시키면, 모바일 근거리 결제가 처리될 수 있고, 출입용 카드의 카드 정보를 저장하는 수집장치를 출입 승인기에 근접 시키면, 출입의 승인 절차가 시작될 수 있다. 신용카드, 교통카드 및 출입카드 등의 카드는 애플릿(applet) 형태로 보안 모듈에 탑재되고, 보안 모듈은 탑재된 카드에 대한 카드 정보를 저장할 수 있다. 여기서, 결제용 카드의 카드 정보는 카드 번호, 잔액, 사용 내역 중 적어도 하나일 수 있고, 출입용 카드의 카드 정보는, 사용자의 이름, 번호(예컨대, 사용자의 학번 또는 사번), 출입 내역 중 적어도 하나일 수 있다. When the NFC module is operated in card mode, the collecting device can transmit the stored card information to the outside like a traditional IC card. Specifically, when a collection device for storing card information of a payment card such as a credit card or a bus card is brought close to a payment machine, a mobile short-distance payment can be processed, and the collection device for storing card information of the access card is approved for access Approaching the flag, the access approval process can begin. Cards such as credit cards, transportation cards, and access cards are loaded in the security module in the form of an applet, and the security module may store card information on the loaded card. Here, the card information of the payment card may be at least one of a card number, balance, and usage history, and the card information of the access card includes at least one of a user's name, number (eg, user's student number or company number), and access history. can be one
NFC 모듈이 리더 모드로 운용되는 경우, 수집장치는 외부의 태그(Tag)로부터 데이터를 독출할 수 있다. 이때, 수집장치가 태그로부터 수신하는 데이터는 NFC 포럼에서 정하는 데이터 교환 포맷(NFC Data Exchange Format)으로 코딩될 수 있다. 아울러, NFC 포럼에서는 4개의 레코드 타입을 규정한다. 구체적으로, NFC 포럼에서는 스마트 포스터(Smart Poster), 텍스트(Text), URI(Uniform Resource Identifier) 및 일반 제어(General Control) 등 4개의 RTD(Record Type Definition)를 규정한다. 태그로부터 수신한 데이터가 스마트 포스터 타입인 경우, 제어부는 브라우저(예컨대, 인터넷 브라우저)를 실행하고, 태그로부터 수신한 데이터가 텍스트 타입인 경우, 제어부는 텍스트 뷰어를 실행할 수 있다. 태그로부터 수신한 데이터가 URI 타입인 경우, 제어부는 브라우저를 실행하거나 전화를 걸고, 태그로부터 수신한 데이터가 일반 제어 타입인 경우, 제어 내용에 따라 적절한 동작을 실행할 수 있다.When the NFC module is operated in the reader mode, the collection device may read data from an external tag. In this case, the data that the collection device receives from the tag may be coded in a data exchange format (NFC Data Exchange Format) determined by the NFC forum. In addition, the NFC forum defines four record types. Specifically, the NFC forum defines four Record Type Definitions (RTDs) such as Smart Poster, Text, Uniform Resource Identifier (URI), and General Control. When the data received from the tag is a smart poster type, the controller executes a browser (eg, an Internet browser), and when the data received from the tag is a text type, the controller executes a text viewer. When the data received from the tag is a URI type, the controller executes a browser or makes a call, and when the data received from the tag is a general control type, an appropriate operation may be executed according to the control content.
NFC 모듈이 P2P(Peer-to-Peer) 모드로 운용되는 경우, 수집장치는 다른 수집장치와 P2P 통신을 수행할 수 있다. 이때, P2P 통신에는 LLCP(Logical Link Control Protocol) 가 적용될 수 있다. P2P 통신을 위해 수집장치와 다른 수집장치 사이에는 커넥션(connection)이 생성될 수 있다. 이때, 생성되는 커넥션은 1개의 패킷을 교환하고 종료되는 비접속형 모드(connectionless mode)와 연속적으로 패킷을 교환하는 접속형 지향 모드(connection-oriented mode)로 구분될 수 있다. P2P 통신을 통해, 전자적 형태의 명함, 연락처 정보, 디지털 사진, URL 등의 데이터 및 블루투스, Wi-Fi 연결을 위한 셋업 파라미터 등이 교환될 수 있다. 다만, NFC 통신의 가용 거리는 짧으므로, P2P 모드는 크기가 작은 데이터를 교환하는 것에 효과적으로 활용될 수 있을 것이다.When the NFC module is operated in a peer-to-peer (P2P) mode, the collecting device may perform P2P communication with another collecting device. In this case, a Logical Link Control Protocol (LLCP) may be applied to P2P communication. For P2P communication, a connection may be created between a collection device and another collection device. In this case, the generated connection may be divided into a connectionless mode in which one packet is exchanged and terminated, and a connection-oriented mode in which packets are continuously exchanged. Through P2P communication, data such as electronic business cards, contact information, digital photos, URLs, and setup parameters for Bluetooth and Wi-Fi connections may be exchanged. However, since the available distance of NFC communication is short, the P2P mode may be effectively utilized for exchanging small-sized data.
이하에서는 이와 같이 구성된 수집장치에서 구현될 수 있는 제어 방법과 관련된 실시 예들에 대해 첨부된 도면을 참조하여 살펴보겠다. 본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다.Hereinafter, embodiments related to a control method that can be implemented in the collecting device configured as described above will be described with reference to the accompanying drawings. It is apparent to those skilled in the art that the present invention may be embodied in other specific forms without departing from the spirit and essential characteristics of the present invention.
한편, 본 발명에 따른 전자기기(100)의 제어부(180)는 오디오 인식을 수행하는 인공지능 엔진을 탑재할 수 있다.Meanwhile, the controller 180 of the electronic device 100 according to the present invention may be equipped with an artificial intelligence engine for performing audio recognition.
구체적으로, 제어부(180)에 탑재되는 인공지능 엔진은, 비언어적 오디오 입력이 어떤 오디오 이벤트에 해당하는지 식별하도록 구성될 수 있다.Specifically, the artificial intelligence engine mounted on the controller 180 may be configured to identify which audio event the non-verbal audio input corresponds to.
일 예에서, 상기 인공지능 엔진은, 휘파람 소리로 레이블링된 트레이닝 데이터와, 휘파람 소리가 아닌 것으로 레이블링된 트레이닝 데이터를 이용하여 자가 학습을 수행할 수 있다. 즉, 상기 인공지능 엔진은 인공신경망을 구축하여, 휘파람 소리의 여부가 레이블링된 트레이닝 데이터를 입력받고, 입력된 트레이닝 데이터를 이용하여 미지의 입력 오디오 신호가 휘파람 소리인지 여부를 식별하도록 머신 러닝 또는 딥러닝을 수행할 수 있다.In an example, the artificial intelligence engine may perform self-learning using training data labeled with a whistle sound and training data labeled with a non-whistle sound. That is, the artificial intelligence engine builds an artificial neural network, receives training data labeled whether a whistle is heard, and uses the input training data to perform machine learning or deep learning to identify whether an unknown input audio signal is a whistle. running can be done.
다른 예에서, 상기 인공지능 엔진은, 오디오 신호가 입력되면 해당 오디오 신호의 레이블(Label)을 식별할 수 있으며, 특정 레이블로 식별된 오디오 신호의 적어도 일부분의 높이, 강도 및 지속시간 중 적어도 하나를 판별할 수 있다.In another example, when an audio signal is input, the AI engine may identify a label of the corresponding audio signal, and determine at least one of the height, intensity, and duration of at least a portion of the audio signal identified by the specific label. can be discerned.
이하, 도 2에서는 상술한 전자기기(100)를 오디오 신호로 제어하는 방법이 설명된다.Hereinafter, a method of controlling the above-described electronic device 100 with an audio signal is described with reference to FIG. 2 .
먼저, 도 2에 도시된 것과 같이, 전자기기(100)의 센싱부(140) 또는 마이크는, 사용자로부터 오디오 신호를 입력받을 수 있다(S201).First, as shown in FIG. 2 , the sensing unit 140 or the microphone of the electronic device 100 may receive an audio signal from a user ( S201 ).
제어부(180)는 입력된 상기 오디오 신호가 휘파람 소리인지 여부를 판단할 수 있다(S202).The controller 180 may determine whether the inputted audio signal is a whistle sound (S202).
구체적으로 제어부(180)는 미리 학습된 인공지능 모델을 이용하여, 입력된 오디오 신호가 휘파람 소리인지 여부를 판단할 수 있다. 이때, 인공지능 모델은 입력 오디오 신호를 발생시킨 주체와 관련된 정보를 식별하도록 구성될 수 있다.In more detail, the controller 180 may determine whether the input audio signal is a whistle sound by using a pre-learned artificial intelligence model. In this case, the artificial intelligence model may be configured to identify information related to the subject that generated the input audio signal.
예를 들어, 인공지능 모델은 복수의 클래스 별로 레이블링(Labeling)된 트레이닝 데이터에 의해 학습되어, 입력 오디오에 대해 상기 복수의 클래스 각각에 대응될 확률을 산출할 수 있다. 이 경우, 상기 복수의 클래스는 휘파람 소리를 포함할 수 있다.For example, the artificial intelligence model may be learned by training data labeled for each of the plurality of classes, and may calculate a probability corresponding to each of the plurality of classes with respect to the input audio. In this case, the plurality of classes may include a whistle sound.
다른 예에서, 인공지능 모델은 휘파람 소리로 레이블링된 트레이닝 데이터와, 휘파람 소리가 아닌 것으로 레이블링된 트레이닝 데이터에 의해 학습되어, 입력 오디오가 휘파람 소리인지 여부를 판별할 수 있다.In another example, the AI model may be trained by training data labeled as whistling and training data labeled as non-whistle to determine whether the input audio is a whistle.
아울러, 제어부(180)는 상기 오디오 신호가 휘파람 소리인 것으로 판단되면, 상기 휘파람 소리의 특성을 분석할 수 있다(S203).In addition, if it is determined that the audio signal is a whistle sound, the controller 180 may analyze the characteristics of the whistle sound ( S203 ).
여기에서 휘파람 소리의 특성이란, 휘파람 소리의 높이, 크기 및 지속시간 중 적어도 하나와 관련된 것일 수 있다.Here, the characteristic of the whistle may be related to at least one of a height, a size, and a duration of the whistle.
구체적으로, 제어부(180)는 휘파람 소리의 변화와 관련된 정보를 검출할 수도 있다. 즉, 제어부(180)는 휘파람 소리의 높이가 낮은 음에선 높은 음으로 변화하는지 여부를 검출할 수도 있고, 반대로 휘파람 소리의 높이가 높은 음에선 낮은 음으로 변화하는지 여부를 검출할 수도 있다.Specifically, the controller 180 may detect information related to a change in the whistling sound. That is, the controller 180 may detect whether the whistle changes to a high pitch in a low-pitched tone, or, conversely, detects whether the whistle changes into a low-pitched tone in a high-pitched tone.
또한, 제어부(180)는 휘파람 소리가 특정 높이의 음인지 여부를 검출할 수 있다. 나아가, 제어부(180)는 휘파람 소리가 특정 멜로디에 대응되는지 여부도 검출할 수 있다.Also, the controller 180 may detect whether the whistle sound is a sound of a specific height. Furthermore, the controller 180 may also detect whether the whistling sound corresponds to a specific melody.
일 실시예에서, 제어부(180)는 휘파람 소리를 분석하는 단계(S203)를 수행함에 있어서, 휘파람 소리의 높이, 강도 및 지속시간 중 적어도 하나를 판별하는 과정과, 판별결과에 근거하여 전자기기(100)에 대응되는 동작 명령을 생성하는 과정을 수행할 수 있다.In one embodiment, in performing the step of analyzing the whistle sound (S203), the controller 180 determines at least one of the height, intensity, and duration of the whistle sound, and the electronic device ( 100) may perform a process of generating an operation command corresponding to the operation command.
보다 상세하게, 제어부(180)는 휘파람 소리를 분석하는 단계(S203)를 수행함에 있어서, 휘파람 소리의 높이 변화를 감지하는 과정과, 감지된 높이 변화에 근거하여 전자기기에 대응되는 동작 명령을 생성하는 과정을 수행할 수 있다.In more detail, in performing the step S203 of analyzing the whistle, the controller 180 detects a change in the height of the whistle and generates an operation command corresponding to the electronic device based on the detected height change. process can be performed.
이후, 제어부(180)는 분석결과를 이용하여 전자기기(100)의 동작을 제어할 수 있다(S204).Thereafter, the controller 180 may control the operation of the electronic device 100 using the analysis result ( S204 ).
구체적으로, 제어부(180)는 전자기기(100)의 동작을 제어하는 단계(S204)를 수행함에 있어서, 휘파람 소리의 높이가 증가하는 것으로 감지되는 경우, 전자기기의 제1 동작이 수행되도록 구동부를 제어하는 과정과, 휘파람 소리의 높이가 감소하는 것으로 감지되는 경우, 전자기기의 제2 동작이 수행되도록 상기 구동부를 제어하는 과정과, 휘파람 소리의 높이가 유지되는 것으로 감지되는 경우, 전자기기의 제3 동작이 수행되도록 구동부를 제어하는 과정을 수행할 수 있다.Specifically, in performing the step S204 of controlling the operation of the electronic device 100 , the controller 180 controls the driving unit to perform the first operation of the electronic device when it is sensed that the height of the whistle is increased. a process of controlling the driving unit to perform a second operation of the electronic device when it is sensed that the height of the whistle is reduced 3 A process of controlling the driving unit to perform the operation may be performed.
예를 들어, 전자기기(100)가 냉장고인 경우, 제어부(180)는 휘파람 소리가 낮은 음에서 높은 음으로 변화한 것으로 분석되면, 상기 냉장고의 도어가 개방되도록 도어구동부를 제어할 수 있다.For example, when the electronic device 100 is a refrigerator, when it is analyzed that the whistling sound is changed from a low sound to a high sound, the controller 180 may control the door driving unit to open the door of the refrigerator.
일 실시예에서, 본 발명에서 제안한 오디오 기반 전자기기 제어방법은 냉장고에 적용될 수 있다.In one embodiment, the audio-based electronic device control method proposed by the present invention may be applied to a refrigerator.
이때, 냉장고는 오디오 신호를 입력받기 위한 마이크와, 입력된 오디오 신호가 휘파람인지 여부를 판단하는 제어부 및 휘파람 소리에 따라 동작하는 구동부를 포함할 수 있다. 이하에서는 설명의 편의를 위해, 구동부가 냉장고의 도어를 개폐하기 위한 도어개폐장치와, 냉장고의 동작과 관련된 정보를 출력하는 디스플레이를 포함하는 것으로 정의한다. 냉장고의 도어를 개방 또는 폐쇄하기 위하여 도어개폐장치는 도어의 힌지 부분에 구동력을 제공하는 모터와, 상기 구동력의 방향을 한정하는 가이드를 포함할 수 있다.In this case, the refrigerator may include a microphone for receiving an audio signal, a control unit that determines whether the input audio signal is a whistle, and a driving unit that operates according to a whistle sound. Hereinafter, for convenience of description, it is defined that the driving unit includes a door opening and closing device for opening and closing the door of the refrigerator, and a display for outputting information related to the operation of the refrigerator. In order to open or close the door of the refrigerator, the door opening and closing device may include a motor for providing a driving force to a hinge portion of the door, and a guide for limiting the direction of the driving force.
예를 들어, 제어부는 휘파람 소리가 낮은 음에서 높은 음으로 변화하는 것으로 판단되는 경우, 냉장고의 도어가 개방되도록 도어개폐장치를 제어할 수 있다. 반대로, 제어부는 휘파람 소리가 높은 음에서 낮은 음으로 변화하는 경우, 도어가 폐쇄되도록 도어개폐장치를 제어할 수 있다.For example, when it is determined that the whistle sound changes from a low sound to a high sound, the controller may control the door opening and closing device to open the door of the refrigerator. Conversely, the controller may control the door opening and closing device to close the door when the whistling sound changes from a high tone to a low tone.
다른 예에서, 제어부는 휘파람 소리의 음높이가 유지되는 경우, 냉장고의 디스플레이의 출력 화면을 변경시킬 수 있다.In another example, when the pitch of the whistle is maintained, the controller may change the output screen of the display of the refrigerator.
다른 실시예에서, 본 발명에서 제안한 오디오 기반 전자기기 제어방법은 인공지능 스피커와 같은 사물인터넷 기기에 적용될 수 있다.In another embodiment, the audio-based electronic device control method proposed by the present invention may be applied to IoT devices such as artificial intelligence speakers.
일반적으로 인공지능 스피커는, 설치된 장소 내에 존재하는 복수의 기기와 통신을 수행하며, 상기 복수의 기기의 동작을 제어하는 역할을 수행한다. 인공지능 스피커는 오디오 신호를 입력받는 마이크와, 상기 오디오 신호를 처리하는 제어부 및 오디오 신호와 관련된 정보를 저장하는 메모리, 상기 복수의 기기로 동작 명령을 전송하는 통신부를 포함할 수 있다.In general, an artificial intelligence speaker performs communication with a plurality of devices existing in an installed place, and serves to control operations of the plurality of devices. The artificial intelligence speaker may include a microphone for receiving an audio signal, a controller for processing the audio signal, a memory for storing information related to the audio signal, and a communication unit for transmitting an operation command to the plurality of devices.
예를 들어, 인공지능 스피커의 제어부는 휘파람 소리가 낮은 음에서 높은 음으로 변화하는 경우, 인공지능 스피커와 페어링된 제1 디바이스에 대응되는 동작 명령을 생성할 수 있다. 또한, 인공지능 스피커의 제어부는 휘파람 소리가 높은 음에서 낮은 음으로 변화하는 경우, 인공지능 스피커와 페어링된 제2 디바이스에 대응되는 동작 명령을 생성할 수 있다. 이와 같이, 인공지능 스피커의 제어부는 휘파람 소리의 변화에 따라 서로 다른 디바이스에 대한 동작명령을 생성할 수 있으며, 생성된 동작명령에 근거하여 각각의 디바이스의 동작을 제어할 수 있다.For example, when the whistle sound changes from a low tone to a high tone, the controller of the artificial intelligence speaker may generate an operation command corresponding to the first device paired with the artificial intelligence speaker. Also, when the whistle sound changes from a high tone to a low tone, the controller of the artificial intelligence speaker may generate an operation command corresponding to the second device paired with the artificial intelligence speaker. In this way, the control unit of the artificial intelligence speaker may generate operation commands for different devices according to changes in the whistling sound, and may control the operation of each device based on the generated operation commands.
다른 예에서, 인공지능 스피커의 제어부는 휘파람 소리의 변화에 따라 일 디바이스에 대한 서로 다른 동작명령을 생성할 수도 있다.In another example, the controller of the artificial intelligence speaker may generate different operation commands for one device according to a change in a whistle sound.
이하 도 3에서는 본 발명에 따른 전자기기 제어방법이 적용되는 냉장고의 구성요소가 설명된다.Hereinafter, components of a refrigerator to which the electronic device control method according to the present invention is applied will be described with reference to FIG. 3 .
도 3a는 본 발명에 따른 일 실시예의 제어 블록도이다.3A is a control block diagram of an embodiment according to the present invention.
본 발명은 상기 카메라(70)에 의해서 촬영된 하나의 사진을 복수 개의 이미지로 나누어 관리하는 제어부(300)를 포함할 수 있다. 이때 이미지는 상기 제어부(300)에 의해서 가공 또는 보정된 사진의 일부분을 의미하는 것이 가능하다.The present invention may include a control unit 300 that manages a single photo taken by the camera 70 by dividing it into a plurality of images. In this case, the image may mean a part of the photo processed or corrected by the controller 300 .
상기 제어부(300)는 상기 카메라(70)에서 사진을 촬영하도록 명령할 수 있고, 상기 카메라(70)에서 촬영된 사진을 전송받을 수 있다.The controller 300 may command the camera 70 to take a picture, and may receive a picture taken by the camera 70 .
또한 상기 제어부(300)는 나누어진 이미지의 일부를 상기 디스플레이(14)에 제공해서, 사용자에게 상기 저장실(22)에 저장된 식품에 관한 최신 정보를 제공할 수 있다. 이때 상기 디스플레이(14)는 냉장고의 전면에 설치되는 것도 가능하고, 냉장고로부터 분리된 별도의 장치를 이루는 것도 가능하다. 즉 사용자는 핸드폰과 같은 외부 통신 단말기를 통해서 상기 저장실(22)에 관한 이미지를 전송받고, 정보를 획득하는 것이 가능하다.In addition, the control unit 300 may provide a portion of the divided image to the display 14 to provide the user with the latest information about the food stored in the storage compartment 22 . In this case, the display 14 may be installed on the front of the refrigerator, or it may be a separate device separated from the refrigerator. That is, it is possible for the user to receive the image related to the storage room 22 through an external communication terminal such as a mobile phone and obtain information.
이때 상기 제어부(300)는 상기 카메라(70)에 의해서 찍힌 사진을 각각의 영역별로 구획하고, 복수 개의 독립된 이미지로 구분해서 상기 디스플레이(14)에 제공할 수 있다. 이때 상기 제어부(100)에 의해서 선택되는 사진은 사용자가 마지막으로 상기 저장실(22)에 접근해서, 저장실에서 식품을 인출하거나 식품을 입고한 최근 저장실 상태에 관한 정보를 포함할 수 있다.In this case, the control unit 300 may divide the picture taken by the camera 70 for each area, classify it into a plurality of independent images, and provide it to the display 14 . In this case, the photo selected by the control unit 100 may include information about the recent storage room state in which the user last accessed the storage room 22 and took out food from the storage room or put food in it.
본 발명의 실시예는 상기 도어(20)가 상기 저장실(22)을 개폐하는지 감지할 수 있는 도어 스위치(310)를 포함할 수 있다. 이때 상기 도어 스위치(310)는 상기 아우터 케이스(10)에 마련되어서, 상기 아우터 케이스(10)에 상기 도어(20)가 접촉하게 되면 상기 도어(20)가 상기 저장실(22)을 밀폐하는 것으로 감지할 수 있다. 또한 상기 아우터 케이스(10)에 상기 도어(20)가 접촉하지 않으면, 상기 도어(20)가 상기 저장실(22)을 개방하는 것으로 감지할 수 있다.An embodiment of the present invention may include a door switch 310 capable of detecting whether the door 20 opens or closes the storage compartment 22 . At this time, the door switch 310 is provided in the outer case 10 , and when the door 20 comes into contact with the outer case 10 , it is sensed that the door 20 seals the storage chamber 22 . can do. Also, when the door 20 does not contact the outer case 10 , it may be detected that the door 20 opens the storage compartment 22 .
또한 본 발명의 실시예는 상기 도어(20)의 회전각을 감지하는 도어 센서(320)를 포함할 수 있다. 이때 상기 도어 센서(320)는 상기 도어(20)의 회전 방향 및 상기 도어(20)의 회전 각도를 감지할 수 있다. 예를 들어, 상기 도어(20)가 일정 각도 이상 회전하게 되면 상기 도어 센서(320)에 변화가 발생해서, 상기 도어 센서(320)에서 상기 도어(20)가 일정 각도 이상 회전된 것을 감지할 수 있다. 또한 상기 도어(20)가 특정 방향으로 회전되면 방향에 따라 발생되는 펄스의 변화를 감지해서 상기 도어(20)의 회전 방향을 감지하는 것이 가능하다. 물론 상기 도어 센서(320)는 상술한 방식 이외에 다양한 형태로 변형될 수 있다.In addition, an embodiment of the present invention may include a door sensor 320 that detects a rotation angle of the door 20 . In this case, the door sensor 320 may detect a rotation direction of the door 20 and a rotation angle of the door 20 . For example, when the door 20 is rotated by a certain angle or more, a change occurs in the door sensor 320, and the door sensor 320 can detect that the door 20 is rotated by a certain angle or more. have. In addition, when the door 20 is rotated in a specific direction, it is possible to sense the rotation direction of the door 20 by detecting a change in a pulse generated according to the direction. Of course, the door sensor 320 may be modified in various forms other than the above-described method.
이 외에도 상기 도어 센서(320)는 발광부와 수광부를 구비해서 발광부에서 조사되는 빛이 수광부로 전달되는지 여부를 판단해서, 상기 도어(20)의 회전 각도를 감지하는 것도 가능하다.In addition, the door sensor 320 includes a light emitting unit and a light receiving unit to determine whether the light irradiated from the light emitting unit is transmitted to the light receiving unit, and thus it is also possible to detect the rotation angle of the door 20 .
특히 상기 도어 센서(320)는 상기 도어 스위치(310)에서 상기 도어(20)가 상기 저장실(22)을 개방한 것으로 판단되는 경우에 한해서 구동될 수 있다.In particular, the door sensor 320 may be driven only when the door switch 310 determines that the door 20 has opened the storage compartment 22 .
한편 상기 도어 센서(320)에서 상기 도어(20)가 특정 각도로 회전되었다고 판단하면 상기 카메라(70)에서 사진을 촬영하는 것도 가능하다. 이 경우에는 상기 도어 스위치(310)에서 상기 도어(20)의 개방이 감지되더라도 상기 카메라(70)가 사진 촬영을 바로 시작하는 것이 아니라, 상기 도어 센서(320)에서 특정 각도에 도달한 경우에 사진을 촬영하게 된다.Meanwhile, when the door sensor 320 determines that the door 20 is rotated at a specific angle, it is also possible to take a picture with the camera 70 . In this case, even if the door switch 310 detects that the door 20 is opened, the camera 70 does not immediately start taking a picture, but takes a picture when the door sensor 320 reaches a specific angle. will be filmed
상기 카메라(70)는 촬영을 시작하게 되면, 소정 시간 간격으로 계속해서 사진을 촬영하는 것도 가능하다. 물론 상기 도어 센서(320)에서 상기 도어(20)가 일정 각도 만큼 개방된 것으로 판단하면 상기 카메라(70)에서는 한 장의 사진이 아닌, 사진 촬영 중지 명령이 제공될 때까지 계속 사진을 촬영하는 것이 가능하다.When the camera 70 starts shooting, it is also possible to continuously take pictures at predetermined time intervals. Of course, if the door sensor 320 determines that the door 20 is opened by a certain angle, the camera 70 may continue to take pictures until a command to stop taking pictures is provided, instead of a single picture. do.
상기 제어부(300)는 상기 드로워(50)의 인출 또는 인입 여부를 감지하는 드로워 감지부(330)를 포함할 수 있다.The control unit 300 may include a drawer detection unit 330 that detects whether the drawer 50 is drawn out or retracted.
이때 상기 드로워 감지부(330)는 상기 카메라(70)에서 촬영된 사진이 상기 제어부(300) 내에서 영상을 판독하는 부분을 의미할 수 있다. 상기 드로워 감지부(330)는 상기 드로워(50)의 이동은 물론, 상기 드로워(50)의 이동 방향까지 감지하는 것이 가능하다.In this case, the drawer detection unit 330 may mean a portion in which the picture taken by the camera 70 reads an image in the control unit 300 . The drawer sensing unit 330 may sense the movement of the drawer 50 as well as the movement direction of the drawer 50 .
특히 상기 드로워 감지부(330)는 소프트웨어에 의해서 구현될 수도 있다. 상기 드로워 감지부(330)는 상기 카메라(70)에서 촬영된 사진에서 촬영된 정보를 이용해서, 상기 드로워(50)의 위치를 감지할 수 있다.In particular, the drawer sensing unit 330 may be implemented by software. The drawer detection unit 330 may detect the position of the drawer 50 by using information taken from a picture taken by the camera 70 .
상기 드로워(50)에는 마커라는 인식표시를 구비해서, 상기 마커가 촬영된 사진을 통하여 상기 드로워(50)가 특정 구간으로 진입했는지, 진입했다면 정지했는지, 정지 후에는 이동 방향이 전환되는 지에 관한 정보를 알 수 있다. 상기 마커에 대해서는 추후에 구체적으로 다시 설명한다.The drawer 50 is provided with a recognition mark called a marker, and whether the drawer 50 has entered a specific section through the photograph in which the marker is taken, whether it is stopped if it has entered, or whether the movement direction is changed after stopping information can be found about The markers will be described in detail later.
상기 마커는 상기 드로워에 표시되어 있기 때문에, 상기 드로워(50)와 동일한 움직임을 가진다. 따라서 드로워의 이동을 감지하기 위한 별도의 센서를 구비하지 않고, 상기 카메라(70)에서 촬영된 사진의 정보를 이용해서 상기 드로워(50)의 이동에 대한 다양한 정보를 획득할 수 있다.Since the marker is marked on the drawer, it has the same movement as the drawer 50 . Accordingly, various information about the movement of the drawer 50 can be obtained by using the information of the picture taken by the camera 70 without a separate sensor for detecting the movement of the drawer.
상기 카메라(70)에서 찍힌 사진은 저장부(18)에 저장될 수 있다. 이때 상기 저장부(18)는 냉장고에 마련될 수도 있고, 냉장고와는 별도의 다른 장치에 마련될 수 있다. 이때 상기 저장부(18)는 상기 디스플레이(14)와 함께 냉장고에 배치되거나, 상기 디스플레이(14)와 함께 냉장고와는 다른 장치, 냉장고와 네트워크에 연결된 서버 또는 냉장고와 네트워크에 연결된 단말기에 구비될 수 있다.The photo taken by the camera 70 may be stored in the storage unit 18 . In this case, the storage unit 18 may be provided in the refrigerator or may be provided in another device separate from the refrigerator. In this case, the storage unit 18 may be disposed in the refrigerator together with the display 14, or may be provided in a device other than the refrigerator together with the display 14, a server connected to the refrigerator and a network, or a terminal connected to the refrigerator and the network. have.
이때 상기 저장부(18)는 상기 카메라(70)에서 찍힌 모든 사진을 저장하지 않을 수 있다. 예를 들어, 상기 저장부(18)는 상기 제어부(300)에서 특정 사진을 선택하라는 명령이 발생하지 않은 경우에는, 앞에서 찍혀서 저장된 사진을 삭제하고 현재 촬영된 사진을 저장하는 것이 가능하다(First In, First Out). 상기 저장부(18)는 상기 카메라(70)에서 찍힌 사진 중 일부만 저장해서, 저장 용량을 줄일 수 있다.In this case, the storage unit 18 may not store all the photos taken by the camera 70 . For example, when a command to select a specific photo does not occur in the control unit 300 , the storage unit 18 may delete a previously captured photo and store the currently captured photo (First In). , First Out). The storage unit 18 stores only some of the photos taken by the camera 70, thereby reducing the storage capacity.
도 3(b)는 본 발명에 따른 일 실시예의 변형된 형태의 제어 블록도이다.3B is a control block diagram of a modified form of an embodiment according to the present invention.
도 3(b)에서는 도 3(a)와는 달리 상기 드로워 감지부(330)가 상기 카메라(70)에서 촬영된 사진에서 획득된 정보를 이용하지 않고, 별도로 상기 드로워(50)의 이동을 감지할 수 있다.In FIG. 3(b), unlike FIG. 3(a), the drawer detection unit 330 does not use the information obtained from the picture taken by the camera 70, but separately moves the drawer 50. can detect
예를 들어, 상기 드로워 감지부(330)는 복수 개의 홀 센서와 같은 형태로 이루어질 수 있다. 복수 개의 홀 센서가 상기 드로워(50)의 이동 경로에 설치될 수 있다. 상기 드로워(50)가 이동되는 경우에는 복수 개의 홀 센서가 각각 변화되는 것을 감지해서, 상기 드로워(50)의 위치 및 이동 방향을 감지할 수 있다.For example, the drawer sensing unit 330 may have the same shape as a plurality of Hall sensors. A plurality of Hall sensors may be installed in the movement path of the drawer 50 . When the drawer 50 is moved, it is possible to detect a change in a plurality of Hall sensors, respectively, to detect a position and a movement direction of the drawer 50 .
상기 드로워 감지부(330)에서 드로워의 이동을 감지해서, 상기 카메라(70)에서 사진을 촬영할 때에 상기 카메라(70)가 찍은 사진에 상기 드로워의 내부 모습이 담기는 시점을 파악할 수 있다. 즉 상기 드로워 감지부(330)는 상기 카메라가 촬영한 사진에 상기 드로워 내부에 저장된 물품에 관한 정보가 표현될 수 있는 시점을 감지할 수 있다.By detecting the movement of the drawer by the drawer detection unit 330, when the camera 70 takes a picture, it is possible to grasp the time point at which the inside of the drawer is included in the picture taken by the camera 70. . That is, the drawer detection unit 330 may detect a point in time at which information about an item stored in the drawer can be expressed in the picture taken by the camera.
상기 드로워 감지부(330)는 상기 드로워의 이동을 감지해서, 사용자가 상기 드로워를 사용한 후에 최신 상태라고 판단하는 시점을 감지할 수 있다. 즉 상기 드로워 감지부(330)는 상기 카메라가 촬영한 사진에 사용자가 상기 드로워의 사용을 마친 최신 정보를 포함하는 시점을 감지할 수 있다. 즉, 물품의 입출고의 완료 시점 또는 물품 업데이트의 종료 시점을 간접적으로 파악할 수 있다.The drawer sensing unit 330 may detect the movement of the drawer, and may detect a point in time when the user determines that the drawer is in the latest state after using the drawer. That is, the drawer detection unit 330 may detect a point in time including the latest information that the user has finished using the drawer in the picture taken by the camera. That is, it is possible to indirectly grasp the completion time of the arrival and departure of goods or the end time of the update of the goods.
도 4는 휘파람 소리를 이용하여 냉장고의 동작을 제어하는 방법을 나타내는 개념도이다. 도 4를 참조하면, 사용자가 휘파람을 불어 냉장고의 동작을 제어할 수 있다. 이때 사용자는 냉장고의 동작을 제어하기 위해 휘파람을 다양한 방식으로 불 수 있고, 사용자가 휘파람을 부는 방식을 제어부가 분석하여 분석결과에 대응되는 미리 설정된 패턴의 동작을 냉장고가 수행하게 된다.4 is a conceptual diagram illustrating a method of controlling an operation of a refrigerator using a whistle sound. Referring to FIG. 4 , the user may control the operation of the refrigerator by blowing a whistle. In this case, the user may blow a whistle in various ways to control the operation of the refrigerator, and the controller analyzes the manner in which the user blows a whistle, and the refrigerator performs an operation of a preset pattern corresponding to the analysis result.
상기 휘파람을 부는 다양한 방식으로는 휘파람 소리의 높낮이를 변화시키는 방법, 휘파람 소리의 길이를 달리하는 방법, 휘파람 소리의 세기를 달리하는 방법, 특정한 멜로디로 부는 방법 등이 있다. 상세하게, 높낮이를 변화시키는 방법은 소리의 높이가 증가하도록 하거나, 소리의 높이를 감소하도록 하거나, 소리의 높이를 일정하게 유지하는 방법을 포함할 수 있고, 휘파람 소리의 길이를 달리하는 방법은 짧거나 긴 휘파람 소리를 반복해서 내거나, 짧거나 긴 휘파람 소리를 정해진 횟수만큼 내는 방법을 포함할 수 있으며, 휘파람 소리의 세기를 달리하는 방법은 휘파람을 부는 세기에 따라 달라지는 소리의 크기(dB)를 다르게 하는 방법을 포함할 수 있고, 특정한 멜로디로 부는 방법은 정해진 멜로디에 대응되는 음의 높낮이에 맞추어 휘파람을 부는 방법을 포함할 수 있다. 또한, 사용자는 위 방법들을 조합하여 더 많은 방법으로 휘파람을 불 수 있다.Various methods of blowing the whistle include a method of varying the pitch of the whistle, a method of varying the length of the whistle, a method of varying the strength of the whistle, a method of blowing a specific melody, and the like. In detail, the method of changing the pitch may include a method of increasing the height of the sound, decreasing the height of the sound, or maintaining the height of the sound constant, and the method of varying the length of the whistle is short. It may include a method of repeatedly making a long whistle, or a method of making a short or long whistle a predetermined number of times. and a method of blowing a specific melody may include a method of blowing a whistle according to the pitch of a note corresponding to a predetermined melody. Also, the user can whistle in more ways by combining the above methods.
상기 사용자가 휘파람을 부는 방법에 대응되는 냉장고의 동작은 냉장고의 도어를 열거나 닫는 동작, 외부 디스플레이 출력화면 변경, 냉장고의 냉장실 또는 냉동실 내부 온도 조절 및 습도 조절, 얼음 얼리기 등을 포함할 수 있다. 상세하게, 냉장고의 구조에 따라 문의 개수가 다를 수 있는데, 문 전부를 열거나 닫도록 하는 동작이나 각각의 문을 열거나 닫는 동작을 포함할 수 있으며, 냉장고에 외부 디스플레이가 있는 경우, 외부디스플레이에서 보여주는 정보를 보고 싶은 다른 정보로 변경하거나 특정 정보를 불러오는 동작을 포함할 수 있고, 냉장고의 냉동실 또는 냉장실의 온도 또는 습도를 단계별로 올리거나 내리는 동작이나 특정 단계로 변경하는 동작을 포함할 수 있으며, 아이스 메이커가 내장된 냉장고의 경우, 얼음을 얼리는 동작을 포함할 수 있다. 또한, 위 동작 이외에도 냉장고에 따라 제공하는 추가적인 기능도 동작하도록 구비될 수 있다.The operation of the refrigerator corresponding to the method by which the user blows a whistle may include an operation of opening or closing a door of the refrigerator, changing an external display output screen, temperature control and humidity control in the refrigerator or freezer compartment of the refrigerator, humidity control, ice freezing, etc. . In detail, the number of doors may be different depending on the structure of the refrigerator, and may include an operation to open or close all the doors or an operation to open or close each door. It may include the operation of changing the displayed information to other information that you want to see or calling specific information, and may include the operation of raising or lowering the temperature or humidity of the freezer or refrigerating compartment of the refrigerator step by step, or changing the operation to a specific level, In the case of a refrigerator having a built-in ice maker, an operation of freezing the ice may be included. In addition, in addition to the above operation, additional functions provided according to the refrigerator may also be operated.
위와 같이 사용자가 휘파람을 부는 다양한 방법들이 있을 수 있고, 그에 대응되는 냉장고의 다양한 동작이 있을 수 있다. 이러한 상기 휘파람을 부는 다양한 방법과 상기 냉장고의 동작이 각각 매칭되어 미리 설정된 동작을 하도록 할 수 있다. 또한, 미리 설정된 동작이 아니더라도 사용자가 원하는 냉장고의 동작을 특정 휘파람 부는 방식과 매칭하여 해당 휘파람 부는 방식에 대응되는 냉장고의 동작을 추가로 설정하는 방식도 포함될 수 있고, 휘파람 부는 방식에 한 가지 동작만 대응되는 것이 아니라 복수의 동작이 대응되어 순차적으로 진행되는 방식도 포함될 수 있다.As described above, there may be various methods for the user to whistle, and there may be various operations of the refrigerator corresponding thereto. The various methods of blowing the whistle and the operation of the refrigerator may be matched to perform a preset operation. In addition, even if it is not a preset operation, a method of matching an operation of the refrigerator desired by the user to a specific whistling method and additionally setting an operation of the refrigerator corresponding to the corresponding whistling method may be included. A method in which a plurality of operations are sequentially performed may be included rather than corresponding.
도 5는 본 발명에 따른 전자기기 제어방법이 적용되는 AI 스피커의 구성요소를 나타낸 블록도이다.5 is a block diagram showing the components of an AI speaker to which the electronic device control method according to the present invention is applied.
AI 스피커(500)는 TV, 프로젝터, 휴대폰, 스마트폰, 데스크탑 컴퓨터, 노트북, 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 태블릿 PC, 웨어러블 장치, 셋톱박스(STB), DMB 수신기, 라디오, 세탁기, 냉장고, 데스크탑 컴퓨터, 디지털 사이니지, 로봇, 차량 과 같은, 고정형 기기 또는 이동 가능한 기기 등으로 구현될 수 있다. AI speaker 500 is a TV, projector, mobile phone, smartphone, desktop computer, notebook computer, digital broadcasting terminal, PDA (personal digital assistants), PMP (portable multimedia player), navigation, tablet PC, wearable device, set-top box (STB) ), a DMB receiver, a radio, a washing machine, a refrigerator, a desktop computer, a digital signage, a robot, a vehicle, etc.
도 5를 참조하면, AI 스피커(500)는 통신부(510), 입력부(520), 러닝 프로세서(530), 센싱부(540), 출력부(550), 메모리(570) 및 프로세서(580) 등을 포함할 수 있다.Referring to FIG. 5 , the AI speaker 500 includes a communication unit 510 , an input unit 520 , a learning processor 530 , a sensing unit 540 , an output unit 550 , a memory 570 and a processor 580 , etc. may include
통신부(510)는 유무선 통신 기술을 이용하여 다른 AI 장치(500a 내지 500e)나 AI 서버(미도시) 등의 외부 장치들과 데이터를 송수신할 수 있다. 예컨대, 통신부(510)는 외부 장치들과 센서 정보, 사용자 입력, 학습 모델, 제어신호 등을 송수신할 수 있다.The communication unit 510 may transmit/receive data to and from external devices such as other AI devices 500a to 500e or an AI server (not shown) using wired/wireless communication technology. For example, the communication unit 510 may transmit and receive sensor information, a user input, a learning model, a control signal, and the like with external devices.
이때, 통신부(510)가 이용하는 통신 기술에는 GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), LTE(Long Term Evolution), 5G, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), 블루투스(Bluetooth쪠), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), ZigBee, NFC(Near Field Communication) 등이 있다.In this case, the communication technology used by the communication unit 510 includes Global System for Mobile communication (GSM), Code Division Multi Access (CDMA), Long Term Evolution (LTE), 5G, Wireless LAN (WLAN), and Wireless-Fidelity (Wi-Fi). ), Bluetooth, RFID (Radio Frequency Identification), Infrared Data Association (IrDA), ZigBee, NFC (Near Field Communication), and the like.
입력부(520)는 다양한 종류의 데이터를 획득할 수 있다.The input unit 520 may acquire various types of data.
이때, 입력부(520)는 영상 신호 입력을 위한 카메라, 오디오 신호를 수신하기 위한 마이크로폰, 사용자로부터 정보를 입력 받기 위한 사용자 입력부 등을 포함할 수 있다. 여기서, 카메라나 마이크로폰을 센서로 취급하여, 카메라나 마이크로폰으로부터 획득한 신호를 센싱 데이터 또는 센서 정보라고 할 수도 있다.In this case, the input unit 520 may include a camera for inputting an image signal, a microphone for receiving an audio signal, a user input unit for receiving information from a user, and the like. Here, by treating the camera or the microphone as a sensor, a signal obtained from the camera or the microphone may be referred to as sensing data or sensor information.
입력부(520)는 모델 학습을 위한 학습 데이터 및 학습 모델을 이용하여 출력을 획득할 때 사용될 입력 데이터 등을 획득할 수 있다. 입력부(520)는 가공되지 않은 입력 데이터를 획득할 수도 있으며, 이 경우 프로세서(580) 또는 러닝 프로세서(530)는 입력 데이터에 대하여 전처리로써 입력 특징점(input feature)을 추출할 수 있다.The input unit 520 may acquire training data for model training and input data to be used when acquiring an output using the training model. The input unit 520 may acquire raw input data, and in this case, the processor 580 or the learning processor 530 may extract an input feature by preprocessing the input data.
러닝 프로세서(530)는 학습 데이터를 이용하여 인공 신경망으로 구성된 모델을 학습시킬 수 있다. 여기서, 학습된 인공 신경망을 학습 모델이라 칭할 수 있다. 학습 모델은 학습 데이터가 아닌 새로운 입력 데이터에 대하여 결과 값을 추론해 내는데 사용될 수 있고, 추론된 값은 어떠한 동작을 수행하기 위한 판단의 기초로 이용될 수 있다.The learning processor 530 may train a model composed of an artificial neural network by using the training data. Here, the learned artificial neural network may be referred to as a learning model. The learning model may be used to infer a result value with respect to new input data other than the training data, and the inferred value may be used as a basis for a decision to perform a certain operation.
이때, 러닝 프로세서(530)는 AI 서버의 러닝 프로세서(미도시)과 함께 AI 프로세싱을 수행할 수 있다.In this case, the learning processor 530 may perform AI processing together with a running processor (not shown) of the AI server.
이때, 러닝 프로세서(530)는 AI 스피커(500)에 통합되거나 구현된 메모리를 포함할 수 있다. 또는, 러닝 프로세서(530)는 메모리(570), AI 스피커(500)에 직접 결합된 외부 메모리 또는 외부 장치에서 유지되는 메모리를 사용하여 구현될 수도 있다.In this case, the learning processor 530 may include a memory integrated or implemented in the AI speaker 500 . Alternatively, the learning processor 530 may be implemented using the memory 570 , an external memory directly coupled to the AI speaker 500 , or a memory maintained in an external device.
센싱부(540)는 다양한 센서들을 이용하여 AI 스피커(500) 내부 정보, AI 스피커(500)의 주변 환경 정보 및 사용자 정보 중 적어도 하나를 획득할 수 있다.The sensing unit 540 may acquire at least one of internal information of the AI speaker 500 , information about the surrounding environment of the AI speaker 500 , and user information by using various sensors.
이때, 센싱부(540)에 포함되는 센서에는 근접 센서, 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, RGB 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰, 라이다, 레이더 등이 있다.At this time, sensors included in the sensing unit 540 include a proximity sensor, an illuminance sensor, an acceleration sensor, a magnetic sensor, a gyro sensor, an inertial sensor, an RGB sensor, an IR sensor, a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor, a microphone, and a lidar. , radar, etc.
출력부(550)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시킬 수 있다.The output unit 550 may generate an output related to sight, hearing, or touch.
이때, 출력부(550)에는 시각 정보를 출력하는 디스플레이부, 청각 정보를 출력하는 스피커, 촉각 정보를 출력하는 햅틱 모듈 등이 포함될 수 있다.In this case, the output unit 550 may include a display unit that outputs visual information, a speaker that outputs auditory information, and a haptic module that outputs tactile information.
메모리(570)는 AI 스피커(500)의 다양한 기능을 지원하는 데이터를 저장할 수 있다. 예컨대, 메모리(570)는 입력부(520)에서 획득한 입력 데이터, 학습 데이터, 학습 모델, 학습 히스토리 등을 저장할 수 있다.The memory 570 may store data supporting various functions of the AI speaker 500 . For example, the memory 570 may store input data obtained from the input unit 520 , learning data, a learning model, a learning history, and the like.
프로세서(580)는 데이터 분석 알고리즘 또는 머신 러닝 알고리즘을 사용하여 결정되거나 생성된 정보에 기초하여, AI 스피커(500)의 적어도 하나의 실행 가능한 동작을 결정할 수 있다. 그리고, 프로세서(580)는 AI 스피커(500)의 구성 요소들을 제어하여 결정된 동작을 수행할 수 있다.The processor 580 may determine at least one executable operation of the AI speaker 500 based on information determined or generated using a data analysis algorithm or a machine learning algorithm. In addition, the processor 580 may control the components of the AI speaker 500 to perform the determined operation.
이를 위해, 프로세서(580)는 러닝 프로세서(530) 또는 메모리(570)의 데이터를 요청, 검색, 수신 또는 활용할 수 있고, 상기 적어도 하나의 실행 가능한 동작 중 예측되는 동작이나, 바람직한 것으로 판단되는 동작을 실행하도록 AI 스피커(500)의 구성 요소들을 제어할 수 있다.To this end, the processor 580 may request, search, receive, or utilize the data of the learning processor 530 or the memory 570, and perform a predicted operation or an operation determined to be desirable among the at least one executable operation. It is possible to control the components of the AI speaker 500 to execute.
이때, 프로세서(580)는 결정된 동작을 수행하기 위하여 외부 장치의 연계가 필요한 경우, 해당 외부 장치를 제어하기 위한 제어 신호를 생성하고, 생성한 제어 신호를 해당 외부 장치에 전송할 수 있다.In this case, when the connection of the external device is required to perform the determined operation, the processor 580 may generate a control signal for controlling the corresponding external device and transmit the generated control signal to the corresponding external device.
프로세서(580)는 사용자 입력에 대하여 의도 정보를 획득하고, 획득한 의도 정보에 기초하여 사용자의 요구 사항을 결정할 수 있다.The processor 580 may obtain intention information with respect to a user input, and determine a user's requirement based on the obtained intention information.
이때, 프로세서(580)는 음성 입력을 문자열로 변환하기 위한 STT(Speech To Text) 엔진 또는 자연어의 의도 정보를 획득하기 위한 자연어 처리(NLP: Natural Language Processing) 엔진 중에서 적어도 하나 이상을 이용하여, 사용자 입력에 상응하는 의도 정보를 획득할 수 있다.In this case, the processor 580 uses at least one of a speech to text (STT) engine for converting a voice input into a character string or a natural language processing (NLP) engine for obtaining intention information of a natural language. Intention information corresponding to the input may be obtained.
이때, STT 엔진 또는 NLP 엔진 중에서 적어도 하나 이상은 적어도 일부가 머신 러닝 알고리즘에 따라 학습된 인공 신경망으로 구성될 수 있다. 그리고, STT 엔진 또는 NLP 엔진 중에서 적어도 하나 이상은 러닝 프로세서(530)에 의해 학습된 것이나, AI 서버의 러닝 프로세서(미도시)에 의해 학습된 것이거나, 또는 이들의 분산 처리에 의해 학습된 것일 수 있다.In this case, at least one of the STT engine and the NLP engine may be configured as an artificial neural network, at least a part of which is learned according to a machine learning algorithm. And, at least one or more of the STT engine or the NLP engine may be learned by the learning processor 530, learned by the learning processor (not shown) of the AI server, or learned by distributed processing thereof. have.
프로세서(580)는 AI 스피커(500)의 동작 내용이나 동작에 대한 사용자의 피드백 등을 포함하는 이력 정보를 수집하여 메모리(570) 또는 러닝 프로세서(530)에 저장하거나, AI 서버 등의 외부 장치에 전송할 수 있다. 수집된 이력 정보는 학습 모델을 갱신하는데 이용될 수 있다.The processor 580 collects history information including the user's feedback on the operation contents or operation of the AI speaker 500 and stores it in the memory 570 or the learning processor 530, or to an external device such as an AI server. can be transmitted The collected historical information may be used to update the learning model.
프로세서(580)는 메모리(570)에 저장된 응용 프로그램을 구동하기 위하여, AI 스피커(500)의 구성 요소들 중 적어도 일부를 제어할 수 있다. 나아가, 프로세서(580)는 상기 응용 프로그램의 구동을 위하여, AI 스피커(500)에 포함된 구성 요소들 중 둘 이상을 서로 조합하여 동작시킬 수 있다.The processor 580 may control at least some of the components of the AI speaker 500 in order to drive an application program stored in the memory 570 . Furthermore, the processor 580 may operate by combining two or more of the components included in the AI speaker 500 to drive the application program.
도 6은 휘파람 소리를 이용하여 AI 스피커의 동작을 제어하는 방법을 나타내는 개념도이다. 도 6을 참조하면, 사용자가 휘파람을 불어 AI 스피커의 동작을 제어할 수 있다. 이때 사용자는 AI 스피커의 동작을 제어하기 위해 휘파람을 다양한 방식으로 불 수 있고, 사용자가 휘파람을 부는 방식을 제어부가 분석하여 분석결과에 대응되는 미리 설정된 패턴의 동작을 AI 스피커가 수행하게 된다.6 is a conceptual diagram illustrating a method of controlling an operation of an AI speaker using a whistle sound. Referring to FIG. 6 , the user can control the operation of the AI speaker by blowing a whistle. At this time, the user can blow a whistle in various ways to control the operation of the AI speaker, and the control unit analyzes how the user blows a whistle, and the AI speaker performs the operation of a preset pattern corresponding to the analysis result.
상기 휘파람을 부는 다양한 방식으로는 휘파람 소리의 높낮이를 변화시키는 방법, 휘파람 소리의 길이를 달리하는 방법, 휘파람 소리의 세기를 달리하는 방법, 특정한 멜로디로 부는 방법 등이 있다. 상세하게, 높낮이를 변화시키는 방법은 소리의 높이가 증가하도록 하거나, 소리의 높이를 감소하도록 하거나, 소리의 높이를 일정하게 유지하는 방법을 포함할 수 있고, 휘파람 소리의 길이를 달리하는 방법은 짧거나 긴 휘파람 소리를 반복해서 내거나, 짧거나 긴 휘파람 소리를 정해진 횟수만큼 내는 방법을 포함할 수 있으며, 휘파람 소리의 세기를 달리하는 방법은 휘파람을 부는 세기에 따라 달라지는 소리의 크기(dB)를 다르게 하는 방법을 포함할 수 있고, 특정한 멜로디로 부는 방법은 정해진 멜로디에 대응되는 음의 높낮이에 맞추어 휘파람을 부는 방법을 포함할 수 있다. 또한, 사용자는 위 방법들을 조합하여 더 많은 방법으로 휘파람을 불 수 있다.Various methods of blowing the whistle include a method of varying the pitch of the whistle, a method of varying the length of the whistle, a method of varying the strength of the whistle, a method of blowing a specific melody, and the like. In detail, the method of changing the pitch may include a method of increasing the height of the sound, decreasing the height of the sound, or maintaining the height of the sound constant, and the method of varying the length of the whistle is short. It may include a method of repeatedly making a long whistle, or a method of making a short or long whistle a predetermined number of times. and a method of blowing a specific melody may include a method of blowing a whistle according to the pitch of a note corresponding to a predetermined melody. Also, the user can whistle in more ways by combining the above methods.
상기 사용자가 휘파람을 부는 방법에 대응되는 AI 스피커의 동작은 AI 스피커의 전원을 제어하는 동작, 검색 기능을 제어하는 동작, 음악 재생 시 AI 스피커를 제어하는 동작, AI 스피커와 연동된 다른 기기를 제어하는 동작, 멜로디를 검색하는 동작 등을 포함할 수 있다. 상세하게, AI 스피커의 전원을 켜거나 끄는 동작을 포함할 수 있고, 날씨, 미세먼지, 뉴스 등을 검색하기 위해 해당 카테고리의 검색 기능을 켜거나 끄는 동작이나 특정한 시간, 지역의 날씨나 미세먼지를 검색하도록 동작하는 것을 포함할 수 있으며, 음악 재생 시 AI 스피커를 제어하여 음악 재생, 일시 정지, 다음 곡 재생, 이전 곡 재생, 한 곡 반복, 랜덤 재생, 구간 반복의 시작점 및 종료지점 설정 및 해제 등의 동작을 하는 것을 포함할 수 있고, AI 스피커와 연동된 다른 기기를 제어하기 위해, 다른 기기의 전원을 켜고 끄는 동작과 해당 다른 기기가 제공하는 기능을 수행하도록 하는 동작을 포함할 수 있으며, 휘파람으로 멜로디를 표현하여 멜로디와 유사한 음악을 검색하는 기능이 있는 경우 해당 기능을 켜고 끄는 동작을 포함할 수 있다. 또한, 위 동작 이외에도 AI 스피커에 따라 제공하는 추가적인 기능도 동작하도록 구비될 수 있다.The operation of the AI speaker corresponding to the method of whistling by the user includes the operation of controlling the power of the AI speaker, the operation of controlling the search function, the operation of controlling the AI speaker when playing music, and the operation of controlling other devices linked to the AI speaker It may include an action to perform, an action to search for a melody, and the like. Specifically, it can include the operation of turning on or off the power of the AI speaker, turning on or off the search function of the corresponding category to search for weather, fine dust, news, etc. It may include an operation to search, and when playing music, control the AI speaker to play, pause, play the next song, play the previous song, repeat one song, random play, set and release the start and end points of section repeat, etc. In order to control other devices linked to the AI speaker, it may include an operation to turn on/off the power of another device and an operation to perform a function provided by the other device, and whistle If there is a function to search for music similar to a melody by expressing a melody with In addition, in addition to the above operation, an additional function provided according to the AI speaker may also be operated.
위와 같이 사용자가 휘파람을 부는 다양한 방법들이 있을 수 있고, 그에 대응되는 AI 스피커의 다양한 동작이 있을 수 있다. 이러한 상기 휘파람을 부는 다양한 방법과 상기 AI 스피커의 동작이 각각 매칭되어 미리 설정된 동작을 하도록 할 수 있다. 또한, 미리 설정된 동작이 아니더라도 사용자가 원하는 AI 스피커의 동작을 특정 휘파람 부는 방식과 매칭하여 해당 휘파람 부는 방식에 대응되는 AI 스피커의 동작을 설정하는 방식도 포함될 수 있고, 휘파람 부는 방식에 한 가지 동작만 대응되는 것이 아니라 복수의 동작이 대응되어 순차적으로 진행되는 방식도 포함될 수 있다.As above, there may be various methods for the user to whistle, and there may be various operations of the AI speaker corresponding thereto. The various methods of blowing the whistle and the operation of the AI speaker may be matched to perform a preset operation. In addition, even if it is not a preset operation, a method of matching the operation of the AI speaker desired by the user to a specific whistling method and setting the operation of the AI speaker corresponding to the corresponding whistle blowing method may be included. A method in which a plurality of operations are sequentially performed may be included rather than corresponding.
상술한 본 발명은 일 실시예에 관한 것으로, 이는 실시예에 불과하며, 본 기술분야에서 통상의 지식을 가진 자는 이로부터 다양한 변형 및 균등한 다른 실시예도 가능할 수 있다. 따라서, 본 발명의 권리범위는 상기한 실시예 및 첨부된 도면에 의해 한정되는 것은 아니다.The present invention described above relates to an embodiment, which is only an embodiment, and a person skilled in the art may be able to make various modifications and equivalent other embodiments therefrom. Accordingly, the scope of the present invention is not limited by the above embodiments and the accompanying drawings.

Claims (5)

  1. 사용자로부터 오디오 신호를 입력받는 마이크;a microphone for receiving an audio signal from a user;
    상기 마이크에 의해 입력된 상기 오디오 신호가 휘파람 소리인지 여부를 판단하는 제어부; 및a control unit for determining whether the audio signal input by the microphone is a whistle sound; and
    상기 오디오 신호의 특성에 따라 동작하는 구동부를 포함하고,and a driving unit operating according to the characteristics of the audio signal,
    상기 제어부는,The control unit is
    상기 오디오 신호가 휘파람 소리인 것으로 판단되면, 상기 휘파람 소리의 특성을 분석하고,If it is determined that the audio signal is a whistle sound, analyzing the characteristics of the whistle sound,
    분석결과에 따라 상기 구동부를 미리 설정된 패턴으로 동작시키는 것을 특징으로 하는 오디오 신호 기반 전자기기.An audio signal-based electronic device, characterized in that the driving unit operates in a preset pattern according to the analysis result.
  2. 제1항에 있어서,According to claim 1,
    상기 제어부는,The control unit is
    상기 휘파람 소리의 높이, 강도 및 지속시간 중 적어도 하나를 판별함으로써, 상기 휘파람 소리의 특성을 분석하고,analyzing the characteristics of the whistle by determining at least one of a height, intensity, and duration of the whistle,
    상기 분석결과에 근거하여 상기 구동부에 대응되는 동작 명령을 생성하는 것을 특징으로 하는 오디오 신호 기반 전자기기.Audio signal-based electronic device, characterized in that generating an operation command corresponding to the driving unit based on the analysis result.
  3. 제2항에 있어서,3. The method of claim 2,
    상기 제어부는,The control unit is
    상기 휘파람 소리의 높이 변화를 감지하고, 상기 감지된 높이 변화에 근거하여, 상기 전자기기에 대응되는 동작 명령을 생성하는 것을 특징으로 하는 오디오 신호 기반 전자기기.An audio signal-based electronic device, characterized in that detecting a change in height of the whistle, and generating an operation command corresponding to the electronic device based on the detected height change.
  4. 제3항에 있어서,4. The method of claim 3,
    상기 제어부는,The control unit is
    상기 휘파람 소리의 높이가 증가하는 것으로 감지되는 경우, 상기 전자기기의 제1 동작이 수행되도록 상기 구동부를 제어하고,when it is sensed that the height of the whistle is increased, controlling the driving unit to perform a first operation of the electronic device;
    상기 휘파람 소리의 높이가 감소하는 것으로 감지되는 경우, 상기 전자기기의 제2 동작이 수행되도록 상기 구동부를 제어하고,When it is sensed that the height of the whistle is reduced, controlling the driving unit to perform a second operation of the electronic device,
    상기 휘파람 소리의 높이가 유지되는 것으로 감지되는 경우, 상기 전자기기의 제3 동작이 수행되도록 상기 구동부를 제어하는 것을 특징으로 하는 오디오 신호 기반 전자기기.and when it is sensed that the height of the whistle is maintained, controlling the driving unit to perform a third operation of the electronic device.
  5. 제3항에 있어서,4. The method of claim 3,
    상기 제어부는,The control unit is
    상기 휘파람 소리가 미리 설정된 멜로디에 대응되는지 여부를 판단하고, 판단결과에 근거하여, 상기 전자기기에 대응되는 동작 명령을 생성하는 것을 특징으로 하는 오디오 신호 기반 전자기기.and determining whether the whistle sound corresponds to a preset melody, and generating an operation command corresponding to the electronic device based on the determination result.
PCT/KR2022/003292 2021-03-16 2022-03-08 Audio signal-based device and method for controlling same WO2022197005A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20210033795 2021-03-16
KR10-2021-0033795 2021-03-16
KR10-2021-0118288 2021-09-06
KR1020210118288A KR20220129986A (en) 2021-03-16 2021-09-06 Audio Signal - Based Device And Control Method Thereof

Publications (1)

Publication Number Publication Date
WO2022197005A1 true WO2022197005A1 (en) 2022-09-22

Family

ID=83321470

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/003292 WO2022197005A1 (en) 2021-03-16 2022-03-08 Audio signal-based device and method for controlling same

Country Status (1)

Country Link
WO (1) WO2022197005A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09128141A (en) * 1995-11-07 1997-05-16 Sony Corp Controller and control method
KR19990043098A (en) * 1997-11-28 1999-06-15 정선종 Voice driving device and method using voice and sound information and attribute information
KR20120072244A (en) * 2010-12-23 2012-07-03 한국전자통신연구원 System and method for integrating gesture and sound for controlling device
JP2015501522A (en) * 2011-11-07 2015-01-15 コーニンクレッカ フィリップス エヌ ヴェ User interface with voice to control the lighting system
KR20190093268A (en) * 2018-02-01 2019-08-09 주식회사 엘지유플러스 Method for controlling device and device thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09128141A (en) * 1995-11-07 1997-05-16 Sony Corp Controller and control method
KR19990043098A (en) * 1997-11-28 1999-06-15 정선종 Voice driving device and method using voice and sound information and attribute information
KR20120072244A (en) * 2010-12-23 2012-07-03 한국전자통신연구원 System and method for integrating gesture and sound for controlling device
JP2015501522A (en) * 2011-11-07 2015-01-15 コーニンクレッカ フィリップス エヌ ヴェ User interface with voice to control the lighting system
KR20190093268A (en) * 2018-02-01 2019-08-09 주식회사 엘지유플러스 Method for controlling device and device thereof

Similar Documents

Publication Publication Date Title
WO2018151368A1 (en) Modular home robot
WO2016208802A1 (en) Watch type mobile terminal and operation method thereof
WO2016080605A1 (en) Electronic device and control method therefor
WO2020017706A1 (en) Electronic device and method for controlling the same
WO2017043686A1 (en) Mobile terminal and operation method thereof
WO2016204357A1 (en) Mobile terminal and control method therefor
WO2017131351A1 (en) Mobile terminal and method for controlling the same
WO2016190466A1 (en) Wearable terminal for displaying screen optimized for various situations
WO2018044015A1 (en) Robot for use in airport, recording medium in which program for performing service providing method thereof is recorded, and mobile terminal connected to same
WO2016190478A1 (en) Watch-type mobile terminal and operation method thereof
WO2017039103A1 (en) Mobile terminal and control method therefor
WO2016129781A1 (en) Mobile terminal and control method therefor
WO2018101508A1 (en) Mobile terminal
WO2017191874A1 (en) Electronic device and control method thereof
WO2016098939A1 (en) Mobile terminal and method for operating same
WO2016035955A1 (en) Mobile terminal and control method therefor
US10397736B2 (en) Mobile terminal
WO2016163591A1 (en) Watch-type mobile terminal
WO2019088338A1 (en) Electronic device and control method therefor
WO2022197005A1 (en) Audio signal-based device and method for controlling same
WO2017119536A1 (en) Mobile device and method for controlling mobile device
WO2015122551A1 (en) Mobile terminal and control method therefor
WO2017094966A1 (en) Flexible watch type mobile terminal
WO2018128199A1 (en) Watch type terminal
WO2015152597A1 (en) Method of sharing and receiving information based on sound signal and apparatus using the same

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22771671

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22771671

Country of ref document: EP

Kind code of ref document: A1