WO2021241879A1 - 서버 및 그의 제어 방법 - Google Patents

서버 및 그의 제어 방법 Download PDF

Info

Publication number
WO2021241879A1
WO2021241879A1 PCT/KR2021/004354 KR2021004354W WO2021241879A1 WO 2021241879 A1 WO2021241879 A1 WO 2021241879A1 KR 2021004354 W KR2021004354 W KR 2021004354W WO 2021241879 A1 WO2021241879 A1 WO 2021241879A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensing
user
devices
information
electronic device
Prior art date
Application number
PCT/KR2021/004354
Other languages
English (en)
French (fr)
Inventor
박무석
조아라
최석원
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to EP21814195.0A priority Critical patent/EP4131860A4/en
Priority to CN202180038309.8A priority patent/CN115668870A/zh
Publication of WO2021241879A1 publication Critical patent/WO2021241879A1/ko
Priority to US17/969,211 priority patent/US20230045302A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/2803Home automation networks
    • H04L12/2816Controlling appliance services of a home automation network by calling their functionalities
    • H04L12/282Controlling appliance services of a home automation network by calling their functionalities based on user interaction within the home
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/2803Home automation networks
    • H04L12/2823Reporting information sensed by appliance or service execution status of appliance services in a home automation network
    • H04L12/2827Reporting to a device within the home network; wherein the reception of the information reported automatically triggers the execution of a home appliance functionality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/2803Home automation networks
    • H04L12/2816Controlling appliance services of a home automation network by calling their functionalities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • H04L67/125Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks involving control of end-device applications over a network

Definitions

  • the present disclosure relates to a server and a control method thereof, and more particularly, to a server for controlling an operation of an electronic device and a control method thereof.
  • Electronic devices such as conventional air conditioners and air purifiers provide specific services such as heating and cooling services to users by performing operations using data on the environment, such as temperature and fine dust concentration, obtained through built-in sensors. .
  • the electronic device since the electronic device operates based on data different from the environment in which the user is located, there is a problem in that the user's satisfaction with the service provided by the electronic device is lowered. In addition, since data on the environment in which the electronic device is located cannot be provided, but data on the environment in which the electronic device is located, it may cause inconvenience to the user.
  • An object of the present disclosure is to provide a server for controlling an operation of a target electronic device by using sensing data of a sensing device located in an environment closer to a user's environment, and a method for controlling the same.
  • information received from at least one of a plurality of electronic devices and a plurality of sensing devices through a communication interface and a communication interface for performing communication with the plurality of electronic devices and the plurality of sensing devices identifies a sensing device corresponding to the user's location from among the plurality of sensing devices based on It may include a processor for controlling the communication interface to transmit.
  • each of the plurality of sensing devices generates sensing data by sensing an environment around each sensing device
  • the processor receives the sensing data generated by sensing the surrounding environment in the identified sensing device from the identified sensing device, and , the communication interface may be controlled to transmit a signal for controlling an environment around the target electronic device to the target electronic device based on the received sensing data.
  • the processor may identify a sensing device corresponding to the user's location among the plurality of sensing devices as the sensing device closest to the user based on information received from at least one of the plurality of electronic devices and the plurality of sensing devices.
  • a plurality of electronic devices in a specific place and a memory for storing location information on a region in which the plurality of sensing devices are located the processor is configured to: Based on information received from at least one of the plurality of electronic devices through a communication interface One of the plurality of electronic devices may be identified, and a sensing device located in the same area as the identified electronic device among the plurality of sensing devices may be identified as the sensing device corresponding to the user's location based on the location information.
  • the processor when the state information of the electronic device is received from the electronic device controlled based on a user command among the plurality of electronic devices through the communication interface, the processor is located in the same area as the electronic device that has transmitted the state information among the plurality of sensing devices.
  • the sensing device may be identified as a sensing device corresponding to the user's location.
  • the processor is located in the same area as the electronic device that has transmitted the information on the user's voice among the plurality of sensing devices.
  • the located sensing device may be identified as a sensing device corresponding to the user's location.
  • the processor determines the greatest communication signal strength based on the information on the received communication signal strength.
  • a device may be identified, and a sensing device corresponding to the identified device among the plurality of sensing devices may be identified as a sensing device corresponding to the user's location.
  • the processor sets a sensing device located in the same area as the identified electronic device among the plurality of sensing devices based on the location information to the user's location. is identified as a sensing device corresponding to , and when one of the plurality of sensing devices is identified as a device having the greatest communication signal strength, the identified sensing device may be identified as a sensing device corresponding to the user's location.
  • the processor based on the information about the communication signal strength received from the plurality of electronic devices and the plurality of sensing devices, the state information received from at least one of the plurality of electronic devices, and the information about the user's voice through the communication interface, A sensing device corresponding to the user's location may be identified from among the plurality of sensing devices.
  • the processor calculates a score by applying a preset weight to a value corresponding to each of information on communication signal strength, state information, and information on user voice, A plurality of electronic devices and a device having the highest score among the plurality of sensing devices are identified, and when one of the plurality of electronic devices is identified as a device having the highest score, the device is identified from among the plurality of sensing devices based on the location information.
  • a sensing device located in the same area as the electronic device is identified as a sensing device corresponding to the user's location, and when one of the plurality of sensing devices is identified as the device having the highest score, the identified sensing device is placed at the user's location It can be identified as a corresponding sensing device.
  • a sensing device corresponding to a user's location among a plurality of sensing devices is identified based on information received from at least one of a plurality of electronic devices and a plurality of sensing devices. and transmitting a signal for controlling a target electronic device among a plurality of electronic devices to the target electronic device based on the sensing data received from the step and the identified sensing device.
  • each of the plurality of sensing devices generates sensing data by sensing the environment around each sensing device
  • the step of transmitting the sensing device includes sensing data generated by sensing the surrounding environment in the identified sensing device from the identified sensing device
  • the method may include receiving and transmitting a signal for controlling an environment around the target electronic device to the target electronic device based on the received sensing data.
  • the step of identifying the sensing device based on the information received from at least one of the plurality of electronic devices and the plurality of sensing devices, a sensing device corresponding to the user's location among the plurality of sensing devices as a sensing device closest to the user. can be identified.
  • the server stores location information on a plurality of electronic devices and regions in which the plurality of sensing devices are located in a specific place
  • the step of identifying the sensing devices may include: based on information received from at least one of the plurality of electronic devices It may include identifying one of the plurality of electronic devices and identifying a sensing device located in the same area as the identified electronic device among the plurality of sensing devices as a sensing device corresponding to the user's location based on the location information. have.
  • the electronic device when status information of an electronic device is received from an electronic device controlled based on a user command among the plurality of electronic devices, the electronic device is located in the same area as the electronic device that transmitted the status information among the plurality of sensing devices. This may include identifying the located sensing device as a sensing device corresponding to the user's location.
  • the step of identifying the sensing device when information on the user's voice is received from the electronic device that has received the user's voice among the plurality of electronic devices, the same area as the electronic device that has transmitted the information on the user's voice among the plurality of sensing devices It may include identifying the sensing device located in the , as the sensing device corresponding to the user's location.
  • the step of identifying the sensing device when information on the communication signal strength between the plurality of electronic devices and the plurality of sensing devices and the user terminal device is received, the highest communication signal strength based on the received communication signal strength information It may include identifying a device having a , and identifying a sensing device corresponding to the identified device from among a plurality of sensing devices as a sensing device corresponding to the user's location.
  • the identifying of the sensing device when one of the plurality of electronic devices is identified as the device having the greatest communication signal strength, sensing located in the same area as the identified electronic device among the plurality of sensing devices based on location information Step of identifying the device as a sensing device corresponding to the location of the user, and when one of the plurality of sensing devices is identified as the device having the greatest communication signal strength, the identified sensing device is the sensing device corresponding to the location of the user. It may include the step of identifying as
  • the identifying of the sensing device may include information on a plurality of electronic devices and communication signal strengths received from the plurality of sensing devices, status information received from at least one of the plurality of electronic devices, and information on a user voice based on , may include identifying a sensing device corresponding to the location of the user from among the plurality of sensing devices.
  • the step of identifying the sensing device for each of the plurality of electronic devices and the plurality of sensing devices, by applying a preset weight to each value corresponding to the information on the communication signal strength, the state information, and the information on the user's voice, calculating a score, identifying a device having a highest score among a plurality of electronic devices and a plurality of sensing devices; Identifying a sensing device located in the same area as the identified electronic device among the plurality of sensing devices as a sensing device corresponding to the user's location, and identifying when one of the plurality of sensing devices is identified as the device having the highest score It may include identifying the detected sensing device as a sensing device corresponding to the user's location.
  • a server for controlling an operation of a target electronic device by using sensing data of a sensing device located in an environment closer to the user's environment and a method for controlling the same.
  • FIG. 1A is a diagram for explaining a system according to an embodiment of the present disclosure.
  • 1B is a view for explaining a state in which a plurality of sensing devices are disposed according to an embodiment of the present disclosure.
  • FIG. 2A is a block diagram illustrating a configuration of a server according to an embodiment of the present disclosure.
  • 2B is a block diagram illustrating an additional configuration of a server according to an embodiment of the present disclosure.
  • FIG. 3 is a diagram for explaining a method of registering a device to a server according to an embodiment of the present disclosure.
  • FIG. 4 is a diagram for explaining a UI for registering a location according to an embodiment of the present disclosure.
  • FIG. 5 is a diagram for describing a UI for registering a device to a server according to an embodiment of the present disclosure.
  • FIG. 6 is a diagram for explaining information about a device stored in a server according to an embodiment of the present disclosure.
  • FIG. 7 is a diagram for explaining a method of determining a sensing device that is a basis for an operation of a target electronic device through a user command according to an embodiment of the present disclosure.
  • 8A is a diagram for describing a method of determining a sensing device, which is a basis for an operation of a target electronic device, by using an electronic device to which a user command is input, according to an embodiment of the present disclosure.
  • 8B is a diagram for describing a method of determining a sensing device, which is a basis for an operation of a target electronic device, by using a sensing device to which a user command is input, according to an embodiment of the present disclosure.
  • 8C is a diagram for explaining a method of identifying a device according to an input user command according to an embodiment of the present disclosure.
  • 8D is a diagram for explaining a method of identifying a device according to a received user voice according to an embodiment of the present disclosure.
  • 9A is a diagram for explaining a method of determining a sensing device that is based on an operation of a target electronic device by using a signal strength according to an embodiment of the present disclosure.
  • 9B is a diagram for explaining a method of determining a sensing device, which is a basis for an operation of a target electronic device, by using a signal strength according to an embodiment of the present disclosure.
  • 9C is a diagram for describing a method of determining a sensing device that is based on an operation of a target electronic device by using a signal strength according to an embodiment of the present disclosure.
  • FIG. 10 is a diagram for describing a method of determining a sensing device that is based on an operation of a target electronic device by using a score according to an embodiment of the present disclosure.
  • FIG. 11 is a block diagram illustrating a configuration of one electronic device among a plurality of electronic devices according to an embodiment of the present disclosure.
  • FIG. 12 is a block diagram illustrating a configuration of one sensing device among a plurality of sensing devices according to an embodiment of the present disclosure.
  • FIG. 13 is a view for explaining a flowchart according to an embodiment of the present disclosure.
  • An object of the present disclosure is to provide a server for controlling an operation of a target electronic device by using sensing data of a sensing device located in an environment closer to a user's environment, and a method for controlling the same.
  • expressions such as “A or B,” “at least one of A and/and B,” or “one or more of A or/and B” may include all possible combinations of the items listed together.
  • “A or B,” “at least one of A and B,” or “at least one of A or B” means (1) includes at least one A, (2) includes at least one B; Or (3) it may refer to all cases including both at least one A and at least one B.
  • a component eg, a first component is "coupled with/to (operatively or communicatively)" to another component (eg, a second component)
  • another component eg, a second component
  • the certain element may be directly connected to the other element or may be connected through another element (eg, a third element).
  • a component eg, a first component
  • another component eg, a second component
  • a device configured to may mean that the device is “capable of” with other devices or parts.
  • a processor configured (or configured to perform) A, B, and C refers to a dedicated processor (eg, an embedded processor) for performing the above operations, or by executing one or more software programs stored in a memory device.
  • a generic-purpose processor eg, a CPU or an application processor
  • An electronic device may include, for example, a smartphone, a tablet personal computer, a mobile phone, a video phone, an e-book reader, Desktop personal computer (PC), laptop personal computer (PC), netbook computer, workstation, server, personal digital assistant (PDA), portable multimedia player (PMP), MP3 player, mobile medical It may include at least one of a device, a camera, and a wearable device.
  • the wearable device is an accessory type (eg, a watch, a ring, a bracelet, an anklet, a necklace, glasses, contact lenses, or a head-mounted-device (HMD)), a fabric or a clothing integrated type ( It may include at least one of: electronic clothing), body attachable (eg skin pad or tattoo), or bioimplantable (eg implantable circuit).
  • accessory type eg, a watch, a ring, a bracelet, an anklet, a necklace, glasses, contact lenses, or a head-mounted-device (HMD)
  • HMD head-mounted-device
  • a fabric or a clothing integrated type It may include at least one of: electronic clothing), body attachable (eg skin pad or tattoo), or bioimplantable (eg implantable circuit).
  • the electronic device may be a home appliance.
  • Home appliances are, for example, televisions, digital video disk (DVD) players, audio, refrigerators, air conditioners, vacuum cleaners, ovens, microwave ovens, washing machines, air purifiers, set-top boxes, home automation controls.
  • Panel home automation control panel
  • security control panel security control panel
  • TV box e.g. Samsung HomeSyncTM, Apple TVTM, or Google TVTM
  • game console e.g. XboxTM, PlayStationTM
  • electronic dictionary e.g. an electronic key, a camcorder, or an electronic picture frame.
  • the electronic device may include various medical devices (eg, various portable medical measuring devices (eg, a blood glucose monitor, a heart rate monitor, a blood pressure monitor, or a body temperature monitor), magnetic resonance angiography (MRA), magnetic resonance imaging (MRI), Computed tomography (CT), imager, or ultrasound machine, etc.), navigation devices, global navigation satellite system (GNSS), event data recorder (EDR), flight data recorder (FDR), vehicle infotainment ) devices, ship electronic equipment (e.g. ship navigation systems, gyro compasses, etc.), avionics, security devices, vehicle head units, industrial or domestic robots, automatic teller's machines (ATMs) in financial institutions.
  • various medical devices eg, various portable medical measuring devices (eg, a blood glucose monitor, a heart rate monitor, a blood pressure monitor, or a body temperature monitor), magnetic resonance angiography (MRA), magnetic resonance imaging (MRI), Computed tomography (CT), imager, or ultrasound machine, etc.), navigation
  • point of sales (POS) in stores may include at least one.
  • POS point of sales
  • internet of things e.g. light bulbs, sensors, electricity or gas meters, sprinkler devices, smoke alarms, thermostats, street lights, toasters
  • exercise equipment hot water tank, heater, boiler, etc.
  • the electronic device is a piece of furniture or a building/structure, an electronic board, an electronic signature receiving device, a projector, or various measuring devices (eg, : water, electricity, gas, or radio wave measuring device).
  • the electronic device may be a combination of one or more of the various devices described above.
  • the electronic device according to an embodiment may be a flexible electronic device.
  • the electronic device according to the embodiment of the present document is not limited to the above-described devices, and may include a new electronic device according to technological development.
  • 1A is a diagram for explaining a system according to an embodiment of the present disclosure.
  • 1B is a view for explaining a state in which a plurality of sensing devices are disposed according to an embodiment of the present disclosure.
  • the system 10 includes a server 100 , a plurality of electronic devices 200 , a plurality of sensing devices 300 , and a user terminal device 400 .
  • a server 100 may include a server 100 , a plurality of electronic devices 200 , a plurality of sensing devices 300 , and a user terminal device 400 .
  • the server 100 may be connected to an external device such as a plurality of electronic devices 200 , a plurality of sensing devices 300 , and a user terminal device 400 through a network.
  • the server 100 is a network (eg, PAN (Personal Area Network), etc.) of a user individual unit, a network of a local area unit (eg, Home Networking, a local area network (LAN), etc.) or a wide area unit It may be connected to an external device via a network (eg, a wide area network (WAN), the Internet, etc.).
  • the server 100 may communicate with the plurality of electronic devices 200 , the plurality of sensing devices 300 , and the user terminal device 400 to transmit/receive various data (or messages).
  • the server 100 may refer to a device having the authority to manage or control an external device (eg, at least one device among the plurality of electronic devices 200 and the plurality of sensing devices 300 ) connected through a network.
  • an external device eg, at least one device among the plurality of electronic devices 200 and the plurality of sensing devices 300 .
  • the server 100 may be implemented as an independent server device (eg, a cloud server, a home server, etc.) distinguished from the plurality of electronic devices 200 and the user terminal device 400 .
  • the server 100 may be implemented as one of the plurality of electronic devices 200 and the user terminal device 400 . That is, the server 100 may be implemented with various electronic devices such as an air conditioner, a computer, a smart phone, a TV, or an access point (AP).
  • AP access point
  • the server 100 is an independent device distinguished from the plurality of electronic devices 200 and the user terminal device 400 .
  • Each of the plurality of electronic devices 200 may be implemented as various electronic devices capable of communicating with the server 100 .
  • each of the plurality of electronic devices 200 may be controlled to perform or stop an operation for providing a service according to a signal received from the server 100 .
  • the electronic device includes a robot, a computer, a smart TV, a smart speaker, an air conditioner, a digital video disk (DVD) player, an audio, a robot cleaner, a vacuum cleaner, an oven, a microwave oven, a set-top box, and a home.
  • Home automation control panel security control panel
  • game console ex: Xbox, PlayStation
  • medical device vehicle
  • electronic dictionary camcorder
  • electronic picture frame POS in stores (point of sales)
  • Internet of things Internet of things (internet of things) (eg, a light bulb, lighting, electricity or gas meter, sprinkler device, fire alarm, etc.) may be implemented.
  • the plurality of electronic devices 200 may include a first electronic device 200 - 1 (or electronic device 1 ) and a second electronic device 200 - 2 .
  • the plurality of electronic devices 200 may be configured in various numbers.
  • one electronic device among the plurality of electronic devices 200 may perform an operation for providing a service using sensing data. Specifically, one electronic device among the plurality of electronic devices 200 uses sensing data obtained from one of the plurality of sensing devices 300 according to a signal received from the server 100 to provide a service. action can be performed.
  • a target electronic device one electronic device operating in this way will be referred to as a target electronic device.
  • Each of the plurality of sensing devices 300 may acquire sensing data.
  • the sensing data may represent data sensed by an indoor environment in which the sensing device is located or a surrounding environment.
  • the sensed data may be used to perform an operation for providing a service of one electronic device (eg, a target electronic device) among the plurality of electronic devices 200 .
  • the sensing device may be an electronic device including a sensor.
  • a sensing device may be a sensor itself or an electronic device that contains a sensor (eg, a TV, robot vacuum, artificial intelligence speaker, remote control that controls the TV, lighting, electricity or gas meter, sprinkler device, smoke alarm, thermostat, etc.) (thermostat), an Internet of things device (internet of things, etc.) may be implemented.
  • a sensor eg, a TV, robot vacuum, artificial intelligence speaker, remote control that controls the TV, lighting, electricity or gas meter, sprinkler device, smoke alarm, thermostat, etc.
  • an Internet of things device Internet of things, etc.
  • the senor may be a sensor of various types, such as a temperature sensor, a fine dust sensor, a humidity sensor, and a gas sensor.
  • the temperature sensor may acquire sensing data for temperature (unit: °C, °F, etc.).
  • the fine dust sensor can acquire sensing data about the concentration of fine dust (unit: parts per million (ppm), ⁇ g/m 3 , etc.).
  • particulate matter (PM) may refer to particles floating in the atmosphere, and the types of fine dust include PM 1 with a size (or diameter, diameter) of 1 ⁇ m or less, PM 2.5 with a size of 2.5 ⁇ m or less, PM 10 with a size of 10 ⁇ m or less.
  • the humidity sensor may acquire sensing data for the degree of moisture contained in the air (unit: %, g/m 3 , etc.).
  • the gas sensor may acquire sensing data about the concentration of carbon dioxide (unit: ppm, etc.) or the concentration of radon (unit: Bq/m3, etc.). Meanwhile, the sensor and the sensing data acquired by the sensor are not limited to the above-described embodiment and may be implemented in various forms.
  • Each of the plurality of sensing devices 300 may communicate with at least one of the server 100 and the plurality of electronic devices 200 .
  • the sensing device may transmit sensing data to one electronic device (eg, a target electronic device) among the plurality of electronic devices 200 .
  • the sensing device may directly transmit sensing data to the target electronic device, or the sensing device may transmit the sensing data to the target electronic device via the server 100 .
  • the user terminal device 400 accesses the server 100 and controls or manages at least one of the plurality of electronic devices 200 and the plurality of sensing devices 300 through authentication using the account of the user 30 .
  • the user terminal device 400 may be used to estimate the location of the user 30 . That is, the location of the user terminal device 400 may be estimated as the location of the user 30 .
  • the user terminal device 400 may be implemented as a device that the user 30 can carry, such as a smart phone or a tablet PC, or that the user 30 can wear, such as a wearable device (smart watch, smart glasses, etc.).
  • the user terminal device 400 is not limited to the above-described embodiment, and the user terminal device 400 may be implemented as various electronic devices. Meanwhile, the user terminal device 400 is only for distinguishing operations, and may be one electronic device among the plurality of electronic devices 200 .
  • the user terminal device 400 may control at least one electronic device among the plurality of electronic devices 200 according to a user command (eg, a touch input, a gesture input, a voice input, a key input, etc. of the user 30 ). .
  • the user terminal device 400 may control at least one electronic device among the plurality of electronic devices 200 through the server 100 .
  • the user terminal device 400 may display a user interface (UI) for controlling at least one electronic device among the plurality of electronic devices 200 on the display.
  • UI user interface
  • the user terminal device 400 may receive information about an operation performed by one electronic device among the plurality of electronic devices 200 from one electronic device.
  • one electronic device may perform an operation using sensing data acquired by one sensing device among the plurality of sensing devices 300 .
  • the user terminal device 400 may receive the sensing data through one sensing device, one electronic device, or the server 100 , and the user terminal device 400 may display the received sensing data on the display. may be
  • each of the plurality of electronic devices 200 and the plurality of sensing devices 300 may be disposed in one of the plurality of areas.
  • the plurality of regions may include first to third regions 21 to 23 that are separated from each other at a specific place.
  • the specific place may be various places such as the user's 30 home or office.
  • the first electronic device 200-1 and the first sensing device 300-1 which are target electronic devices, are disposed in the first area 21 .
  • the second sensing device 300 - 2 may be disposed in the second area 22
  • the third sensing device 300 - 3 may be disposed in the third area 23 .
  • the sensing data acquired by the first to third sensing devices 300-1 to 300-3 may vary depending on the environment (or region) in which the first to third sensing devices 300-1 to 300-3 are located. can
  • the first electronic device 200-1 which is the target electronic device, is implemented as an air conditioner, and the first to third sensing devices 300-1 to 300-3 among the plurality of sensing devices 300 are When a user command to operate in the cooling mode is input to the target electronic device in a state in which the target electronic device includes a temperature sensor detecting the temperature of the surrounding environment and the set temperature of the target electronic device is set to a specific temperature (eg, 24°C) to assume
  • a specific temperature eg, 24°C
  • a conventional air conditioner performs a cooling or heating operation using a set temperature (eg, 24°C) and a temperature (eg, 26°C) sensed by a built-in temperature sensor.
  • the set temperature (eg, 24°C) ) and the room temperature (eg, 26° C.) of the first area 21 where the air conditioner is located the air conditioner was controlled to lower the operating speed of the blowing fan or stop the operation of the blowing fan.
  • the temperature sensed for the surrounding environment of the air conditioner (eg, 26°C of the first region 21 ) is the temperature of the environment in which the user 30 is located (eg, the temperature of the second region 22 ) of 30°C ) and an error (or difference), the air conditioner provides the air conditioning service to the user 30 without accurately recognizing the environment that the user 30 feels. Accordingly, the user's 30 satisfaction with the service was lowered or the user 30 was inconvenienced.
  • the server 100 identifies a sensing device corresponding to the location of the user 30 among a plurality of external sensing devices 300, and uses sensing data obtained from the identified sensing device. It is possible to control the target electronic device to perform an operation for providing a specific service.
  • the sensing device corresponding to the location of the user 30 may represent a sensing device in substantially the same environment as the user 30 , for example, the sensing device corresponding to the location of the user 30 is the user ( It may be a sensing device closest to the location of 30 ) or a sensing device positioned in the same area as the user 30 (eg, the second sensing device 300 - 2 located in the second area 22 ).
  • a server for controlling an operation of a target electronic device by using sensing data for an environment closer to the environment of the user 30 and a control method thereof. Accordingly, the satisfaction of the user 30 with respect to the service may be improved, and the inconvenience of the user 30 may be eliminated.
  • 2A is a block diagram illustrating a configuration of a server according to an embodiment of the present disclosure.
  • 2B is a block diagram illustrating an additional configuration of a server according to an embodiment of the present disclosure.
  • the server 100 may include a communication interface 110 and a processor 120 .
  • the communication interface 110 may be connected to an external device and a network through various communication methods.
  • the communication interface 110 may communicate with external devices such as the plurality of electronic devices 200 , the plurality of sensing devices 300 , and the user terminal device 400 to be connected to a network.
  • the communication interface 110 includes Wi-Fi, Bluetooth, NFC, Infrared Data Association (IrDA), Radio Frequency Identification (RFID), ultra-wideband (UWB), Wi-Fi Direct, and Z- wave, Zigbee, 4LoWPAN, GPRS, Weightless, Digital Living Network Alliance (DLNA), ANT+, Digital Enhanced Cordless Telecommunications (DECT), wireless local area network (WLAN), Global System for Mobile communications (GSM), Universal Mobile Telecommunication (UMTS) System) and WiBRO (Wireless Broadband) can be connected to an external device through a network by performing communication based on various communication methods. Accordingly, the communication interface 110 may transmit/receive various data from an external device.
  • IrDA Infrared Data Association
  • RFID Radio Frequency Identification
  • UWB ultra-wideband
  • Wi-Fi Direct and Z- wave
  • Zigbee 4LoWPAN
  • GPRS Weightless
  • DLNA Digital Living Network Alliance
  • ANT+ Digital Enhanced Cordless Telecommunications
  • the processor 120 may control the overall operation of the server 100 .
  • the processor 120 may be composed of one or a plurality of processors, for example, the processor 120 is a general-purpose processor such as a CPU (Central Processing Unit), an AP (Application Processor), etc., a GPU (Graphic Processing Unit), a VPU ( It may be implemented with a graphics-only processor such as a Vision Processing Unit), or an artificial intelligence-only processor such as a Neural Processing Unit (NPU).
  • a general-purpose processor such as a CPU (Central Processing Unit), an AP (Application Processor), etc.
  • a GPU Graphic Processing Unit
  • VPU It may be implemented with a graphics-only processor such as a Vision Processing Unit), or an artificial intelligence-only processor such as a Neural Processing Unit (NPU).
  • NPU Neural Processing Unit
  • the processor 120 determines the user 30 of the plurality of sensing devices 300 based on information received from at least one of the plurality of electronic devices 200 and the plurality of sensing devices 300 through the communication interface 110 .
  • a sensing device corresponding to the location may be identified.
  • the processor 120 is configured to allow a user ( among the plurality of sensing devices 300 ) based on information received from at least one of the plurality of electronic devices 200 and the plurality of sensing devices 300 through the communication interface 110 .
  • the sensing device corresponding to the location of 30 may be identified as the sensing device closest to the user 30 .
  • the sensing device corresponding to the location of the user 30 may indicate a sensing device estimated to be in substantially the same environment as the user 30 .
  • each of the plurality of sensing devices 300 may generate sensing data by sensing the surrounding environment of each sensing device.
  • the information received from at least one of the plurality of electronic devices 200 and the plurality of sensing devices 300 includes state information of the electronic device received from at least one of the plurality of electronic devices 200 and the plurality of electronic devices 200 .
  • state information of the electronic device received from at least one of the plurality of electronic devices 200 and the plurality of electronic devices 200 to include at least one of information on the user's voice received from at least one and information on the strength of a communication signal between the plurality of electronic devices 200 and the plurality of sensing devices 300 and the user terminal device 400 can
  • the state information of the electronic device may be information for identifying an electronic device to which a user command is input or an electronic device controlled based on the input user command among the plurality of electronic devices 200 .
  • the state information of the electronic device may include a time when a user command is input.
  • the user command may refer to user interaction with various types of electronic devices, such as button input, touch input, and motion input.
  • the electronic device may include an input interface such as a button and a touch panel for receiving a user command.
  • the information on the user's voice may include a signal level (unit: dB, dBm, etc.) of the user's voice received by the electronic device that has received the user's voice among the plurality of electronic devices 200 .
  • the electronic device may include an interface such as a microphone for receiving a user's voice.
  • Information on the strength of the communication signal may refer to the strength (or strength) of a signal received from an external device (eg, an electronic device or a sensing device) to the user terminal device 400 with respect to the user terminal device 400 .
  • the signal may be a signal according to various communication methods such as Wi-Fi, Bluetooth, Near Field Communication (NFC), and infrared rays.
  • the server 100 may further include a memory 130 (refer to FIG. 2B ), and the memory 130 includes a plurality of electronic devices 200 and a plurality of sensing devices ( 300) may be stored location information on the area.
  • the location information may include spatial coordinates indicating the location of the device or information on an area in which the device is located.
  • the information received from at least one of the plurality of electronic devices 200 and the plurality of sensing devices 300 is the device that transmitted the information (the plurality of electronic devices 200 and the plurality of sensing devices ( 300) may include identification information or location information of at least one device).
  • the processor 120 may identify one of the plurality of electronic devices 200 based on information received from at least one of the plurality of electronic devices 200 through the communication interface 110 .
  • the processor 120 receives information (eg, from an electronic device controlled based on a user command (eg, a user command to press a button on a remote control for controlling a TV) among the plurality of electronic devices 200 ). : status information, etc.) is received through the communication interface 110, an electronic device (or an electronic device to which a user command is input) controlled according to a user command among the plurality of electronic devices 200 based on the received information can be identified.
  • a user command eg, a user command to press a button on a remote control for controlling a TV
  • the processor 120 may be configured to receive information about a user's voice (eg, a signal level of a user's voice) from an electronic device (eg, a remote control equipped with a microphone, etc.) that has received a user's voice among the plurality of electronic devices 200 . etc.) is received through the communication interface 110 , it is possible to identify the electronic device that has received the user's voice having the largest signal level among the plurality of electronic devices 200 based on the received information.
  • a user's voice eg, a signal level of a user's voice
  • an electronic device eg, a remote control equipped with a microphone, etc.
  • the processor 120 may identify a sensing device corresponding to the location of the user 30 from among the plurality of sensing devices 300 based on the location of the identified electronic device among the plurality of electronic devices 200 . In this case, the processor 120 may use the identified location information of the electronic device and the location information of the plurality of sensing devices 300 .
  • the sensing device corresponding to the location of the user 30 may be a sensing device closest to the user 30 among the plurality of sensing devices 300 .
  • the sensing device closest to the user 30 is based on the electronic device (or the user terminal device 400 ) estimated to be the location of the user 30 among the plurality of electronic devices 200 , 300) may indicate a sensing device having the smallest distance between a reference electronic device and the sensing device.
  • the reference electronic device may be an electronic device to which a user command or a user voice is received, or an electronic device having the greatest signal strength with the user terminal device.
  • the distance may be expressed as a difference value between spatial coordinates indicating positions.
  • the processor 120 identifies one of the plurality of electronic devices 200 as a reference electronic device based on information received from at least one of the plurality of electronic devices 200 through the communication interface 110 , , based on location information (eg, spatial coordinates), a sensing device closest to the reference electronic device among the plurality of sensing devices 300 may be identified as a sensing device corresponding to the location of the user 30 .
  • location information eg, spatial coordinates
  • the sensing device corresponding to the location of the user 30 may be a sensing device positioned in the same area as the user 30 among the plurality of sensing devices 300 . That is, the sensing device corresponding to the location of the user 30 compares the area where the electronic device receiving the user command or the user's voice is located and the area where the plurality of sensing devices 300 are located. ), the sensing device may be located in the same area as the area in which the electronic device from which the user command or the user's voice is received is located.
  • the location information ( Example: A sensing device located in the same area as the identified electronic device among the plurality of sensing devices 300 may be identified as the sensing device corresponding to the location of the user 30 based on the area in which the device is located. Considering a case in which the sensing device closest to the identified electronic device is located in a different area (eg, another room, another space, etc.), a sensing device located in the same area as the identified electronic device is selected as the sensing device corresponding to the user's location. This is to obtain sensing data closer to the user's environment by identifying it as being.
  • the processor 120 transmits information on the communication signal strength between the plurality of electronic devices 200 and the plurality of sensing devices 300 and the user terminal device 400 to the communication interface 110 . ), it is possible to identify a device having the greatest strength (or strength) of the communication signal based on the information on the strength of the received communication signal.
  • a device having the greatest strength (or strength) of the communication signal based on the information on the strength of the received communication signal.
  • the size of the communication signal of the external device received by the user terminal device 400 increases, it may indicate that the user terminal device 400 is closer to the external device.
  • the location of the user terminal device 400 can be estimated as the location of the user 30 (or as a location close to the user 30 )
  • a relationship between a specific external device and the user terminal device 400 is used. As the size of the communication signal increases, it may be determined that a specific external device is closer to the user 30 .
  • the communication signal may be various types of wireless signals or optical signals such as Wi-Fi, Bluetooth, NFC, and infrared rays.
  • the strength of the communication signal is the size of the communication signal received from the external device with respect to the user terminal device 400 and may have a unit such as dBm.
  • the user terminal device 400 transmits or receives a Time of Flight (ToF) signal such as ultrasound having a constant propagation speed with the plurality of electronic devices 200 and the plurality of sensing devices 300 .
  • the processor 120 receives the transmission time of the ToF signal between the plurality of electronic devices 200 and the plurality of sensing devices 300 and the user terminal device 400, and based on the received transmission time
  • a device having the shortest ToF signal transmission time may be identified among the plurality of electronic devices 200 and the plurality of sensing devices 300 .
  • the ToF signal transmission time between the user terminal device 400 and the external device decreases, it may indicate that the user terminal device 400 and the external device are closer.
  • the processor 120 may identify a sensing device corresponding to the identified device among the plurality of sensing devices 300 as a sensing device corresponding to the location of the user 30 .
  • the processor 120 may include location information (eg, an area in which the identified electronic device is located and a plurality of sensing devices ( A sensing device located in the same area as the identified electronic device among the plurality of sensing devices 300 may be identified as the sensing device corresponding to the location of the user 30 based on the area in which the 300 is located.
  • location information eg, an area in which the identified electronic device is located and a plurality of sensing devices ( A sensing device located in the same area as the identified electronic device among the plurality of sensing devices 300 may be identified as the sensing device corresponding to the location of the user 30 based on the area in which the 300 is located.
  • the processor 120 may include location information (eg, spatial coordinates indicating the identified electronic device and the plurality of sensing devices 300 ).
  • a sensing device closest to the identified electronic device among the plurality of sensing devices 300 may be identified as a sensing device corresponding to the location of the user 30 based on spatial coordinates indicating the location of the user 30 . This is because the identified electronic device is determined to be closest to the location of the user 30 , and in this case, a sensing device closest to the location of the user 30 may be identified using the identified electronic device.
  • the processor 120 identifies the identified sensing device as a sensing device corresponding to the location of the user 30 . can do. This is because the identified sensing device is determined to be closest to the location of the user 30 .
  • the processor 120 controls the communication interface 110 to transmit a signal for controlling the target electronic device among the plurality of electronic devices 200 to the target electronic device based on the sensing data received from the identified sensing device.
  • the processor 120 receives sensing data generated by sensing the surrounding environment by the identified sensing device through the communication interface 110 from the identified sensing device, and based on the received sensing data, the target electronic
  • the communication interface 110 may be controlled to transmit a signal for controlling the environment around the device to the target electronic device. That is, sensing data of the identified sensing device may be transmitted from the identified sensing device to the target electronic device through the server 110 .
  • the processor 120 transmits a signal for controlling the identified sensing device to the identified sensing device so as to transmit sensing data generated by sensing the surrounding environment in the identified sensing device to the target electronic device.
  • the communication interface 110 may be controlled.
  • the processor 120 may control the communication interface 110 to transmit a signal for controlling the target electronic device to perform an operation based on the sensed data of the identified sensing device to the target electronic device. That is, sensing data of the identified sensing device may be directly transmitted from the identified sensing device to the target electronic device without going through the server 110 .
  • the target electronic device may perform an operation for providing a service (eg, an air conditioning operation, an air purification operation, etc.) based on a signal received from the server 100 and sensing data of the identified sensing device.
  • a service eg, an air conditioning operation, an air purification operation, etc.
  • a server for controlling an operation of a target electronic device by using sensing data for an environment closer to the environment of the user 30 and a control method thereof. Accordingly, the satisfaction of the user 30 with respect to the service may be improved, and the inconvenience of the user 30 may be eliminated.
  • an environment estimated as the environment of the user 30 may be detected without accurately detecting the location of the user 30 . Accordingly, it is economical in that a sensor device having separate hardware and software for detecting the location of the user 30 is not required, and furthermore, the privacy of the user 30 can be protected.
  • the server 100 includes at least one of the memory 130 , the input interface 140 , and the output interface 150 in addition to the communication interface 110 and the processor 120 .
  • the memory 130 may store instructions or programs executed by the processor 120 .
  • information or data received through the communication interface 110 may be stored in the memory 130 .
  • information on the account of the user 30 information on the account of the user 30 , location information of the plurality of electronic devices 200 and the plurality of sensing devices 300 , and sensing data received from the plurality of sensing devices 300 .
  • various requests or user commands received from the user terminal device 400 may be stored.
  • the memory 130 is accessed by the processor 120 , and reading/writing/modification/deletion/update of instructions, modules, artificial intelligence models or data may be performed by the processor 120 .
  • the input interface 140 may receive various user inputs and transmit them to the processor 120 .
  • the input interface may include, for example, at least one of a touch panel (not shown), a pen sensor (not shown), a key (not shown), and a microphone (not shown).
  • the touch panel may use, for example, at least one of a capacitive type, a pressure-sensitive type, an infrared type, and an ultrasonic type, and for this, the touch panel may include a control circuit.
  • the touch panel may further include a tactile layer to provide a tactile response to the user.
  • the pen sensor may be, for example, a part of the touch panel or may include a separate recognition sheet.
  • the key may include, for example, a physical button, an optical key, or a keypad.
  • Such an input interface may be built into the server 100, such as a built-in keyboard, trackpad, button, or touch panel, or implemented as a separate external device (not shown) such as an external keyboard or mouse.
  • the output interface 150 may include at least one of a display (not shown) and a speaker (not shown).
  • the display is a device for outputting information in a visual form (eg, text, image, etc.).
  • the display may display the image frame in all or part of the display area.
  • the display area may refer to the entire area of a pixel unit in which information or data is visually displayed.
  • At least a portion of the display may be coupled to at least one of a front area and a side area and a rear area of the server 100 in the form of a flexible display.
  • the flexible display may be characterized as being able to bend, bend, or roll without damage through a thin and flexible substrate like paper.
  • a speaker is a device that outputs information in an audible form (eg, voice).
  • the speaker may directly output various types of notification sounds or voice messages as well as various audio data on which various processing operations such as decoding, amplification, and noise filtering have been performed by an audio processing unit (not shown).
  • FIG. 3 is a diagram for explaining a method of registering a device with a server according to an embodiment of the present disclosure
  • FIG. 4 is a diagram for explaining a UI for registering a location according to an embodiment of the present disclosure
  • FIG. 5 is a diagram for describing a UI for registering a device with a server according to an embodiment of the present disclosure
  • 6 is a diagram for explaining information about a device stored in a server according to an embodiment of the present disclosure.
  • the user terminal device 400 may access the server 100 through a network address, and the user 30 receives account information of the user 30 through the user terminal device 400 . It can be input to the server 100 (S310).
  • the server 100 may receive account information from the user terminal device 400, and may perform authentication by comparing the received account information and pre-stored key information (S320). To this end, the server 100 may store the account information of the user 30 input in the previous account registration step as key information.
  • the account information includes a unique identifier (eg, user ID (Identification)) to distinguish and identify the user 30 from other users, and the user 30 to limit the viewing of other users to the information of the user 30.
  • Encryption information used for verification eg, password, fingerprint information of the user 30, iris information of the user 30, facial contour information of the user 30, vein information of the user 30, etc.
  • Encryption information used for verification may be included. .
  • the server 100 may transmit information or a message indicating that authentication is completed to the user terminal device 400 (S321).
  • the user terminal device 400 may display the received information or message on the display.
  • a first user interface (UI) 410 may be displayed on the display of the user terminal device 400 .
  • the first UI 410 displays a first UI element 411 and a location (or device) in which information about a location (or place) or device registered in the account of the user 30 can be displayed to the user 30 ) may include a second UI element 415 for registering for an account.
  • a location or device in which information about a location (or place) or device registered in the account of the user 30 can be displayed to the user 30
  • a second UI element 415 for registering for an account.
  • a user command for registering (or adding) a location to the account of the user 30 through the user terminal device 400 is input
  • the user terminal device 400 may transmit the input user command to the server 100 (S331).
  • the server 100 receives a user command for registering a location in the account of the user 30 from the user terminal device 400 (S331), based on the received user command, the location in the account of the user 30 can be registered and stored in the memory 130 (S340).
  • a user command for selecting the second UI element 415 displayed on the display of the user terminal device 400 through the input interface of the user terminal device 400 .
  • the user terminal device 400 may display a second UI 420 corresponding to a user command for selecting the second UI element 415 on the display.
  • the second UI 420 may include a list of a plurality of locations (or a plurality of locations). However, this is only an example, and it is also possible for the user 30 to input or modify text indicating a location through the second UI 420 .
  • the user terminal device 400 selects a specific location such as the living room 423 through the second UI 420 and selects a third UI element 425 for confirming the selected location.
  • a user command is input, information for registering (or adding) the selected location to the account of the user 30 may be transmitted to the server 100 .
  • the user terminal device 400 may display the third UI 430 as shown in (3) of FIG. 4 .
  • the third UI 430 may include information 431 on a device belonging to a location registered to the user 30's account, and in the case where there is no device belonging to the currently registered living room, (3) of FIG. may appear as
  • the user terminal device 400 may transmit the input user command to the server 100 (S353).
  • a user command for the user 30 to select a location such as the living room 435 registered in the user's 30 account in the third UI 430 of the user terminal device 400 is the user terminal device 400 .
  • the user terminal device 400 may display the fourth UI 510 as shown in (1) of FIG. 5 on the display.
  • the fourth UI 510 may include information 511 on a device belonging to the registered living room 435 and a UI element 515 for registering (or adding) a device.
  • a user command for selecting a UI element 515 for registering (or adding) a device in the user terminal device 400 is input, within the network (eg, Wi-Fi, Bluetooth network environment, etc.) of the user terminal device 400 .
  • the user terminal device 400 may transmit a signal for searching for an electronic device or a sensing device in the network using various network protocols, and in response to this, receive identification information of the device from the electronic device or the sensing device can do. And, when the identification information is received, the user terminal device 400 may display the fifth UI 520 as shown in (2) of FIG. 5 on the display.
  • the fifth UI 520 may include a list of found devices corresponding to the received identification information.
  • the user terminal device 400 may transmit the input user command to the server 100 .
  • the server 100 may transmit a request for information about the device to the selected device ( S353 ). S355).
  • the selected device may transmit information about the device to the server 100 (S357).
  • the information about the device may include information such as unique identification information (eg, name, model, serial number, Mac address, etc.) for identifying the selected device, and the type of obtainable sensing data.
  • the server 100 may register the selected device to the user 30's account based on the received information on the device and store it in the memory (S360). . Thereafter, the user terminal device 400 may display the sixth UI 530 as shown in FIG. 5 ( 3 ).
  • the sixth UI 530 may include information 531 on a device belonging to a location registered to the user 30's account. It can appear as in (3).
  • the user terminal device 400 may transmit a user command for controlling the operation of the air conditioner to the air conditioner through the server 100 . have. The operation of the air conditioner may be controlled according to this method or the like.
  • the server 100 may have the authority to control the registered electronic device or the registered sensing device. For example, the server 100 changes the power of a registered electronic device or a registered sensing device to on/off, controls the registered electronic device to perform a specific operation or stops a specific operation, or performs registered sensing Sensing data may be periodically received from the device.
  • the server 100 may register external devices (eg, a plurality of electronic devices 200 and a plurality of sensing devices 300 ) connected through a network, and information on the registered external devices is provided for each user account. It may be stored in the server 100 .
  • external devices eg, a plurality of electronic devices 200 and a plurality of sensing devices 300
  • the server 100 may receive data (or a message, etc.) from the registered external device or transmit data (or a user command, etc.) to the registered external device.
  • the server 100 may periodically receive sensing data from a plurality of registered sensing devices 300 .
  • the server 100 may transmit a signal for controlling the registered external device to perform a specific operation to the registered external device.
  • the server 100 transmits a signal for controlling an operation to be performed using sensing data received from one sensing device among a plurality of registered sensing devices 300 to one of a plurality of registered electronic devices 200 . It can be transmitted to an electronic device.
  • the registered information on the external device may include unique identification information (eg, device ID, QR (Quick Response) code, barcode, etc.) for distinguishing and identifying the external device from other external devices.
  • the registered information on the external device may include information (or location information) on a region in which the external device is located, information on sensing data obtainable by the external device, and the like.
  • the information on the registered external device includes information indicating that the temperature sensor 1 is located in the first area 21 (or room 1), and sensing data obtainable by the temperature sensor 1.
  • Information indicating the temperature may be included.
  • Information on the external device registered in this way includes information indicating that an air conditioner capable of acquiring an infrared signal as sensing data is located in the first region 21 , and acquiring temperature as sensing data in the second region 22 .
  • Information indicating that a possible temperature sensor 2 is located and a TV capable of acquiring a user voice and an infrared signal as sensing data is located may be included.
  • FIG. 7 is a diagram for explaining a method of determining a sensing device that is a basis for an operation of a target electronic device through a user command according to an embodiment of the present disclosure.
  • the electronic device 1, the sensing device 1, and the sensing device 2 are registered in the user 30's account and stored in the server 100, and the sensing device 1 (eg, temperature sensing device 1) and sensing device 2 (eg: The temperature sensing device 2) will be described on the assumption that it is a sensing device capable of acquiring sensing data used to perform an operation of the electronic device 1 (eg, the air conditioner 1).
  • the processor 120 of the server 100 when the processor 120 of the server 100 receives a command to control the electronic device 1 from the user terminal device 400 or the electronic device 1 through the communication interface 110 ( S710 ), it obtains The communication interface 110 may be controlled to transmit a request for information of possible sensing data to the plurality of sensing devices 300 .
  • the electronic device 1 will be referred to as a target electronic device.
  • the processor 120 is a target electronic device among the plurality of sensing devices 300 based on the received information.
  • a sensing device capable of acquiring sensing data corresponding to the operation of may be identified (S720).
  • a sensing device 1 and a sensing device 2 capable of acquiring sensing data for a temperature used to perform an operation of the air conditioner 1 among the plurality of sensing devices 300 may be identified.
  • the received information may include identification information of the sensing device and information on sensing data obtainable by the sensing device.
  • step S711 related to the operation of receiving information from the sensing device may be omitted.
  • the processor 120 may control the communication interface 110 to transmit a list of the identified sensing devices (eg, sensing device 1 and sensing device 2) to the user terminal device 400 (S730).
  • a list of the identified sensing devices eg, sensing device 1 and sensing device 2
  • the user terminal device 400 may display the list received from the server 100 on the display, and when a user command for selecting the sensing device 2 in the list is received, information on the selected sensing device 2 may be transmitted to the server 100 (S740).
  • the server 100 may control the target electronic device to perform an operation based on the received information on the sensing device 2 .
  • the processor 120 may transmit a signal for controlling the target electronic device to receive sensing data from the selected sensing device 2 to the target electronic device or the sensing device 2 through the communication interface 110 .
  • the target electronic device or the sensing device 2 may transmit data acquired by the sensing device 2 to the target electronic device based on the received signal (S745).
  • FIG. 8A is a diagram for describing a method of determining a sensing device, which is a basis for an operation of a target electronic device, by using an electronic device to which a user command is input, according to an embodiment of the present disclosure.
  • 8B is a diagram for describing a method of determining a sensing device, which is a basis for an operation of a target electronic device, by using a sensing device to which a user command is input, according to an embodiment of the present disclosure.
  • FIG. 8A illustrates a case in which a device to which a user command is input is an electronic device
  • FIG. 8B illustrates a case in which a device to which a user command is input is a sensing device.
  • sensing device 1 and electronic device 2 as the plurality of electronic devices 200 are registered in the account of the user 30 , and sensing device 1 and sensing device 2 are registered as the plurality of sensing devices 300 , and the electronic device It is assumed that the number 2 is registered as being located in the same area as the sensing device 2 and stored in the server 100 .
  • sensing device 1 eg, temperature sensing device 1
  • sensing device 2 eg, temperature sensing device 2
  • sensing devices capable of acquiring sensing data used to perform operation of electronic self-government 1 eg, air conditioner 1). Assume that it is .
  • the processor 120 of the server 100 may receive a command for controlling the electronic device 1 from the user terminal device 400 or the electronic device 1 through the communication interface 110 ( S810).
  • the electronic device 1 will be referred to as a target electronic device.
  • a user command or a user's voice may be input to the electronic device 2 (eg, a TV or a remote control interworking with the TV, etc.) among the plurality of electronic devices 200 and the plurality of sensing devices 300 ( S811 ). ).
  • a time point at which a user command or a user voice is input to the electronic device 2 may be the same time point before or after step S810.
  • the electronic device 2 may transmit the state information of the controlled electronic device or information on the user's voice to the server 100 based on the user command ( S813 ).
  • the processor 120 receives status information of the electronic device from the electronic device controlled based on a user command among the plurality of electronic devices 200 through the communication interface 110 or information on the user voice from the electronic device that has received the user voice. may be received (S813).
  • the processor 120 may identify a sensing device located in the same area as the electronic device that has transmitted the state information among the plurality of sensing devices 300 as the sensing device corresponding to the location of the user 30 . Meanwhile, the processor 120 may identify a sensing device located in the same area as the electronic device that has transmitted information on the user's voice among the plurality of sensing devices 300 as the sensing device corresponding to the location of the user 30 . .
  • the processor 120 identifies a device from which a user command or a user voice is received from among the plurality of electronic devices 200 and the plurality of sensing devices 300 based on the state information of the electronic device or information on the user's voice. It can be done (S820). In this case, the processor 120 may identify the device to which the user command was most recently input by comparing the input time of the user command included in the state information of the electronic device. As another embodiment, the processor 120 may identify the device from which the user's voice having the largest amplitude is received by comparing the signal level of the user's voice included in the information on the user's voice of the electronic device. For example, in the case of FIG. 8A , the electronic device 2 to which a user command is input may be identified.
  • the processor 120 compares information on sensing data obtainable by the identified device and information on sensing data requested by the target electronic device, and obtains sensing data used by the identified device to operate the target electronic device It may be determined whether or not it is possible (S830).
  • Information on sensing data obtainable by the identified device and information on sensing data requested by the target electronic device may be information previously stored in the server 100 or information received from each device. For example, in the case of FIG. 8A , it may be determined that the identified electronic device 2 cannot acquire sensing data corresponding to the operation of the target electronic device.
  • the processor 120 performs the location information of the identified device and the location of the target electronic device.
  • a sensing device located in the same area as the identified device among the plurality of sensing devices 300 may be identified as a sensing device corresponding to the user's location (S840).
  • the identified device location information and target electronic device location information may be information previously stored in the server 100 or information received from each device. For example, in the case of FIG. 8A , the sensing device 2 located in the same area as the identified electronic device 2 may be identified as the sensing device corresponding to the user's location.
  • the processor 120 may transmit a signal for controlling an operation to be performed based on the sensing data obtained by the identified sensing device 2 to the target electronic device (S841).
  • information on the identified sensing device eg, identification information, network information, etc.
  • the target electronic device may receive sensing data from the sensing device 2 through information on the identified sensing device ( S845).
  • the server 100 may receive sensing data from the sensing device 2 and transmit it to the target electronic device.
  • the target electronic device may perform an operation based on the received sensing data (S860).
  • a user command or a user's voice may be input to the sensing device 2 among the plurality of electronic devices 200 and the plurality of sensing devices 300 ( S812 ).
  • the sensing device 2 may include a temperature sensor, and may further include at least one of an input interface and a microphone.
  • a time point at which a user command or a user voice is input to the sensing device 2 may be the same time point before or after step S810.
  • the sensing device 2 may transmit state information of the controlled electronic device or information on a user's voice to the server 100 based on a user command (S814).
  • the processor 120 identifies a device to which a user command or a user voice is received from among the plurality of electronic devices 200 and the plurality of sensing devices 300 based on the received state information of the electronic device or information on the user's voice. It can be (S820). Then, the processor 120 compares information on sensing data obtainable by the identified device and information on sensing data requested by the target electronic device, and obtains sensing data used by the identified device to operate the target electronic device It may be determined whether or not it is possible (S830). For example, in the case of FIG. 8B , sensing device 2 may be identified, and it may be determined that sensing data used for operation of the target electronic device can be acquired.
  • the processor 120 identifies the identified device as a sensing device corresponding to the user's location. can do. For example, in the case of FIG. 8B , sensing device 2 may be identified as a sensing device corresponding to the user's location.
  • the processor 120 may transmit a signal for controlling an operation to be performed based on the sensing data obtained by the identified sensing device 2 to the target electronic device (S851).
  • information on the identified sensing device eg, identification information, network information, etc.
  • the target electronic device may receive sensing data from the sensing device 2 through information on the identified sensing device ( S855).
  • the server 100 may receive sensing data from the sensing device 2 and transmit it to the target electronic device.
  • the target electronic device may perform an operation based on the received sensing data (S860).
  • 8C and 8D are diagrams for explaining a method of identifying a device according to a user command and a user's voice according to an embodiment of the present disclosure.
  • the plurality of electronic devices 200 include a first electronic device 200 - 1 , a second electronic device 200 - 2 , a third electronic device 200 - 3 , and a fourth electronic device 200 .
  • device 200 - 4 may be included.
  • the first electronic device 200-1 is disposed in the first area 21 and is implemented as an air conditioner
  • the second electronic device 200-2 is disposed in the second area 22 and is implemented as a TV.
  • the third electronic device 200 - 3 is disposed in the second area 22 and is implemented as a remote control for controlling the TV
  • the fourth electronic device 200 - 4 is an artificial device disposed in the third area 23 . Assume that it is implemented as an intelligent speaker.
  • the user 30 remotely controls the second electronic device 200-2 through the third electronic device 200-3 that performs communication such as infrared communication with the second electronic device 200-2. can be controlled with
  • the third electronic device 200-3 transmits the server State information of the third electronic device 200 - 3 may be transmitted to ( 100 ).
  • the server 100 uses the location information of the third electronic device 200 - 3 and the plurality of sensing devices 300 , and uses the location information of the third electronic device 200 - 3 to be located in the same area as the third electronic device 200 - 3 from which the status information is received.
  • the sensing device 300 - 2 may be identified as a sensing device corresponding to the user's location.
  • the third electronic device 200-3 may transmit status information of the second electronic device 200 - 2 to the server 100 .
  • the server 100 uses the location information of the second electronic device 200 - 2 and the plurality of sensing devices 300 to obtain a second electronic device located in the same area as the second electronic device 200 - 3 from which the state information is received. 2
  • the sensing device 300 - 2 may be identified as a sensing device corresponding to the user's location.
  • the server 100 performs an operation of the target electronic device based on sensing data obtained from the identified second sensing device 300 - 2 .
  • a signal for controlling to do so may be transmitted to the target electronic device.
  • the target electronic device may perform a cooling operation based on a set temperature (eg, 24° C.) and sensing data (eg, 30° C.) obtained from the second sensing device 300 - 2 .
  • an electronic device having a microphone among the plurality of electronic devices 200 may receive the user's voice.
  • the third electronic device 200 - 3 and the fourth electronic device 200 - 4 have microphones as shown in FIG. 8D
  • the third electronic device 200 - 3 and the fourth electronic device 200 - 3 Among 200 - 4 the third electronic device 200 - 3 located close to the user 30 may receive the user's voice signal in a large state, and the fourth electronic device 200 located far from the user 30 .
  • the signal level of the user's voice may be received in a small state.
  • the third electronic device 200 - 3 and the fourth electronic device 200 - 4 may transmit information on the received user voice to the server 100 .
  • the server 100 is a third electronic device that has the largest signal level of the user's voice.
  • the second sensing device 300 - 2 located in the same area as the device 200 - 3 may be identified as a sensing device corresponding to the user's location.
  • the server 100 performs an operation of the target electronic device based on sensing data obtained from the identified second sensing device 300 - 2 .
  • a signal for controlling to do so may be transmitted to the target electronic device.
  • the target electronic device may perform a cooling operation based on a set temperature (eg, 24° C.) and sensing data (eg, 30° C.) obtained from the second sensing device 300 - 2 .
  • FIG. 9A to 9C are diagrams for explaining a method of determining a sensing device that is based on an operation of a target electronic device by using a signal strength according to an embodiment of the present disclosure.
  • FIG. 9A illustrates a case in which a device having the largest signal strength is an electronic device
  • FIG. 9B illustrates a case in which a device having the largest signal strength is a sensing device.
  • the processor 120 of the server 100 may receive a command for controlling the electronic device 1 from the user terminal device 400 or the electronic device 1 through the communication interface 110 ( S910).
  • the electronic device 1 will be referred to as a target electronic device.
  • the processor 120 may receive information on the strength of a communication signal between the plurality of electronic devices 200 and the plurality of sensing devices 300 and the user terminal device 400 through the communication interface 110 ( S913 ).
  • the information on the communication signal strength includes the strength of a communication signal between the user terminal device 400 and the electronic device 1 , the strength of a communication signal between the user terminal device 400 and the electronic device 2 , and the user terminal device 400 and the sensing device. It may include information on the strength of the communication signal between 1 and the strength of the communication signal between the user terminal device 400 and the sensing device 2 .
  • information on the communication signal strength may be received from the user terminal device 400 , but this is only an example, and information on each communication signal strength is provided by the plurality of electronic devices 200 and the plurality of sensing devices 300 . It is also possible to receive from
  • the processor 120 may identify a device having the greatest communication signal strength based on the received communication signal strength information ( S920 ). For example, as shown in FIG. 9C , the second electronic device 200 - 2 closest to the user terminal device 400 may have the largest communication signal.
  • the processor 120 may identify the sensing device corresponding to the device identified as having the greatest communication signal strength among the plurality of sensing devices 300 as the sensing device corresponding to the location of the user 30 . .
  • the processor 120 of the server 100 senses a plurality of sensing devices based on location information as shown in FIG. 9A .
  • a sensing device located in the same area as the identified electronic device among the devices 300 may be identified as a sensing device corresponding to the location of the user 30 .
  • the processor 120 corresponds to the location of the user 30 as shown in FIG. 9B . It can be identified as a sensing device that is
  • the processor 120 compares information on sensing data obtainable by the device identified as having the greatest communication signal strength and information on sensing data requested by the target electronic device, and has the largest communication signal strength. It may be determined whether the identified device can acquire sensing data used for operation of the target electronic device (S930). Information on sensing data obtainable by the identified device and information on sensing data requested by the target electronic device may be information previously stored in the server 100 or information received from each device. For example, in the case of FIG. 9A , it may be determined that the electronic device 2 identified as having the greatest communication signal strength cannot acquire sensing data corresponding to the operation of the target electronic device. As another example, in the case of FIG. 9B , it may be determined that the sensing device 2 identified as having the largest communication signal strength can acquire sensing data corresponding to the operation of the target electronic device.
  • reference numeral 120 identifies the sensing device 2 located in the same area as the identified electronic device 2 among the plurality of sensing devices 300 as the sensing device corresponding to the location of the user 30 .
  • the processor 120 may identify the identified sensing device 2 as a sensing device corresponding to the location of the user 30 .
  • the processor 120 transmits information on the identified sensing device to the target electronic device (S941, S951), and the target electronic device receives sensing data from the identified sensing device 2 (S945, S955), and the received sensing An operation may be performed using the data (S950, S960). Since this overlaps with the contents described above with reference to FIGS. 8A to 8D , specific details thereof will be omitted.
  • FIG. 10 is a diagram for describing a method of determining a sensing device that is based on an operation of a target electronic device by using a score according to an embodiment of the present disclosure.
  • the processor 120 of the server 100 receives information on the strength of a communication signal received from the plurality of electronic devices 200 and the plurality of sensing devices 300 through the communication interface 110 , a plurality of A sensing device corresponding to the location of the user 30 among the plurality of sensing devices 300 may be identified based on the state information received from at least one of the electronic devices 200 and information on the user's voice.
  • the processor 120 of the server 100 corresponds to the information on the communication signal strength, the state information, and the information on the user's voice for each of the plurality of electronic devices 200 and the plurality of sensing devices 300 , respectively.
  • a score may be calculated by applying a preset weight to the value to be obtained.
  • the value corresponding to each of the information on the communication signal strength, the state information, and the information on the user's voice may be a value obtained by quantifying each of the information on the communication signal strength, the state information, and the information on the user's voice.
  • the value corresponding to the state information may have a value of 0 when a user command is not input, and may have a value of 1 when a user command is input.
  • the value corresponding to the user's voice has a value between a minimum of 0 and a maximum of 1, and may have a higher value as the signal level (the sound level) of the user's voice increases.
  • the value corresponding to the communication signal strength has a value between a minimum of 0 and a maximum of 1, and may have a higher value as the strength of the communication signal increases. However, this is only an example, and they may have values within various ranges. Each weight may be set or adjusted by a manufacturer or a user.
  • the score may be calculated for each of the plurality of electronic devices 200 and the plurality of sensing devices 300 .
  • the score of the first electronic device as shown in FIG. 10 (Y 1) corresponding to a user's voice to the weight 1 (W 1) multiplied by the value (X 11) corresponding to the status information, the weight 2 (W 2)
  • a value obtained by multiplying a value (X 12 ) a value obtained by multiplying a value obtained by multiplying a weight 3 (W 3 ) by a value (X 13 ) corresponding to the communication signal strength, may be summed.
  • the processor 120 of the server 100 may identify a device having the highest score among the plurality of electronic devices 200 and the plurality of sensing devices 300 .
  • the processor 120 determines the electronic device identified from among the plurality of sensing devices 300 based on the location information.
  • a sensing device located in the same area as the device may be identified as a sensing device corresponding to the location of the user 30 .
  • the processor 120 of the server 100 sets the identified sensing device to the user 30 . It can be identified as a sensing device corresponding to the location.
  • FIG. 11 is a block diagram illustrating a configuration of one electronic device among a plurality of electronic devices according to an embodiment of the present disclosure.
  • the N-th electronic device 200 -N may include a communication interface 210 , a driver 220 , and a processor 230 .
  • the N-th electronic device 200 -N may be one electronic device among the plurality of electronic devices 200 .
  • the N-th electronic device 200 -N additionally includes an input interface 240 , an output interface 250 , a memory 260 , and a sensor 270 in addition to the communication interface 210 , the driving unit 220 , and the processor 230 . It may further include at least one of them.
  • overlapping contents will be omitted.
  • the driving unit 220 is a component capable of performing an operation for providing a specific service.
  • the driving unit 220 generates cold or warm air, moves the N-th electronic device 200 -N, rotates the N-th electronic device 200 -N, generates light, etc. can perform a variety of actions.
  • the driving unit 220 may include components such as a blower fan 221 , a heat exchanger 222 , a driving motor 223 , a heat pump 224 , and the like, which is an N-th electronic device 200 -N. It may be modified to include various configurations according to the operation to be performed or the service to be provided.
  • FIG. 12 is a block diagram illustrating a configuration of one sensing device among a plurality of sensing devices according to an embodiment of the present disclosure.
  • the N-th sensing device 300 -N may include a communication interface 310 , a sensor 320 , and a processor 330 .
  • the N-th sensing device 300 -N may be one sensing device among the plurality of sensing devices 300 .
  • the N-th sensing device 300-N additionally includes an input interface 340 , an output interface 350 , a memory 360 , and a driving unit 370 in addition to the communication interface 310 , the sensor 320 , and the processor 330 . It may further include at least one of them.
  • FIGS. 2A and 2B can be applied, overlapping contents will be omitted.
  • the sensor 320 may acquire sensing data for the surrounding environment. For example, various sensing data such as temperature, concentration of fine dust, humidity, concentration of carbon dioxide, and illuminance may be acquired. To this end, the sensor 320 may include components such as a temperature sensor 321 , a fine dust sensor 322 , a humidity sensor 323 , a gas sensor 324 , and the like, which is an N-th sensing device 300-N. It may be modified to include various configurations according to the sensed data obtained from .
  • FIG. 13 is a view for explaining a flowchart according to an embodiment of the present disclosure.
  • a user of a plurality of sensing devices 300 is based on information received from at least one of a plurality of electronic devices 200 and a plurality of sensing devices 300 .
  • a signal for controlling the target electronic device among the plurality of electronic devices 200 is transmitted to the target electronic device based on the step of identifying the sensing device corresponding to the location of 30 ( S1310 ) and sensing data received from the identified sensing device. It may include a step of transmitting (S1320).
  • a sensing device corresponding to the location of the user 30 among the plurality of sensing devices 300 may be identified based on information received from at least one of the plurality of electronic devices 200 and the plurality of sensing devices 300 .
  • the sensing device corresponding to the location of the user 30 may be a sensing device closest to the user 30 among the plurality of sensing devices 300 . That is, in the step of identifying the sensing device corresponding to the user's location, the sensing device corresponding to the location of the user 30 among the plurality of sensing devices 300 may be identified as the sensing device closest to the user 30 .
  • the server 100 may store location information on regions in which the plurality of electronic devices 200 and the plurality of sensing devices 300 are located in a specific place.
  • the identifying of the sensing device may identify one of the plurality of electronic devices 200 based on information received from at least one of the plurality of electronic devices 200 .
  • a sensing device located in the same area as the identified electronic device among the plurality of sensing devices 300 may be identified as a sensing device corresponding to the location of the user 30 .
  • the plurality of sensing devices 300 when status information of an electronic device is received from an electronic device controlled based on a user command among the plurality of electronic devices 200 , the plurality of sensing devices 300 . This may include identifying a sensing device located in the same area as the electronic device that has transmitted the state information as the sensing device corresponding to the location of the user 30 .
  • the step of identifying the sensing device may include, when information about a user voice is received from an electronic device that has received a user voice among the plurality of electronic devices 200 , a user from among the plurality of sensing devices 300 . This may include identifying a sensing device located in the same area as the electronic device that has transmitted voice information as a sensing device corresponding to the location of the user 30 .
  • step of identifying the sensing device when information on the communication signal strength between the plurality of electronic devices 200 and the plurality of sensing devices 300 and the user terminal device 400 is received, receiving A device having the greatest communication signal strength is identified based on the information on the communication signal strength, and a sensing device corresponding to the identified device among the plurality of sensing devices 300 is selected as a sensing device corresponding to the location of the user 30 . It may include identifying as being
  • the step of identifying the sensing device includes at least one of the plurality of electronic devices 200 and information about the communication signal strength received from the plurality of sensing devices 300 and the plurality of electronic devices 200 . This may include identifying a sensing device corresponding to the location of the user 30 from among the plurality of sensing devices 300 based on the state information received from one and information about the user's voice.
  • the step of identifying the sensing device includes, for each of the plurality of electronic devices 200 and the plurality of sensing devices 300 , values corresponding to information on communication signal strength, status information, and information on user voice, respectively.
  • a score may be calculated by applying a preset weight.
  • a device having the highest score among the plurality of electronic devices 200 and the plurality of sensing devices 300 may be identified.
  • the sensing device located in the same area as the identified electronic device among the plurality of sensing devices 300 based on location information may be identified as a sensing device corresponding to the location of the user 30 .
  • identifying the identified sensing device as the sensing device corresponding to the location of the user 30 is included. can do.
  • a signal for controlling the target electronic device among the plurality of electronic devices 200 may be transmitted to the target electronic device based on the sensing data received from the identified sensing device (S1320).
  • Each of the plurality of sensing devices 300 may generate sensing data by sensing an environment around each sensing device.
  • the transmitting may include receiving sensing data generated by sensing the surrounding environment by the identified sensing device from the identified sensing device and controlling the environment around the target electronic device based on the received sensing data It may include transmitting a signal to the target electronic device.
  • a server for controlling an operation of a target electronic device by using sensing data for an environment closer to the environment of the user 30 and a control method thereof. Accordingly, the satisfaction of the user 30 with respect to the service may be improved, and the inconvenience of the user 30 may be eliminated.
  • an environment estimated as the environment of the user 30 may be detected without accurately detecting the location of the user 30 . Accordingly, it is economical in that a sensor device having separate hardware and software for detecting the location of the user 30 is not required, and furthermore, the privacy of the user 30 can be protected.
  • Various embodiments of the present disclosure may be implemented as software including instructions stored in a machine-readable storage medium readable by a machine (eg, a computer).
  • the device calls the stored instructions from the storage medium.
  • an electronic device eg, the electronic device 100
  • the processor directly or the The function described in the instruction may be performed using other components under the control of the processor.
  • the instruction may include code generated or executed by a compiler or an interpreter.
  • a machine-readable storage medium is a non-transitory It may be provided in the form of a (non-transitory) storage medium, where 'non-transitory' means that the storage medium does not include a signal and is tangible, and data is stored in the storage medium semi-permanently or temporarily It does not distinguish that it is stored as
  • the method according to various embodiments may be provided by being included in a computer program product.
  • Computer program products may be traded between sellers and buyers as commodities.
  • the computer program product may be distributed in the form of a machine-readable storage medium (eg, compact disc read only memory (CD-ROM)) or online through an application store (eg, Play StoreTM).
  • an application store eg, Play StoreTM
  • at least a portion of the computer program product may be temporarily stored or temporarily generated in a storage medium such as a memory of a server of a manufacturer, a server of an application store, or a relay server.
  • Each of the components may be composed of a singular or a plurality of entities, and some sub-components of the above-described sub-components may be omitted, or other sub-components may be various It may be further included in the embodiment.
  • some components eg, a module or a program
  • operations performed by a module, program, or other component may be sequentially, parallel, repetitively or heuristically executed, or at least some operations may be executed in a different order, omitted, or other operations may be added.

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Telephonic Communication Services (AREA)
  • Selective Calling Equipment (AREA)

Abstract

본 개시에서는 서버 및 그의 제어 방법에 대해 개시한다. 서버는, 복수의 전자 장치 및 복수의 센싱 장치와 통신을 수행하기 위한 통신 인터페이스 및 통신 인터페이스를 통해 복수의 전자 장치 및 복수의 센싱 장치 중 적어도 하나로부터 수신된 정보에 기초하여 복수의 센싱 장치 중 사용자의 위치에 대응되는 센싱 장치를 식별하고, 식별된 센싱 장치로부터 수신된 센싱 데이터에 기초하여 복수의 전자 장치 중 타겟 전자 장치를 제어하기 위한 신호를 타겟 전자 장치로 전송하도록 통신 인터페이스를 제어하는 프로세서를 포함할 수 있다.

Description

서버 및 그의 제어 방법
본 개시는 서버 및 그의 제어 방법에 관한 것으로, 보다 상세하게는 전자 장치의 동작을 제어하는 서버 및 그의 제어 방법에 관한 것이다.
종래의 공기 조화 장치, 공기 정화 장치 등의 전자 장치는 내장된 센서를 통해 획득되는 온도, 미세 먼지 농도 등의 환경에 대한 데이터를 이용하여 동작을 수행하여 사용자에게 냉난방 서비스 등의 특정한 서비스를 제공하였다.
한편, 사용자가 전자 장치와 다른 장소(또는 공간)에 위치하는 경우에, 사용자와 전자 장치의 환경은 서로 다를 수 있다. 이 경우, 전자 장치에 내장된 센서가 획득하는 환경에 대한 데이터는 전자 장치의 위치를 기준으로 획득된다는 점에서, 사용자의 위치를 기준으로 획득되는 데이터 간에 차이(또는 오차)가 발생할 수 있다.
이러한 경우에, 전자 장치는 사용자가 위치한 환경과는 차이가 있는 데이터를 기준으로 동작한다는 점에서, 전자 장치가 제공하는 서비스에 대한 사용자의 만족도가 낮아지게 되는 문제점이 있다. 또한 전자 장치가 위치한 환경에 대한 데이터를 제공할 뿐, 사용자가 위치한 환경에 대한 데이터를 제공하지 못하여 사용자에게 불편함을 야기할 수 있다.
본 개시의 목적은 사용자의 환경과 더 근접한 환경에 위치하는 센싱 장치의 센싱 데이터를 활용하여 타겟 전자 장치의 동작을 제어하는 서버 및 그의 제어 방법을 제공함에 있다.
본 개시의 일 실시 예에 따른 서버에 있어서, 복수의 전자 장치 및 복수의 센싱 장치와 통신을 수행하기 위한 통신 인터페이스 및 통신 인터페이스를 통해 복수의 전자 장치 및 복수의 센싱 장치 중 적어도 하나로부터 수신된 정보에 기초하여 복수의 센싱 장치 중 사용자의 위치에 대응되는 센싱 장치를 식별하고, 식별된 센싱 장치로부터 수신된 센싱 데이터에 기초하여 복수의 전자 장치 중 타겟 전자 장치를 제어하기 위한 신호를 타겟 전자 장치로 전송하도록 통신 인터페이스를 제어하는 프로세서를 포함할 수 있다.
한편, 복수의 센싱 장치 각각은, 각 센싱 장치 주변의 환경을 센싱하여 센싱 데이터를 생성하고, 프로세서는, 식별된 센싱 장치에서 주변의 환경을 센싱하여 생성한 센싱 데이터를 식별된 센싱 장치로부터 수신하고, 수신된 센싱 데이터에 기초하여 타겟 전자 장치 주변의 환경을 제어하기 위한 신호를 타겟 전자 장치로 전송하도록 통신 인터페이스를 제어할 수 있다.
한편, 프로세서는 복수의 전자 장치 및 복수의 센싱 장치 중 적어도 하나로부터 수신된 정보에 기초하여 복수의 센싱 장치 중 사용자의 위치에 대응되는 센싱 장치를 사용자와 가장 근접한 센싱 장치로서 식별할 수 있다.
한편, 특정 장소에서 복수의 전자 장치 및 복수의 센싱 장치가 위치한 영역에 대한 위치 정보가 저장된 메모리를 더 포함하고, 프로세서는, 통신 인터페이스를 통해 복수의 전자 장치 중 적어도 하나로부터 수신된 정보에 기초하여 복수의 전자 장치 중 하나를 식별하고, 위치 정보에 기초하여 복수의 센싱 장치 중 식별된 전자 장치와 동일한 영역에 위치한 센싱 장치를 사용자의 위치에 대응되는 센싱 장치인 것으로 식별할 수 있다.
한편, 프로세서는, 통신 인터페이스를 통해 복수의 전자 장치 중 사용자 명령에 기초하여 제어된 전자 장치로부터 전자 장치의 상태 정보가 수신되면, 복수의 센싱 장치 중 상태 정보를 전송한 전자 장치와 동일한 영역에 위치한 센싱 장치를 사용자의 위치에 대응되는 센싱 장치인 것으로 식별할 수 있다.
한편, 프로세서는, 통신 인터페이스를 통해 복수의 전자 장치 중 사용자 음성을 수신한 전자 장치로부터 사용자 음성에 대한 정보가 수신되면, 복수의 센싱 장치 중 사용자 음성에 대한 정보를 전송한 전자 장치와 동일한 영역에 위치한 센싱 장치를 사용자의 위치에 대응되는 센싱 장치인 것으로 식별할 수 있다.
한편, 프로세서는, 통신 인터페이스를 통해 복수의 전자 장치 및 복수의 센싱 장치와 사용자 단말 장치 간의 통신 신호 세기에 대한 정보가 수신되면, 수신된 통신 신호 세기에 대한 정보에 기초하여 가장 큰 통신 신호 세기를 갖는 장치를 식별하고, 복수의 센싱 장치 중 식별된 장치에 대응되는 센싱 장치를 사용자의 위치에 대응되는 센싱 장치인 것으로 식별할 수 있다.
한편, 프로세서는, 복수의 전자 장치 중 하나가 가장 큰 통신 신호 세기를 갖는 장치로 식별된 경우, 위치 정보에 기초하여 복수의 센싱 장치 중 식별된 전자 장치와 동일한 영역에 위치한 센싱 장치를 사용자의 위치에 대응되는 센싱 장치인 것으로 식별하고, 복수의 센싱 장치 중 하나가 가장 큰 통신 신호 세기를 갖는 장치로 식별된 경우, 식별된 센싱 장치를 사용자의 위치에 대응되는 센싱 장치인 것으로 식별할 수 있다.
한편, 프로세서는, 통신 인터페이스를 통해, 복수의 전자 장치 및 복수의 센싱 장치로부터 수신된 통신 신호 세기에 대한 정보, 복수의 전자 장치 중 적어도 하나로부터 수신된 상태 정보 및 사용자 음성에 대한 정보에 기초하여 복수의 센싱 장치 중 사용자의 위치에 대응되는 센싱 장치를 식별할 수 있다.
한편, 프로세서는, 복수의 전자 장치 및 복수의 센싱 장치 각각에 대해, 통신 신호 세기에 대한 정보, 상태 정보 및 사용자 음성에 대한 정보 각각에 대응되는 값에 기설정된 가중치를 적용하여 스코어를 산출하고, 복수의 전자 장치 및 복수의 센싱 장치 중에서 가장 큰 스코어를 갖는 장치를 식별하며, 복수의 전자 장치 중 하나가 가장 큰 스코어를 갖는 장치로 식별된 경우, 위치 정보에 기초하여 복수의 센싱 장치 중 식별된 전자 장치와 동일한 영역에 위치한 센싱 장치를 사용자의 위치에 대응되는 센싱 장치인 것으로 식별하고, 복수의 센싱 장치 중 하나가 가장 큰 스코어를 갖는 장치로 식별된 경우, 식별된 센싱 장치를 사용자의 위치에 대응되는 센싱 장치인 것으로 식별할 수 있다.
본 개시의 일 실시 예에 따른 서버의 제어 방법에 있어서, 복수의 전자 장치 및 복수의 센싱 장치 중 적어도 하나로부터 수신된 정보에 기초하여 복수의 센싱 장치 중 사용자의 위치에 대응되는 센싱 장치를 식별하는 단계 및 식별된 센싱 장치로부터 수신된 센싱 데이터에 기초하여 복수의 전자 장치 중 타겟 전자 장치를 제어하기 위한 신호를 타겟 전자 장치로 전송하는 단계를 포함할 수 있다.
한편, 복수의 센싱 장치 각각은, 각 센싱 장치 주변의 환경을 센싱하여 센싱 데이터를 생성하고, 전송하는 단계는, 식별된 센싱 장치에서 주변의 환경을 센싱하여 생성한 센싱 데이터를 식별된 센싱 장치로부터 수신하는 단계 및 수신된 센싱 데이터에 기초하여 타겟 전자 장치 주변의 환경을 제어하기 위한 신호를 타겟 전자 장치로 전송하는 단계를 포함할 수 있다.
한편, 센싱 장치를 식별하는 단계는, 복수의 전자 장치 및 복수의 센싱 장치 중 적어도 하나로부터 수신된 정보에 기초하여 복수의 센싱 장치 중 사용자의 위치에 대응되는 센싱 장치를 사용자와 가장 근접한 센싱 장치로서 식별할 수 있다.
한편, 서버는, 특정 장소에서 복수의 전자 장치 및 복수의 센싱 장치가 위치한 영역에 대한 위치 정보를 저장하며, 센싱 장치를 식별하는 단계는, 복수의 전자 장치 중 적어도 하나로부터 수신된 정보에 기초하여 복수의 전자 장치 중 하나를 식별하는 단계 및 위치 정보에 기초하여 복수의 센싱 장치 중 식별된 전자 장치와 동일한 영역에 위치한 센싱 장치를 사용자의 위치에 대응되는 센싱 장치인 것으로 식별하는 단계를 포함할 수 있다.
한편, 센싱 장치를 식별하는 단계는, 복수의 전자 장치 중 사용자 명령에 기초하여 제어된 전자 장치로부터 전자 장치의 상태 정보가 수신되면, 복수의 센싱 장치 중 상태 정보를 전송한 전자 장치와 동일한 영역에 위치한 센싱 장치를 사용자의 위치에 대응되는 센싱 장치인 것으로 식별하는 것을 포함할 수 있다.
한편, 센싱 장치를 식별하는 단계는, 복수의 전자 장치 중 사용자 음성을 수신한 전자 장치로부터 사용자 음성에 대한 정보가 수신되면, 복수의 센싱 장치 중 사용자 음성에 대한 정보를 전송한 전자 장치와 동일한 영역에 위치한 센싱 장치를 사용자의 위치에 대응되는 센싱 장치인 것으로 식별하는 것을 포함할 수 있다.
한편, 센싱 장치를 식별하는 단계는, 복수의 전자 장치 및 복수의 센싱 장치와 사용자 단말 장치 간의 통신 신호 세기에 대한 정보가 수신되면, 수신된 통신 신호 세기에 대한 정보에 기초하여 가장 큰 통신 신호 세기를 갖는 장치를 식별하고, 복수의 센싱 장치 중 식별된 장치에 대응되는 센싱 장치를 사용자의 위치에 대응되는 센싱 장치인 것으로 식별하는 것을 포함할 수 있다.
한편, 센싱 장치를 식별하는 단계는, 복수의 전자 장치 중 하나가 가장 큰 통신 신호 세기를 갖는 장치로 식별된 경우, 위치 정보에 기초하여 복수의 센싱 장치 중 식별된 전자 장치와 동일한 영역에 위치한 센싱 장치를 사용자의 위치에 대응되는 센싱 장치인 것으로 식별하는 단계 및 복수의 센싱 장치 중 하나가 가장 큰 통신 신호 세기를 갖는 장치로 식별된 경우, 식별된 센싱 장치를 사용자의 위치에 대응되는 센싱 장치인 것으로 식별하는 단계를 포함할 수 있다.
한편, 센싱 장치를 식별하는 단계는, 복수의 전자 장치 및 복수의 센싱 장치로부터 수신된 통신 신호 세기에 대한 정보, 복수의 전자 장치 중 적어도 하나로부터 수신된 상태 정보 및 사용자 음성에 대한 정보에 기초하여, 복수의 센싱 장치 중 사용자의 위치에 대응되는 센싱 장치를 식별하는 것을 포함할 수 있다.
한편, 센싱 장치를 식별하는 단계는, 복수의 전자 장치 및 복수의 센싱 장치 각각에 대해, 통신 신호 세기에 대한 정보, 상태 정보 및 사용자 음성에 대한 정보 각각에 대응되는 값에 기설정된 가중치를 적용하여 스코어를 산출하는 단계, 복수의 전자 장치 및 복수의 센싱 장치 중에서 가장 큰 스코어를 갖는 장치를 식별하는 단계, 복수의 전자 장치 중 하나가 가장 큰 스코어를 갖는 장치로 식별된 경우, 위치 정보에 기초하여 복수의 센싱 장치 중 식별된 전자 장치와 동일한 영역에 위치한 센싱 장치를 사용자의 위치에 대응되는 센싱 장치인 것으로 식별하는 단계 및 복수의 센싱 장치 중 하나가 가장 큰 스코어를 갖는 장치로 식별된 경우, 식별된 센싱 장치를 사용자의 위치에 대응되는 센싱 장치인 것으로 식별하는 단계를 포함할 수 있다.
이상과 같은 본 개시의 다양한 실시 예에 따르면, 사용자의 환경과 더 근접한 환경에 위치하는 센싱 장치의 센싱 데이터를 활용하여 타겟 전자 장치의 동작을 제어하는 서버 및 그의 제어 방법을 제공할 수 있다.
도 1a는 본 개시의 일 실시 예에 따른 시스템을 설명하기 위한 도면이다.
도 1b는 본 개시의 일 실시 예에 따른 복수의 센싱 장치가 배치된 상태를 설명하기 위한 도면이다.
도 2a는 본 개시의 일 실시 예에 따른 서버의 구성을 설명하기 위한 블록도이다.
도 2b은 본 개시의 일 실시 예에 따른 서버의 부가적인 구성을 설명하기 위한 블록도이다.
도 3은 본 개시의 일 실시 예에 따른 장치를 서버에 등록하는 방법을 설명하기 위한 도면이다.
도 4는 본 개시의 일 실시 예에 따른 위치를 등록하는 UI를 설명하기 위한 도면이다.
도 5는 본 개시의 일 실시 예에 따른 장치를 서버에 등록하는 UI를 설명하기 위한 도면이다.
도 6은 본 개시의 일 실시 예에 따른 서버에 저장되는 장치에 대한 정보를 설명하기 위한 도면이다.
도 7은 본 개시의 일 실시 예에 따른 사용자 명령을 통해 타겟 전자 장치의 동작의 기반이 되는 센싱 장치를 결정하는 방법을 설명하기 위한 도면이다.
도 8a는 본 개시의 일 실시 예에 따른 사용자 명령이 입력된 전자 장치를 이용하여 타겟 전자 장치의 동작의 기반이 되는 센싱 장치를 결정하는 방법을 설명하기 위한 도면이다.
도 8b는 본 개시의 일 실시 예에 따른 사용자 명령이 입력된 센싱 장치를 이용하여 타겟 전자 장치의 동작의 기반이 되는 센싱 장치를 결정하는 방법을 설명하기 위한 도면이다.
도 8c는 본 개시의 일 실시 예에 따른 입력된 사용자 명령에 따라 장치를 식별하는 방법을 설명하기 위한 도면이다.
도 8d는 본 개시의 일 실시 예에 따른 수신된 사용자 음성에 따라 장치를 식별하는 방법을 설명하기 위한 도면이다.
도 9a는 본 개시의 일 실시 예에 따른 신호의 세기를 이용하여 타겟 전자 장치의 동작의 기반이 되는 센싱 장치를 결정하는 방법을 설명하기 위한 도면이다.
도 9b는 본 개시의 일 실시 예에 따른 신호의 세기를 이용하여 타겟 전자 장치의 동작의 기반이 되는 센싱 장치를 결정하는 방법을 설명하기 위한 도면이다.
도 9c는 본 개시의 일 실시 예에 따른 신호의 세기를 이용하여 타겟 전자 장치의 동작의 기반이 되는 센싱 장치를 결정하는 방법을 설명하기 위한 도면이다.
도 10은 본 개시의 일 실시 예에 따른 스코어를 이용하여 타겟 전자 장치의 동작의 기반이 되는 센싱 장치를 결정하는 방법을 설명하기 위한 도면이다.
도 11은 본 개시의 일 실시 예에 따른 복수의 전자 장치 중 하나의 전자 장치의 구성을 설명하기 위한 블록도이다.
도 12는 본 개시의 일 실시 예에 따른 복수의 센싱 장치 중 하나의 센싱 장치의 구성을 설명하기 위한 블록도이다.
도 13은 본 개시의 일 실시 예에 따른 흐름도를 설명하기 위한 도면이다.
-
본 개시의 목적은, 사용자의 환경과 더 근접한 환경에 위치하는 센싱 장치의 센싱 데이터를 활용하여 타겟 전자 장치의 동작을 제어하는 서버 및 그의 제어 방법을 제공함에 있다.
본 개시를 설명함에 있어서, 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 개시의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그에 대한 상세한 설명은 생략한다. 덧붙여, 하기 실시 예는 여러 가지 다른 형태로 변형될 수 있으며, 본 개시의 기술적 사상의 범위가 하기 실시 예에 한정되는 것은 아니다. 오히려, 이들 실시 예는 본 개시를 더욱 충실하고 완전하게 하고, 당업자에게 본 개시의 기술적 사상을 완전하게 전달하기 위하여 제공되는 것이다.
본 개시에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 개시의 실시 예의 다양한 변경(modifications), 균등물(equivalents), 및/또는 대체물(alternatives)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.
본 개시에서 사용된 "제1," "제2," "첫째," 또는 "둘째,"등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 상기 구성요소들을 한정하지 않는다.
본 개시에서, "A 또는 B," "A 또는/및 B 중 적어도 하나," 또는 "A 또는/및 B 중 하나 또는 그 이상"등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B," "A 및 B 중 적어도 하나," 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.
본 개시에서 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성되다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제 3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.
본 개시에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)," "~하는 능력을 가지는(having the capacity to)," "~하도록 설계된(designed to)," "~하도록 변경된(adapted to)," "~하도록 만들어진(made to)," 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성된(또는 설정된)"은 하드웨어적으로 "특별히 설계된(specifically designed to)" 것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 상기 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 상기 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.
본 개시의 다양한 실시 예들에 따른 전자 장치는, 예를 들면, 스마트폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 영상 전화기, 전자책 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), 워크스테이션(workstation), 서버, PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera), 또는 웨어러블 장치(wearable device) 중 적어도 하나를 포함할 수 있다. 다양한 실시 예에 따르면, 웨어러블 장치는 액세서리형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD)), 직물 또는 의류 일체형(예: 전자 의복), 신체 부착형(예: 스킨 패드(skin pad) 또는 문신), 또는 생체 이식형(예: implantable circuit) 중 적어도 하나를 포함할 수 있다.
또한, 일 실시 예들에서, 전자 장치는 가전 제품(home appliance)일 수 있다. 가전 제품은, 예를 들면, 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), 홈 오토매이션 컨트롤 패널(home automation control panel), 보안 컨트롤 패널(security control panel), TV 박스(예: 삼성 HomeSync™, 애플TV™, 또는 구글 TV™), 게임 콘솔(예: Xbox™, PlayStation™), 전자 사전, 전자 키, 캠코더(camcorder), 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
다른 실시 예에서, 전자 장치는, 각종 의료기기(예: 각종 휴대용 의료측정기기(혈당 측정기, 심박 측정기, 혈압 측정기, 또는 체온 측정기 등), MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 또는 초음파기 등), 네비게이션(navigation) 장치, 위성 항법 시스템(GNSS(global navigation satellite system)), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예: 선박용 항법 장치, 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛(head unit), 산업용 또는 가정용 로봇, 금융 기관의 ATM(automatic teller's machine), 상점의 POS(point of sales), 또는 사물 인터넷 장치(internet of things)(예: 전구, 각종 센서, 전기 또는 가스 미터기, 스프링클러 장치, 화재경보기, 온도조절기(thermostat), 가로등, 토스터(toaster), 운동기구, 온수탱크, 히터, 보일러 등) 중 적어도 하나를 포함할 수 있다.
또 다른 실시 예에 따르면, 전자 장치는 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 수신 장치(electronic signature receiving device), 프로젝터(projector), 또는 각종 계측 기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 다양한 실시 예에서, 전자 장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 어떤 실시 예에 따른 전자 장치는 플렉서블 전자 장치일 수 있다. 또한, 본 문서의 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않으며, 기술 발전에 따른 새로운 전자 장치를 포함할 수 있다.
도 1a는 본 개시의 일 실시 예에 따른 시스템을 설명하기 위한 도면이다. 도 1b는 본 개시의 일 실시 예에 따른 복수의 센싱 장치가 배치된 상태를 설명하기 위한 도면이다.
도 1a 및 도 1b를 참조하여, 본 개시의 일 실시 예에 따른 시스템(10)은 서버(100), 복수의 전자 장치(200), 복수의 센싱 장치(300) 및 사용자 단말 장치(400)를 포함할 수 있다.
서버(100)는 복수의 전자 장치(200), 복수의 센싱 장치(300) 및 사용자 단말 장치(400) 등과 같은 외부 장치와 네트워크로 연결될 수 있다. 예를 들어, 서버(100)는 사용자 개인 단위의 네트워크(예: PAN(Personal Area Network) 등), 근거리 지역 단위의 네트워크(예: Home Networking, LAN(Local Area Network) 등) 또는 광역 지역 단위의 네트워크(예: WAN(Wide Area Network), 인터넷 등)를 통해 외부 장치와 연결될 수 있다. 이에 따라 서버(100)는 복수의 전자 장치(200), 복수의 센싱 장치(300) 및 사용자 단말 장치(400)와 통신하여 다양한 데이터(또는 메시지) 등을 송수신할 수 있다.
여기서, 서버(100)는 네트워크를 통해 연결된 외부 장치(예: 복수의 전자 장치(200) 및 복수의 센싱 장치(300) 중에서 적어도 하나의 장치 등)를 관리하거나 제어하는 권한을 갖는 장치를 지칭할 수 있다.
이를 위해, 서버(100)는 복수의 전자 장치(200) 및 사용자 단말 장치(400)와 구별되는 독립적인 서버 장치(예: 클라우드 서버, 홈 서버 등)로 구현될 수 있다. 다만, 이는 일 실시 예일 뿐이며, 서버(100)는 복수의 전자 장치(200) 및 사용자 단말 장치(400) 중 하나의 장치로도 구현될 수 있다. 즉, 서버(100)는 공기 조화 장치, 컴퓨터, 스마트폰, TV, AP(Access Point) 등 다양한 전자 장치로도 구현될 수 있다. 이하에서는 설명의 편의를 위해 서버(100)는 복수의 전자 장치(200) 및 사용자 단말 장치(400)와 구별되는 독립적인 장치인 것으로 가정하여 설명하도록 한다.
복수의 전자 장치(200) 각각은 서버(100)와 통신을 수행할 수 있는 다양한 전자 장치로 구현될 수 있다. 예를 들어, 복수의 전자 장치(200) 각각은 서버(100)로부터 수신된 신호에 따라 서비스 제공을 위한 동작이 수행되거나 중단되도록 제어될 수 있다. 이를 위해, 전자 장치는 로봇, 컴퓨터, 스마트 TV, 스마트 스피커, 공기 조화 장치, DVD(digital video disk) 플레이어, 오디오, 로봇 청소기, 청소기, 오븐, 전자레인지, 셋톱 박스(set-top box), 홈 오토매이션 컨트롤 패널(home automation control panel), 보안 컨트롤 패널(security control panel), 게임 콘솔(예: Xbox, PlayStation), 의료기기, 차량, 전자 사전, 캠코더(camcorder), 전자 액자, 상점의 POS(point of sales), 다양한 사물 인터넷 장치(internet of things)(예: 전구, 조명, 전기 또는 가스 미터기, 스프링클러 장치, 화재경보기 등) 등으로 구현될 수 있다.
여기서, 복수의 전자 장치(200)는 제1 전자 장치(200-1)(또는 전자 장치 1) 및 제2 전자 장치(200-2)를 포함할 수 있다. 이때, 복수의 전자 장치(200)는 다양한 수로 구성될 수 있다.
한편, 복수의 전자 장치(200) 중 하나의 전자 장치는 센싱 데이터를 이용하여 서비스 제공을 위한 동작을 수행할 수 있다. 구체적으로, 복수의 전자 장치(200) 중 하나의 전자 장치는 서버(100)로부터 수신된 신호에 따라 복수의 센싱 장치(300) 중 하나의 센싱 장치로부터 획득된 센싱 데이터를 이용하여 서비스 제공을 위한 동작을 수행할 수 있다. 이하에서는 이와 같이 동작하는 하나의 전자 장치를 타겟 전자 장치라고 지칭하기로 한다.
복수의 센싱 장치(300) 각각은 센싱 데이터를 획득할 수 있다. 이 경우, 센싱 데이터는 센싱 장치가 위치한 실내의 환경 또는 주변의 환경을 센싱한 데이터를 나타낼 수 있다. 또한, 센싱 데이터는 복수의 전자 장치(200) 중 하나의 전자 장치(예: 타겟 전자 장치)의 서비스 제공을 위한 동작을 수행하는데 이용될 수 있다.
이를 위해, 센싱 장치는 센서를 포함하는 전자 장치일 수 있다. 예를 들어, 센싱 장치는 센서 그 자체 또는 센서를 포함하는 전자 장치(예: TV, 로봇 청소기, 인공지능 스피커, TV를 제어하는 리모컨, 조명, 전기 또는 가스 미터기, 스프링클러 장치, 화재경보기, 온도조절기(thermostat), 사물 인터넷 장치(internet of things) 등)로 구현될 수도 있다. 이하에서는 본 개시의 이해를 돕기 위해 센싱 장치는 센서 그 자체로 구현되는 경우를 가정하여 설명하도록 한다.
예를 들어, 센서는 온도 센서, 미세먼지 센서, 습도 센서, 가스 센서 등 다양한 형태의 센서일 수 있다. 온도 센서는 온도(단위: ℃, ℉ 등)에 대한 센싱 데이터를 획득할 수 있다. 미세먼지 센서는 미세먼지의 농도(단위: ppm(parts per million), ㎍/m 3 등)에 대한 센싱 데이터를 획득할 수 있다. 여기서, 미세 먼지(Particulate Matter; PM)는 대기 중에 부유하는 입자를 지칭할 수 있으며, 미세 먼지의 종류로는 크기(또는 지름, 직경)가 1㎛ 이하인 PM 1, 크기가 2.5㎛ 이하인 PM 2.5, 크기가 10㎛ 이하인 PM 10 등이 있다. 습도 센서는 공기 중에 포함된 수분의 정도(단위: %, g/m 3 등)에 대한 센싱 데이터를 획득할 수 있다. 가스 센서는 이산화탄소의 농도(단위: ppm 등) 또는 라돈의 농도(단위: Bq/m3 등) 등에 대한 센싱 데이터를 획득할 수 있다. 한편, 센서 및 센서에 의해 획득되는 센싱 데이터는 상술한 실시 예에 제한되지 아니하며 다양한 형태로 구현될 수 있다.
복수의 센싱 장치(300) 각각은 서버(100) 및 복수의 전자 장치(200) 중 적어도 하나의 장치와 통신을 수행할 수 있다. 센싱 장치는 복수의 전자 장치(200) 중 하나의 전자 장치(예: 타겟 전자 장치)로 센싱 데이터를 전송할 수 있다. 예를 들어, 센싱 장치는 센싱 데이터를 타겟 전자 장치로 직접 전송할 수 있으며, 또는 센싱 장치는 센싱 데이터를 서버(100)를 경유하여 타겟 전자 장치로 전송할 수도 있다.
사용자 단말 장치(400)는 서버(100)에 접속하여 사용자(30)의 계정을 이용한 인증을 통해 복수의 전자 장치(200) 및 복수의 센싱 장치(300) 중 적어도 하나의 장치를 제어하거나 관리할 수 있다.
여기서, 사용자 단말 장치(400)는 사용자(30)의 위치를 추정하는데 이용될 수 있다. 즉, 사용자 단말 장치(400)의 위치는 사용자(30)의 위치로 추정될 수 있다. 이를 위해, 사용자 단말 장치(400)는 스마트폰, 태블릿 PC 등과 같이 사용자(30)가 휴대하거나, 웨어러블 장치(스마트 워치, 스마트 글래스 등)와 같이 사용자(30)가 착용할 수 있는 장치로 구현될 수 있다. 다만, 사용자 단말 장치(400)는 상술한 실시 예로 제한되지 아니하고, 사용자 단말 장치(400)는 다양한 전자 장치로 구현될 수도 있다. 한편, 사용자 단말 장치(400)는 동작을 구분하기 위한 것일 뿐, 복수의 전자 장치(200) 중 하나의 전자 장치일 수 있다.
사용자 단말 장치(400)는 사용자 명령(예: 사용자(30)의 터치 입력, 제스처 입력, 음성 입력, 키 입력 등)에 따라 복수의 전자 장치(200) 중에서 적어도 하나의 전자 장치를 제어할 수 있다. 이 경우, 사용자 단말 장치(400)는 서버(100)를 통해 복수의 전자 장치(200) 중에서 적어도 하나의 전자 장치를 제어할 수도 있다. 이를 위해, 사용자 단말 장치(400)는 복수의 전자 장치(200) 중에서 적어도 하나의 전자 장치를 제어하기 위한 UI(User Interface)를 디스플레이에 표시할 수도 있다.
또한, 사용자 단말 장치(400)는 복수의 전자 장치(200) 중에서 하나의 전자 장치가 수행하는 동작에 대한 정보를 하나의 전자 장치로부터 수신할 수 있다. 이때, 하나의 전자 장치는 복수의 센싱 장치(300) 중 하나의 센싱 장치에서 획득한 센싱 데이터를 이용하여 동작을 수행할 수 있다. 이 경우, 사용자 단말 장치(400)는 센싱 데이터를 하나의 센싱 장치, 하나의 전자 장치 또는 서버(100)를 통해 수신할 수도 있으며, 사용자 단말 장치(400)는 수신된 센싱 데이터를 디스플레이에 표시할 수도 있다.
한편, 복수의 전자 장치(200) 및 복수의 센싱 장치(300) 각각은 복수의 영역 중 하나의 영역에 배치될 수 있다. 도 1b를 참조하면, 예를 들어 복수의 영역은 특정한 장소에서 상호 구분되는 제1 내지 제3 영역(21 내지 23)을 포함할 수 있다. 여기서, 특정한 장소는 사용자(30)의 홈, 사무실 등의 다양한 장소일 수 있다.
구체적으로, 도 1b를 참조하면 복수의 전자 장치(200) 중 타겟 전자 장치인 제1 전자 장치(200-1) 및 제1 센싱 장치(300-1)는 제1 영역(21)에 배치되고, 제2 센싱 장치(300-2)는 제2 영역(22)에 배치되며, 제3 센싱 장치(300-3)는 제3 영역(23)에 배치될 수 있다. 여기서, 제1 내지 제3 센싱 장치(300-1 내지 300-3)에서 획득되는 센싱 데이터는 제1 내지 제3 센싱 장치(300-1 내지 300-3)가 위치한 환경(또는 영역)에 따라 달라질 수 있다.
예를 들어, 타겟 전자 장치인 제1 전자 장치(200-1)가 공기 조화 장치로 구현되며, 복수의 센싱 장치(300) 중 제1 내지 제3 센싱 장치(300-1 내지 300-3)가 주변 환경의 온도를 감지하는 온도 센서를 포함하는 상태에서, 타겟 전자 장치의 설정 온도가 특정한 온도(예: 24℃)로 설정된 상태에서 냉방 모드로 동작하기 위한 사용자 명령이 타겟 전자 장치에 입력된 경우를 가정하기로 한다.
종래의 공기 조화 장치는 설정 온도(예: 24℃)와 내장된 온도 센서에 의해 감지되는 온도(예: 26℃)를 이용하여 냉방 또는 난방 동작을 수행하였으며, 이 경우 설정 온도(예: 24℃) 및 공기 조화 장치가 위치한 제1 영역(21)의 실내 온도(예: 26℃) 간의 차이가 크지 않아 공기 조화 장치는 송풍 팬의 동작 속도를 낮추거나 송풍 팬의 동작을 중단하도록 제어되었다.
이 경우, 공기 조화 장치의 주변 환경에 대해 감지되는 온도(예: 제1 영역(21)의 26℃)는 사용자(30)가 위치한 환경의 온도(예: 제2 영역(22)의 온도 30℃)와 오차(또는 차이)가 있다는 점에서, 공기 조화 장치는 사용자(30)가 체감하는 환경을 정확하게 인식하지 못하는 상태로 냉방 서비스를 사용자(30)에게 제공하였다. 이에 따라, 서비스에 대한 사용자(30)의 만족도가 낮아지거나 사용자(30)의 불편을 야기하였다.
본 개시의 일 실시 예에 따른 서버(100)는 외부의 복수의 센싱 장치(300) 중 사용자(30)의 위치에 대응되는 센싱 장치를 식별하여, 식별된 센싱 장치에서 획득되는 센싱 데이터를 이용하여 타겟 전자 장치가 특정한 서비스의 제공을 위한 동작을 수행하도록 제어할 수 있다. 여기서, 사용자(30)의 위치에 대응되는 센싱 장치는 사용자(30)와 실질적으로 동일한 환경에 있는 센싱 장치를 나타낼 수 있으며, 예를 들어, 사용자(30)의 위치에 대응되는 센싱 장치는 사용자(30)의 위치와 가장 근접한 센싱 장치 또는 사용자(30)와 동일한 영역에 위치하는 센싱 장치(예: 제2 영역(22)에 위치하는 제2 센싱 장치(300-2))일 수 있다.
이상과 같은 본 개시의 다양한 실시 예에 따르면, 사용자(30)의 환경에 보다 가까운 환경에 대한 센싱 데이터를 활용하여 타겟 전자 장치의 동작을 제어하는 서버 및 그의 제어 방법을 제공할 수 있다. 이에 따라, 서비스에 대한 사용자(30)의 만족도가 향상될 수 있으며, 또한 사용자(30)의 불편을 해소할 수 있다.
이하에서는 첨부된 도면을 참조하여 본 개시의 다양한 실시 예를 보다 구체적으로 설명하기로 한다.
도 2a는 본 개시의 일 실시 예에 따른 서버의 구성을 설명하기 위한 블록도이다. 도 2b은 본 개시의 일 실시 예에 따른 서버의 부가적인 구성을 설명하기 위한 블록도이다.
도 2a를 참조하여, 본 개시의 일 실시 예에 따른 서버(100)는 통신 인터페이스(110) 및 프로세서(120)를 포함할 수 있다.
통신 인터페이스(110)는 다양한 통신 방식을 통해 외부 장치와 네트워크로 연결될 수 있다. 예를 들어, 통신 인터페이스(110)는 복수의 전자 장치(200), 복수의 센싱 장치(300), 사용자 단말 장치(400) 등의 외부 장치와 통신을 수행하여 네트워크로 연결될 수 있다. 이를 위해, 통신 인터페이스(110)는 와이파이, 블루투스, NFC, 적외선 통신(IrDA, infrared Data Association), RFID(Radio Frequency Identification), UWB(ultra-wideband), 와이파이 다이렉트(Wi-Fi Direct), Z-wave, Zigbee, 4LoWPAN, GPRS, Weightless, DLNA(Digital Living Network Alliance), ANT+, DECT(Digital Enhanced Cordless Telecommunications), WLAN(wireless local area network), GSM(Global System for Mobile communications), UMTS(Universal Mobile Telecommunication System), WiBRO(Wireless Broadband) 등의 다양한 통신 방식에 기반한 통신을 수행하여 외부 장치와 네트워크로 연결될 수 있다. 이에 따라, 통신 인터페이스(110)는 외부 장치로부터 다양한 데이터를 송수신할 수 있다.
프로세서(120)는 서버(100)의 전반적인 동작을 제어할 수 있다. 프로세서(120)는 하나 또는 복수의 프로세서로 구성될 수 있으며, 예를 들어 프로세서(120)는 CPU(Central Processing Unit), AP(Application Processor) 등과 같은 범용 프로세서, GPU(Graphic Processing Unit), VPU(Vision Processing Unit) 등과 같은 그래픽 전용 프로세서, NPU(Neural Processing Unit)와 같은 인공지능 전용 프로세서 등으로 구현될 수 있다.
프로세서(120)는 통신 인터페이스(110)를 통해 복수의 전자 장치(200) 및 복수의 센싱 장치(300) 중 적어도 하나로부터 수신된 정보에 기초하여 복수의 센싱 장치(300) 중 사용자(30)의 위치에 대응되는 센싱 장치를 식별할 수 있다. 구체적으로, 프로세서(120)는 통신 인터페이스(110)를 통해 복수의 전자 장치(200) 및 복수의 센싱 장치(300) 중 적어도 하나로부터 수신된 정보에 기초하여 복수의 센싱 장치(300) 중 사용자(30)의 위치에 대응되는 센싱 장치를 사용자(30)와 가장 근접한 센싱 장치로서 식별할 수 있다.
여기서, 사용자(30)의 위치에 대응되는 센싱 장치는 사용자(30)와 실질적으로 동일한 환경에 있는 것으로 추정되는 센싱 장치를 나타낼 수 있다. 또한, 복수의 센싱 장치(300) 각각은 각 센싱 장치의 주변 환경을 센싱하여 센싱 데이터를 생성할 수 있다.
여기서, 복수의 전자 장치(200) 및 복수의 센싱 장치(300) 중 적어도 하나로부터 수신된 정보는 복수의 전자 장치(200) 중 적어도 하나로부터 수신된 전자 장치의 상태 정보, 복수의 전자 장치(200) 중 적어도 하나로부터 수신된 사용자 음성에 대한 정보, 및 복수의 전자 장치(200) 및 복수의 센싱 장치(300)와 사용자 단말 장치(400) 간의 통신 신호의 세기에 대한 정보 중 적어도 하나를 포함할 수 있다.
이때, 전자 장치의 상태 정보는 복수의 전자 장치(200) 중 사용자 명령이 입력된 전자 장치 또는 입력된 사용자 명령에 기초하여 제어된 전자 장치를 식별하기 위한 정보일 수 있다. 또한, 전자 장치의 상태 정보는 사용자 명령이 입력된 시간을 포함할 수 있다. 여기서, 사용자 명령은 버튼 입력, 터치 입력, 모션 입력 등 다양한 유형의 전자 장치에 대한 사용자의 인터랙션을 지칭할 수 있다. 이때, 전자 장치는 사용자 명령을 수신하기 위한 버튼, 터치 패널 등의 입력 인터페이스를 포함할 수 있다. 사용자 음성에 대한 정보는 복수의 전자 장치(200) 중 사용자 음성을 수신한 전자 장치에서 수신된 사용자 음성의 신호 크기(단위: dB, dBm 등)를 포함할 수 있다. 이때, 전자 장치는 사용자 음성을 수신하기 위한 마이크 등의 인터페이스를 포함할 수 있다. 통신 신호의 세기에 대한 정보는 사용자 단말 장치(400)를 기준으로, 외부 장치(예: 전자 장치 또는 센싱 장치)로부터 사용자 단말 장치(400)으로 수신되는 신호의 세기(또는 강도)를 지칭할 수 있다. 여기서, 신호는 와이파이, 블루투스, NFC(Near Field Communication), 적외선 등 다양한 통신 방식에 따른 신호일 수 있다.
본 개시의 일 실시 예에 따르면, 서버(100)는 메모리(130, 도 2b 참조)를 더 포함할 수 있으며, 메모리(130)에는 특정 장소에서 복수의 전자 장치(200) 및 복수의 센싱 장치(300)가 위치한 영역에 대한 위치 정보가 저장될 수 있다. 여기서, 위치 정보는 장치의 위치를 나타내는 공간 좌표, 또는 장치가 위치하는 영역에 대한 정보를 포함할 수 있다. 다만, 이는 일 실시 예일 뿐이며, 복수의 전자 장치(200) 및 복수의 센싱 장치(300) 중 적어도 하나로부터 수신된 정보는 정보를 전송한 장치(복수의 전자 장치(200) 및 복수의 센싱 장치(300) 중 적어도 하나의 장치)의 식별 정보 또는 위치 정보를 포함할 수 있다.
일 실시 예를 들어, 프로세서(120)는 통신 인터페이스(110)를 통해 복수의 전자 장치(200) 중 적어도 하나로부터 수신된 정보에 기초하여 복수의 전자 장치(200) 중 하나를 식별할 수 있다. 이는 사용자 명령 또는 사용자 음성이 식별된 전자 장치의 위치를 사용자(30)의 위치로(또는 사용자(30)와 근접한 위치로) 추정할 수 있다는 점을 이용한 것이다. 이에 따라, 사용자(30)를 직접적으로 감지할 필요가 없다는 점에서 사용자(30)의 프라이버시를 보호할 수 있으며, 사용자(30)를 감지하는 별도의 물리적인 센서를 구비할 필요가 없다는 점에서 경제적인 측면에서 유용한 효과가 있다.
구체적인 일 실시 예를 들어, 프로세서(120)는 복수의 전자 장치(200) 중 사용자 명령(예: TV를 제어하기 위한 리모컨의 버튼을 누르는 사용자 명령 등)에 기초하여 제어된 전자 장치로부터 정보(예: 상태 정보 등)가 통신 인터페이스(110)를 통해 수신된 경우, 수신된 정보에 기초하여 복수의 전자 장치(200) 중 사용자 명령에 따라 제어된 전자 장치(또는 사용자 명령이 입력된 전자 장치)를 식별할 수 있다.
다른 실시 예를 들어, 프로세서(120)는 복수의 전자 장치(200) 중 사용자 음성을 수신한 전자 장치(예: 마이크를 구비한 리모컨 등)로부터 사용자 음성에 대한 정보(예: 사용자 음성의 신호 크기 등)가 통신 인터페이스(110)를 통해 수신된 경우, 수신된 정보에 기초하여 복수의 전자 장치(200) 중에서 가장 큰 신호 크기의 사용자 음성을 수신한 전자 장치를 식별할 수 있다.
이 경우, 프로세서(120)는 복수의 전자 장치(200) 중에서 식별된 전자 장치의 위치를 기준으로 복수의 센싱 장치(300) 중에서 사용자(30)의 위치에 대응되는 센싱 장치를 식별할 수 있다. 이때, 프로세서(120)는 식별된 전자 장치의 위치 정보 및 복수의 센싱 장치(300)의 위치 정보를 이용할 수 있다.
구체적인 일 실시 예로서, 사용자(30)의 위치에 대응되는 센싱 장치는 복수의 센싱 장치(300) 중 사용자(30)와 가장 근접한 센싱 장치일 수 있다. 여기서, 사용자(30)와 가장 근접한 센싱 장치는 복수의 전자 장치(200) 중에서 사용자(30)의 위치로 추정되는 전자 장치(또는 사용자 단말 장치(400))를 기준으로 하여, 복수의 센싱 장치(300) 중에서 기준이 되는 전자 장치 및 센싱 장치 간의 거리가 가장 작은 센싱 장치를 나타낼 수 있다. 여기서, 기준이 되는 전자 장치는 사용자 명령 또는 사용자 음성이 수신된 전자 장치이거나 사용자 단말 장치와의 신호 세기가 가장 큰 전자 장치일 수 있다. 이때, 거리는 위치를 나타내는 공간 좌표 간의 차이 값으로 나타낼 수 있다. 예를 들어, 프로세서(120)는 통신 인터페이스(110)를 통해 복수의 전자 장치(200) 중 적어도 하나로부터 수신된 정보에 기초하여 복수의 전자 장치(200) 중 하나를 기준 전자 장치로 식별한 경우, 위치 정보(예: 공간 좌표)에 기초하여 복수의 센싱 장치(300) 중에서 기준 전자 장치와 가장 근접한 센싱 장치를 사용자(30)의 위치에 대응되는 센싱 장치로 식별할 수 있다.
구체적인 다른 일 실시 예로서, 사용자(30)의 위치에 대응되는 센싱 장치는 복수의 센싱 장치(300) 중 사용자(30)와 동일한 영역에 위치하는 센싱 장치일 수 있다. 즉, 사용자(30)의 위치에 대응되는 센싱 장치는 사용자 명령 또는 사용자 음성이 수신된 전자 장치가 위치하는 영역 및 복수의 센싱 장치(300)가 위치하는 영역을 비교하여, 복수의 센싱 장치(300) 중에서 사용자 명령 또는 사용자 음성이 수신된 전자 장치가 위치하는 영역과 동일한 영역에 위치하는 센싱 장치일 수 있다. 예를 들어, 프로세서(120)는 통신 인터페이스(110)를 통해 복수의 전자 장치(200) 중 적어도 하나로부터 수신된 정보에 기초하여 복수의 전자 장치(200) 중 하나를 식별한 경우, 위치 정보(예: 장치가 위치하는 영역)에 기초하여 복수의 센싱 장치(300) 중 식별된 전자 장치와 동일한 영역에 위치한 센싱 장치를 사용자(30)의 위치에 대응되는 센싱 장치인 것으로 식별할 수 있다. 이는 식별된 전자 장치와 가장 근접한 센싱 장치가 다른 영역(예: 다른 방, 다른 공간 등)에 위치한 경우를 고려하여, 식별된 전자 장치와 동일한 영역에 위치한 센싱 장치를 사용자의 위치에 대응되는 센싱 장치인 것으로 식별함으로써 보다 사용자의 환경에 가까운 센싱 데이터를 획득하기 위한 것이다.
한편, 본 개시의 일 실시 예에 따르면, 프로세서(120)는 복수의 전자 장치(200) 및 복수의 센싱 장치(300)와 사용자 단말 장치(400) 간의 통신 신호 세기에 대한 정보가 통신 인터페이스(110)를 통해 수신되면, 수신된 통신 신호의 세기에 대한 정보에 기초하여 가장 큰 통신 신호의 세기(또는 강도)를 갖는 장치를 식별할 수 있다. 여기서, 사용자 단말 장치(400)에서 수신되는 외부 장치의 통신 신호의 크기가 클수록 사용자 단말 장치(400)과 외부 장치가 가까운 것을 나타낼 수 있다. 이와 함께, 사용자 단말 장치(400)의 위치는 사용자(30)의 위치로(또는 사용자(30)와 근접한 위치로) 추정될 수 있다는 점을 이용하여, 특정한 외부 장치 및 사용자 단말 장치(400)간의 통신 신호의 크기가 클수록 특정한 외부 장치는 사용자(30)와 가까운 것으로 판단할 수 있다.
여기서, 통신 신호는 와이파이, 블루투스, NFC, 적외선 등 다양한 종류의 무선 신호 또는 광 신호일 수 있다. 또한, 통신 신호의 세기는 사용자 단말 장치(400)을 기준으로 외부 장치로부터 수신된 통신 신호의 크기이며 dBm 등의 단위를 가질 수 있다.
한편, 이는 일 실시 예일 뿐이며, 사용자 단말 장치(400)는 복수의 전자 장치(200) 및 복수의 센싱 장치(300)와 일정한 전파 속도를 갖는 초음파 등의 ToF(Time of Flight) 신호를 전송하거나 수신할 수 있으며, 이 경우 프로세서(120)는 복수의 전자 장치(200) 및 복수의 센싱 장치(300)과 사용자 단말 장치(400) 간의 ToF 신호의 전송 시간을 수신하여, 수신된 전송 시간에 기초하여 복수의 전자 장치(200) 및 복수의 센싱 장치(300) 중에서 ToF 신호의 전송 시간이 가장 짧은 장치를 식별할 수도 있다. 여기서, 사용자 단말 장치(400) 및 외부 장치 간의 ToF 신호의 전송 시간이 작을수록 사용자 단말 장치(400)과 외부 장치가 가까운 것을 나타낼 수 있다.
이 경우, 프로세서(120)는 복수의 센싱 장치(300) 중 식별된 장치에 대응되는 센싱 장치를 사용자(30)의 위치에 대응되는 센싱 장치인 것으로 식별할 수 있다.
구체적으로, 프로세서(120)는 복수의 전자 장치(200) 중 하나가 가장 큰 통신 신호 세기를 갖는 장치로 식별된 경우, 위치 정보(예: 식별된 전자 장치가 위치하는 영역 및 복수의 센싱 장치(300)가 위치하는 영역 등)에 기초하여 복수의 센싱 장치(300) 중 식별된 전자 장치와 동일한 영역에 위치한 센싱 장치를 사용자(30)의 위치에 대응되는 센싱 장치인 것으로 식별할 수 있다. 또는 프로세서(120)는 복수의 전자 장치(200) 중 하나가 가장 큰 통신 신호 세기를 갖는 장치로 식별된 경우, 위치 정보(예: 식별된 전자 장치를 나타내는 공간 좌표 및 복수의 센싱 장치(300)의 위치를 나타내는 공간 좌표 등)에 기초하여 복수의 센싱 장치(300) 중 식별된 전자 장치와 가장 근접한 센싱 장치를 사용자(30)의 위치에 대응되는 센싱 장치인 것으로 식별할 수 있다. 이는 식별된 전자 장치가 사용자(30)의 위치와 가장 근접한 것으로 판단되기 때문이며, 이 경우 식별된 전자 장치를 이용하여 사용자(30)의 위치와 근접한 센싱 장치를 식별할 수 있다.
이와 달리, 프로세서(120)는 복수의 센싱 장치(300) 중 하나가 가장 큰 통신 신호 세기를 갖는 장치로 식별된 경우, 식별된 센싱 장치를 사용자(30)의 위치에 대응되는 센싱 장치인 것으로 식별할 수 있다. 이는 식별된 센싱 장치가 사용자(30)의 위치와 가장 근접한 것으로 판단되기 때문이다.
그리고, 프로세서(120)는 식별된 센싱 장치로부터 수신된 센싱 데이터에 기초하여 복수의 전자 장치(200) 중 타겟 전자 장치를 제어하기 위한 신호를 타겟 전자 장치로 전송하도록 통신 인터페이스(110)를 제어할 수 있다.
일 실시 예로서, 프로세서(120)는 식별된 센싱 장치에서 주변의 환경을 센싱하여 생성한 센싱 데이터를 식별된 센싱 장치로부터 통신 인터페이스(110)를 통해 수신하고, 수신된 센싱 데이터에 기초하여 타겟 전자 장치 주변의 환경을 제어하기 위한 신호를 타겟 전자 장치로 전송하도록 통신 인터페이스(110)를 제어할 수 있다. 즉, 식별된 센싱 장치의 센싱 데이터는 식별된 센싱 장치로부터 서버(110)를 통해 타겟 전자 장치로 전송될 수 있다.
다른 실시 예로서, 프로세서(120)는 식별된 센싱 장치에서 주변의 환경을 센싱하여 생성한 센싱 데이터를 타겟 전자 장치로 전송하도록 식별된 센싱 장치를 제어하기 위한 신호를, 식별된 센싱 장치로 전송하도록 통신 인터페이스(110)를 제어할 수 있다. 이 경우, 프로세서(120)는 식별된 센싱 장치의 센싱 데이터에 기초하여 동작을 수행하도록 타겟 전자 장치를 제어하기 위한 신호를, 타겟 전자 장치로 전송하도록 통신 인터페이스(110)를 제어할 수 있다. 즉, 식별된 센싱 장치의 센싱 데이터는 식별된 센싱 장치로부터 서버(110)를 통하지 않고 타겟 전자 장치로 직접 전송될 수 있다.
이 경우, 타겟 전자 장치는 서버(100)로부터 수신된 신호 및 식별된 센싱 장치의 센싱 데이터에 기초하여 서비스 제공을 위한 동작(예: 냉난방 동작, 공기 정화 동작 등)을 수행할 수 있다.
이상과 같은 본 개시의 다양한 실시 예에 따르면, 사용자(30)의 환경에 보다 가까운 환경에 대한 센싱 데이터를 활용하여 타겟 전자 장치의 동작을 제어하는 서버 및 그의 제어 방법을 제공할 수 있다. 이에 따라, 서비스에 대한 사용자(30)의 만족도가 향상될 수 있으며, 또한 사용자(30)의 불편을 해소할 수 있다.
또한, 본 개시의 다양한 실시 예에 따르면, 사용자(30)의 위치를 정확하게 감지하지 않고서도 사용자(30)의 환경으로 추정되는 환경을 감지할 수 있다. 이에 따라, 사용자(30)의 위치를 감지하는 별도의 하드웨어 및 소프트웨어를 구비한 센서 장치가 필요하지 않다는 점에서 경제적이며, 나아가 사용자(30)의 프라이버시 또한 보호할 수 있다.
도 2b를 참조하여, 본 개시의 일 실시 예에 따른 서버(100)는 통신 인터페이스(110) 및 프로세서(120) 외에도 메모리(130), 입력 인터페이스(140) 및 출력 인터페이스(150) 중 적어도 하나를 포함할 수 있다.
메모리(130)에는 프로세서(120)가 실행하는 명령어 또는 프로그램 등이 저장될 수 있다. 또한, 메모리(130)에는 통신 인터페이스(110)를 통해 수신된 정보 또는 데이터가 저장될 수 있다. 예를 들어, 메모리(130)에는 사용자(30)의 계정에 대한 정보, 복수의 전자 장치(200) 및 복수의 센싱 장치(300)의 위치 정보, 복수의 센싱 장치(300)로부터 수신된 센싱 데이터, 사용자 단말 장치(400)로부터 수신된 다양한 요청 또는 사용자 명령 등이 저장될 수 있다.
메모리(130)는 프로세서(120)에 의해 액세스되며, 프로세서(120)에 의해 인스트럭션, 모듈, 인공지능 모델 또는 데이터에 대한 독취/기록/수정/삭제/갱신 등이 수행될 수 있다.
입력 인터페이스(140)는 다양한 사용자 입력을 수신하여 프로세서(120)로 전달할 수 있다. 입력 인터페이스는 예를 들면, 터치 패널(미도시), 펜 센서(미도시), 키(미도시) 및 마이크(미도시) 중에서 적어도 하나를 포함할 수 있다. 터치 패널은, 예를 들면, 정전식, 감압식, 적외선 방식, 또는 초음파 방식 중 적어도 하나의 방식을 사용할 수 있으며, 이를 위해 터치 패널은 제어 회로를 포함할 수도 있다. 터치 패널은 택타일 레이어(tactile layer)를 더 포함하여, 사용자에게 촉각 반응을 제공할 수 있다. 펜 센서는 예를 들면, 터치 패널의 일부이거나, 별도의 인식용 쉬트를 포함할 수 있다. 키는 예를 들면, 물리적인 버튼, 광학식 키 또는 키패드를 포함할 수 있다. 이와 같은 입력 인터페이스는 내장 키보드, 트랙패드, 버튼, 터치 패널 등과 같이 서버(100)에 내장되거나 외부의 키보드, 마우스 등과 같은 별도의 외부 장치(미도시)로 구현될 수 있다.
출력 인터페이스(150)는 디스플레이(미도시) 및 스피커(미도시) 중 적어도 하나를 포함할 수 있다. 여기서, 디스플레이는 정보를 시각적인 형태(예: 문자, 이미지 등)로 출력하는 장치이다. 디스플레이는 이미지 프레임을 디스플레이 영역의 전체 또는 일부 영역에 표시할 수 있다. 디스플레이 영역은 정보 또는 데이터가 시각적으로 표시되는 픽셀 단위의 영역 전체를 지칭할 수 있다. 디스플레이의 적어도 일부는 플렉서블 디스플레이(flexible display)의 형태로 서버(100)의 전면 영역 및, 측면 영역 및 후면 영역 중 적어도 하나에 결합될 수도 있다. 플렉서블 디스플레이는 종이처럼 얇고 유연한 기판을 통해 손상 없이 휘거나 구부리거나 말 수 있는 것을 특징으로 할 수 있다. 스피커는 정보를 청각적인 형태(예: 음성)로 출력하는 장치이다. 스피커는 오디오 처리부(미도시)에 의해 디코딩이나 증폭, 노이즈 필터링과 같은 다양한 처리 작업이 수행된 각종 오디오 데이터뿐만 아니라 각종 알림 음이나 음성 메시지를 직접 소리로 출력할 수 있다.
이하에서는 도 3 내지 도 5를 참조하여, 서버에 장치를 등록하는 방법에 대해 설명하기로 한다.
도 3은 본 개시의 일 실시 예에 따른 장치를 서버에 등록하는 방법을 설명하기 위한 도면이며, 도 4는 본 개시의 일 실시 예에 따른 위치를 등록하는 UI를 설명하기 위한 도면이고, 도 5는 본 개시의 일 실시 예에 따른 장치를 서버에 등록하는 UI를 설명하기 위한 도면이다. 도 6은 본 개시의 일 실시 예에 따른 서버에 저장되는 장치에 대한 정보를 설명하기 위한 도면이다.
도 3 내지 도 6을 참조하면, 사용자 단말 장치(400)는 네트워크 주소를 통해 서버(100)에 접속할 수 있으며, 사용자(30)는 사용자 단말 장치(400)를 통해 사용자(30)의 계정 정보를 서버(100)에 입력할 수 있다(S310). 이 경우, 서버(100)는 사용자 단말 장치(400)로부터 계정 정보를 수신할 수 있으며, 수신된 계정 정보 및 기저장된 키 정보를 비교하여 인증을 수행할 수 있다(S320). 이를 위해, 서버(100)에는 이전의 계정 등록 단계에서 입력된 사용자(30)의 계정 정보가 키 정보로서 저장되어 있을 수 있다. 계정 정보는 사용자(30)를 타 사용자와 구분하여 식별하기 위한 고유의 식별자(예: 사용자 ID(Identification)) 및 사용자(30)의 정보에 타 사용자의 열람을 제한하기 위해 사용자(30) 본인을 확인하는데 이용되는 암호화 정보(예: 패스워드, 사용자(30)의 지문 정보, 사용자(30)의 홍채 정보, 사용자(30)의 안면 윤곽 정보, 사용자(30)의 정맥 정보 등)를 포함할 수 있다.
그리고, 인증을 수행한 결과 사용자(30) 본인으로 인증(또는 확인)된 경우, 서버(100)는 인증이 완료되었음을 나타내는 정보 또는 메시지를 사용자 단말 장치(400)로 전송할 수 있다(S321). 이 경우, 사용자 단말 장치(400)는 수신된 정보 또는 메시지를 디스플레이에 표시할 수 있다.
예를 들어 도 4의 (1)과 같이, 사용자 단말 장치(400)의 디스플레이에는 제1 UI(User Interface)(410)가 표시될 수 있다. 제1 UI(410)는 사용자(30)의 계정에 등록된 위치(또는 장소) 또는 등록된 장치에 대한 정보가 표시될 수 있는 제1 UI 요소(411) 및 위치(또는 장치)를 사용자(30)의 계정에 등록하기 위한 제2 UI 요소(415)를 포함할 수 있다. 여기서, 현재 등록된 위치 및 등록된 장치가 없는 상태인 경우 도 4의 (1)과 같이 나타날 수 있다.
그리고, 인증을 수행한 결과 사용자(30) 본인으로 인증(또는 확인)된 이후에, 사용자 단말 장치(400)를 통해 사용자(30)의 계정에 위치를 등록(또는 추가)하기 위한 사용자 명령이 입력되면(S330), 사용자 단말 장치(400)는 입력된 사용자 명령을 서버(100)로 전송할 수 있다(S331). 그리고, 서버(100)는 사용자(30)의 계정에 위치를 등록하기 위한 사용자 명령이 사용자 단말 장치(400)로부터 수신되면(S331), 수신된 사용자 명령에 기초하여 사용자(30)의 계정에 위치를 등록하여 메모리(130)에 저장할 수 있다(S340).
예를 들어, 도 4의 (1)과 같이 사용자 단말 장치(400)의 입력 인터페이스를 통해 사용자 단말 장치(400)의 디스플레이에 표시된 제2 UI 요소(415)을 선택하기 위한 사용자 명령(예: 터치 입력 등)이 입력되면, 도 4의 (2)와 같이 사용자 단말 장치(400)는 제2 UI 요소(415)을 선택하기 위한 사용자 명령에 대응되는 제2 UI(420)를 디스플레이에 표시할 수 있다. 제2 UI(420)는 복수의 위치(또는 복수의 장소)에 대한 리스트를 포함할 수 있다. 다만, 이는 일 실시 예일 뿐이며, 사용자(30)가 제2 UI(420)를 통해 위치를 나타내는 텍스트를 입력하거나 수정하는 것 또한 가능하다. 도 4의 (2)와 같이 사용자 단말 장치(400)는 제2 UI(420)를 통해 거실(423)과 같은 특정한 위치를 선택하고, 선택된 위치를 확정하기 위한 제3 UI 요소(425)를 선택하는 사용자 명령이 입력되면, 사용자(30)의 계정에 선택된 위치를 등록(또는 추가)하기 위한 정보를 서버(100)로 전송할 수 있다. 이후, 사용자 단말 장치(400)는 도 4의 (3)과 같이 제3 UI(430)를 표시할 수 있다. 제3 UI(430)는 사용자(30)의 계정에 등록된 위치에 속한 장치에 대한 정보(431)를 포함할 수 있으며, 현재 등록된 거실에 속한 장치가 없는 상태인 경우 도 4의 (3)과 같이 나타날 수 있다.
그리고, 인증을 수행한 결과 사용자(30) 본인으로 인증(또는 확인)된 이후에, 사용자 단말 장치(400)를 통해 외부 장치의 등록을 위한 사용자 명령이 입력되면(S350), 사용자 단말 장치(400)는 입력된 사용자 명령을 서버(100)로 전송할 수 있다(S353).
예를 들어, 사용자 단말 장치(400)의 제3 UI(430)에서 사용자(30)의 계정에 등록된 거실(435)과 같은 위치를 사용자(30)가 선택하는 사용자 명령이 사용자 단말 장치(400)로 입력된 경우, 사용자 단말 장치(400)는 도 5의 (1)와 같은 제4 UI(510)를 디스플레이에 표시할 수 있다. 제4 UI(510)는 등록된 거실(435)에 속한 장치에 대한 정보(511) 및 장치를 등록(또는 추가)하기 위한 UI 요소(515)를 포함할 수 있다. 사용자 단말 장치(400)에서 장치를 등록(또는 추가)하기 위한 UI 요소(515)을 선택하는 사용자 명령이 입력되면, 사용자 단말 장치(400)의 네트워크(예: 와이파이, 블루투스 네트워크 환경 등) 내에서 등록이 가능한 전자 장치 또는 센싱 장치를 검색할 수 있다. 이 경우, 사용자 단말 장치(400)는 다양한 방식의 네트워크 프로토콜을 이용하여 네트워크 내 전자 장치 또는 센싱 장치를 검색하는 신호를 전송할 수 있으며, 이에 대한 응답으로 전자 장치 또는 센싱 장치로부터 장치의 식별 정보를 수신할 수 있다. 그리고, 사용자 단말 장치(400)는 식별 정보가 수신되면, 도 5의 (2)와 같은 제5 UI(520)를 디스플레이에 표시할 수 있다. 여기서, 제5 UI(520)는 수신된 식별 정보에 대응되는 검색된 장치의 리스트를 포함할 수 있다. 사용자 단말 장치(400)에서 검색된 장치 중에서 에어컨(525)과 같은 장치를 선택하기 위한 사용자 명령이 입력되면, 사용자 단말 장치(400)는 입력된 사용자 명령을 서버(100)로 전송할 수 있다.
그리고, 서버(100)는 선택된 장치를 사용자(30)의 계정에 등록하기 위한 사용자 명령이 사용자 단말 장치(400)로부터 수신되면(S353), 장치에 대한 정보의 요청을 선택된 장치로 전송할 수 있다(S355). 이에 대한 응답으로, 선택된 장치는 장치에 대한 정보를 서버(100)로 전송할 수 있다(S357). 여기서, 장치에 대한 정보는 선택된 장치를 식별하기 위한 고유의 식별 정보(예: 이름, 모델, 시리얼 번호, Mac address 등), 획득 가능한 센싱 데이터의 종류 등의 정보를 포함할 수 있다.
그리고, 서버(100)는 선택된 장치로부터 장치에 대한 정보가 수신되면(S357), 수신된 장치에 대한 정보에 기초하여 선택된 장치를 사용자(30)의 계정에 등록하여 메모리에 저장할 수 있다(S360). 이후, 사용자 단말 장치(400)는 도 5의 (3)과 같이 제6 UI(530)를 표시할 수 있다. 제6 UI(530)는 사용자(30)의 계정에 등록된 위치에 속한 장치에 대한 정보(531)를 포함할 수 있으며, 현재 거실에 속한 장치가 에어컨인 경우 제6 UI(530)는 도 5의 (3)과 같이 나타날 수 있다. 그리고, 사용자 단말 장치(400)를 통해 등록된 에어컨의 동작을 제어하는 사용자 명령이 입력되면, 사용자 단말 장치(400)는 에어컨의 동작을 제어하는 사용자 명령을 서버(100)를 통해 에어컨으로 전송할 수 있다. 이러한 방식 등에 따라 에어컨의 동작이 제어될 수 있다. 즉, 서버(100)에 전자 장치 또는 센싱 장치가 등록된 이후부터, 서버(100)는 등록된 전자 장치 또는 등록된 센싱 장치를 제어하는 권한을 가질 수 있다. 예를 들어, 서버(100)는 등록된 전자 장치 또는 등록된 센싱 장치의 전원을 on/off로 변경하거나, 등록된 전자 장치가 특정한 동작을 수행하거나 또는 특정한 동작을 중단하도록 제어하거나, 등록된 센싱 장치로부터 센싱 데이터를 주기적으로 수신할 수 있다.
이상과 같이 서버(100)는 네트워크를 통해 연결된 외부 장치(예: 복수의 전자 장치(200) 및 복수의 센싱 장치(300))를 등록할 수 있으며, 등록된 외부 장치에 대한 정보는 사용자 계정 별로 서버(100)에 저장될 수 있다.
이후, 서버(100)는 등록된 외부 장치로부터 데이터(또는 메시지 등)를 수신하거나 등록된 외부 장치로 데이터(또는 사용자 명령 등)를 전송할 수 있다. 예를 들어, 서버(100)는 등록된 복수의 센싱 장치(300)로부터 센싱 데이터를 주기적으로 수신할 수 있다. 또 다른 예를 들어, 서버(100)는 등록된 외부 장치가 특정한 동작을 수행하도록 제어하는 신호를 등록된 외부 장치로 전송할 수 있다. 구체적으로, 서버(100)는 등록된 복수의 센싱 장치(300) 중 하나의 센싱 장치로부터 수신된 센싱 데이터를 이용하여 동작을 수행하도록 제어하는 신호를 등록된 복수의 전자 장치(200) 중 하나의 전자 장치로 전송할 수 있다.
여기서, 등록된 외부 장치에 대한 정보는 외부 장치를 타 외부 장치와 구분하여 식별하기 위한 고유의 식별 정보(예: 장치 ID, QR(Quick Response) 코드, 바코드 등)를 포함할 수 있다. 또한, 등록된 외부 장치에 대한 정보는 외부 장치가 위치하는 영역에 대한 정보(또는 위치 정보), 외부 장치가 획득 가능한 센싱 데이터에 대한 정보 등을 포함할 수 있다.
예를 들어, 도 6에 도시된 바와 같이 등록된 외부 장치에 대한 정보에는 제1 영역(21)(또는 room 1)에는 온도 센서 1이 위치하는 것을 나타내는 정보, 온도 센서 1이 획득 가능한 센싱 데이터가 온도라는 것을 나타내는 정보 등이 포함될 수 있다. 이와 같은 방식으로 등록된 외부 장치에 대한 정보에는 제1 영역(21)에는 적외선 신호를 센싱 데이터로 획득 가능한 공기 조화 장치가 위치하는 것을 나타내는 정보, 제2 영역(22)에는 온도를 센싱 데이터로 획득 가능한 온도 센서 2가 위치하고, 사용자 음성 및 적외선 신호를 센싱 데이터로 획득 가능한 TV가 위치하는 것을 나타내는 정보 등이 포함될 수 있다.
도 7은 본 개시의 일 실시 예에 따른 사용자 명령을 통해 타겟 전자 장치의 동작의 기반이 되는 센싱 장치를 결정하는 방법을 설명하기 위한 도면이다. 여기서, 사용자(30)의 계정에 전자 장치 1, 센싱 장치 1, 센싱 장치 2가 등록되어 서버(100)에 저장된 상태이고, 센싱 장치 1(예: 온도 센싱 장치 1) 및 센싱 장치 2(예: 온도 센싱 장치 2)는 전자 장치 1(예: 에어컨 1)의 동작 수행에 이용되는 센싱 데이터를 획득할 수 있는 센싱 장치인 것으로 가정하여 설명하도록 한다.
도 7을 참조하면, 서버(100)의 프로세서(120)는 통신 인터페이스(110)를 통해 사용자 단말 장치(400) 또는 전자 장치 1로부터 전자 장치 1을 제어하는 명령을 수신한 경우(S710), 획득가능한 센싱 데이터의 정보에 대한 요청을 복수의 센싱 장치(300)로 전송하도록 통신 인터페이스(110)를 제어할 수 있다. 이때, 전자 장치 1은 타겟 전자 장치라고 지칭하기로 한다.
이에 대한 응답으로, 프로세서(120)는 통신 인터페이스(110)를 통해 복수의 센싱 장치(300)로부터 정보가 수신되면(S711), 수신된 정보에 기초하여 복수의 센싱 장치(300) 중에서 타겟 전자 장치의 동작에 대응되는 센싱 데이터의 획득이 가능한 센싱 장치를 식별할 수 있다(S720). 예를 들어, 복수의 센싱 장치(300) 중에서 에어컨 1의 동작 수행에 이용되는 온도에 대한 센싱 데이터를 획득할 수 있는 센싱 장치 1 및 센싱 장치 2가 식별될 수 있다. 여기서, 수신된 정보에는 센싱 장치의 식별 정보 및 센싱 장치가 획득가능한 센싱 데이터에 대한 정보를 포함할 수 있다. 다만, 이는 일 실시 예일 뿐이며, 센싱 장치의 식별 정보 및 센싱 장치가 획득가능한 센싱 데이터에 대한 정보는 서버(100)에 기저장될 수도 있으며, 이 경우 센싱 장치로부터 정보를 수신하는 동작과 관련된 S711 단계는 생략될 수 있다.
프로세서(120)는 식별된 센싱 장치(예: 센싱 장치 1 및 센싱 장치 2)에 대한 리스트를 사용자 단말 장치(400)로 전송하도록 통신 인터페이스(110)를 제어할 수 있다(S730).
이 경우, 사용자 단말 장치(400)는 서버(100)로부터 수신된 리스트를 디스플레이에 표시할 수 있으며, 리스트 내에서 센싱 장치 2를 선택하기 위한 사용자 명령이 수신된 경우, 선택된 센싱 장치 2에 대한 정보를 서버(100)로 전송할 수 있다(S740). 서버(100)는 수신된 센싱 장치 2에 대한 정보에 기초하여, 타겟 전자 장치가 동작을 수행하도록 제어할 수 있다. 예를 들어, 프로세서(120)는 타겟 전자 장치가 선택된 센싱 장치 2로부터 센싱 데이터를 수신하도록 제어하는 신호를 통신 인터페이스(110)를 통해 타겟 전자 장치 또는 센싱 장치 2로 전송할 수 있다. 타겟 전자 장치 또는 센싱 장치 2는 수신된 신호에 기초하여, 센싱 장치 2에서 획득된 데이터가 타겟 전자 장치로 전송될 수 있다(S745). 다만, 이는 일 실시 예일 뿐이며, 서버(100)가 센싱 장치 2에서 획득된 데이터를 수신하여 타겟 전자 장치로 전송하는 것 또한 가능하다. 그리고, 타겟 전자 장치는 수신된 센싱 데이터에 기초하여 동작을 수행할 수 있다(S750).
도 8a는 본 개시의 일 실시 예에 따른 사용자 명령이 입력된 전자 장치를 이용하여 타겟 전자 장치의 동작의 기반이 되는 센싱 장치를 결정하는 방법을 설명하기 위한 도면이다. 도 8b는 본 개시의 일 실시 예에 따른 사용자 명령이 입력된 센싱 장치를 이용하여 타겟 전자 장치의 동작의 기반이 되는 센싱 장치를 결정하는 방법을 설명하기 위한 도면이다. 여기서, 도 8a는 사용자 명령이 입력된 장치가 전자 장치인 경우를 나타낸 것이며, 도 8b는 사용자 명령이 입력된 장치가 센싱 장치인 경우를 나타낸 것이다.
이하에서는, 사용자(30)의 계정에 복수의 전자 장치(200)로서 전자 장치 1 및 전자 장치 2가 등록되고, 복수의 센싱 장치(300)로서 센싱 장치 1 및 센싱 장치 2가 등록되며, 전자 장치 2는 센싱 장치 2와 동일한 영역에 위치하는 것으로 등록되어, 서버(100)에 저장된 상태인 것으로 가정하기로 한다. 또한, 센싱 장치 1(예: 온도 센싱 장치 1) 및 센싱 장치 2(예: 온도 센싱 장치 2)는 전자 자치 1(예: 에어컨 1)의 동작 수행에 이용되는 센싱 데이터를 획득할 수 있는 센싱 장치인 것으로 가정하여 설명하도록 한다.
도 8a 및 도 8b를 참조하여, 서버(100)의 프로세서(120)는 통신 인터페이스(110)를 통해 사용자 단말 장치(400) 또는 전자 장치 1로부터 전자 장치 1을 제어하는 명령을 수신할 수 있다(S810). 이때, 전자 장치 1은 타겟 전자 장치라고 지칭하기로 한다.
도 8a를 참조하여, 복수의 전자 장치(200) 및 복수의 센싱 장치(300) 중에서 전자 장치 2(예: TV 또는 TV와 연동되는 리모컨 등)로 사용자 명령 또는 사용자 음성이 입력될 수 있다(S811). 전자 장치 2에 사용자 명령 또는 사용자 음성이 입력된 시점은 S810 단계 이전 또는 이후, 동일한 시점일 수 있다. 이 경우, 전자 장치 2는 서버(100)로 사용자 명령에 기초하여 제어된 전자 장치의 상태 정보 또는 사용자 음성에 대한 정보를 전송할 수 있다(S813).
프로세서(120)는 통신 인터페이스(110)를 통해 복수의 전자 장치(200) 중 사용자 명령에 기초하여 제어된 전자 장치로부터 전자 장치의 상태 정보 또는 사용자 음성을 수신한 전자 장치로부터 사용자 음성에 대한 정보가 수신될 수 있다(S813).
이 경우, 프로세서(120)는 복수의 센싱 장치(300) 중 상태 정보를 전송한 전자 장치와 동일한 영역에 위치한 센싱 장치를 사용자(30)의 위치에 대응되는 센싱 장치인 것으로 식별할 수 있다. 한편, 프로세서(120)는 복수의 센싱 장치(300) 중 사용자 음성에 대한 정보를 전송한 전자 장치와 동일한 영역에 위치한 센싱 장치를 사용자(30)의 위치에 대응되는 센싱 장치인 것으로 식별할 수 있다.
구체적으로, 프로세서(120)는 전자 장치의 상태 정보 또는 사용자 음성에 대한 정보에 기초하여, 복수의 전자 장치(200) 및 복수의 센싱 장치(300) 중에서 사용자 명령 또는 사용자 음성이 수신된 장치를 식별할 수 있다(S820). 이 경우, 프로세서(120)는 전자 장치의 상태 정보에 포함된 사용자 명령이 입력된 시간을 비교하여 가장 최근에 사용자 명령이 입력된 장치를 식별할 수 있다. 또 다른 실시 예로서, 프로세서(120)는 전자 장치의 사용자 음성에 대한 정보에 포함된 사용자 음성의 신호 크기를 비교하여 가장 큰 크기를 갖는 사용자 음성이 수신된 장치를 식별할 수 있다. 예를 들어, 도 8a의 경우 사용자 명령이 입력된 전자 장치 2가 식별될 수 있다.
그리고, 프로세서(120)는 식별된 장치가 획득 가능한 센싱 데이터에 대한 정보 및 타겟 전자 장치가 요구하는 센싱 데이터에 대한 정보를 비교하여, 식별된 장치가 타겟 전자 장치의 동작에 이용되는 센싱 데이터를 획득 가능한지 여부를 판단할 수 있다(S830). 식별된 장치가 획득가능한 센싱 데이터에 대한 정보 및 타겟 전자 장치가 요구하는 센싱 데이터에 대한 정보는 서버(100)에 기저장된 정보이거나, 각 장치로부터 수신된 정보일 수 있다. 예를 들어, 도 8a의 경우 식별된 전자 장치 2가 타겟 전자 장치의 동작에 대응되는 센싱 데이터의 획득이 가능하지 않는 것으로 판단될 수 있다.
그리고, 식별된 전자 장치가 타겟 전자 장치의 동작에 대응되는 센싱 데이터의 획득이 가능하지 않는 것으로 판단된 경우(S830, N), 프로세서(120)는 식별된 장치의 위치 정보 및 타겟 전자 장치의 위치 정보를 비교하여, 복수의 센싱 장치(300) 중에서 식별된 장치와 동일한 영역에 위치한 센싱 장치를 사용자의 위치에 대응되는 센싱 장치로 식별할 수 있다(S840). 식별된 장치의 위치 정보 및 타겟 전자 장치의 위치 정보는 서버(100)에 기저장된 정보이거나, 각 장치로부터 수신된 정보일 수 있다. 예를 들어, 도 8a의 경우 식별된 전자 장치 2와 동일한 영역에 위치하는 센싱 장치 2가 사용자의 위치에 대응되는 센싱 장치로 식별될 수 있다.
그리고, 프로세서(120)는 식별된 센싱 장치 2에서 획득되는 센싱 데이터에 기초하여 동작을 수행하도록 제어하기 위한 신호를 타겟 전자 장치로 전송할 수 있다(S841). 이 경우, 식별된 센싱 장치에 대한 정보(예: 식별 정보, 네트워크 정보 등)가 포함될 수 있으며, 타겟 전자 장치는 식별된 센싱 장치에 대한 정보를 통해 센싱 장치 2로부터 센싱 데이터를 수신할 수 있다(S845). 다만, 이는 일 실시 예일 뿐이며, 서버(100)가 센싱 장치 2로부터 센싱 데이터를 수신하여 타겟 전자 장치로 전송할 수도 있다. 그리고, 타겟 전자 장치는 수신된 센싱 데이터에 기초하여 동작을 수행할 수 있다(S860).
한편, 도 8b를 참조하여 복수의 전자 장치(200) 및 복수의 센싱 장치(300) 중에서 센싱 장치 2로 사용자 명령 또는 사용자 음성이 입력될 수 있다(S812). 이 경우, 센싱 장치 2는 온도 센서를 포함하며, 입력 인터페이스 또는 마이크 중 적어도 하나를 더 포함할 수 있다. 센싱 장치 2에 사용자 명령 또는 사용자 음성이 입력된 시점은 S810 단계 이전 또는 이후, 동일한 시점일 수 있다. 이 경우, 센싱 장치 2는 서버(100)로 사용자 명령에 기초하여 제어된 전자 장치의 상태 정보 또는 사용자 음성에 대한 정보를 전송할 수 있다(S814).
프로세서(120)는 수신된 전자 장치의 상태 정보 또는 사용자 음성에 대한 정보에 기초하여, 복수의 전자 장치(200) 및 복수의 센싱 장치(300) 중에서 사용자 명령 또는 사용자 음성이 수신된 장치를 식별할 수 있다(S820). 그리고, 프로세서(120)는 식별된 장치가 획득 가능한 센싱 데이터에 대한 정보 및 타겟 전자 장치가 요구하는 센싱 데이터에 대한 정보를 비교하여, 식별된 장치가 타겟 전자 장치의 동작에 이용되는 센싱 데이터를 획득 가능한지 여부를 판단할 수 있다(S830). 예를 들어, 도 8b의 경우 센싱 장치 2가 식별될 수 있고, 타겟 전자 장치의 동작에 이용되는 센싱 데이터를 획득 가능한 것으로 판단될 수 있다.
여기서, 식별된 전자 장치가 타겟 전자 장치의 동작에 대응되는 센싱 데이터의 획득이 가능한 것으로 판단된 경우(S830, Y), 프로세서(120)는 식별된 장치를 사용자의 위치에 대응되는 센싱 장치로 식별할 수 있다. 예를 들어, 도 8b의 경우 센싱 장치 2가 사용자의 위치에 대응되는 센싱 장치로 식별될 수 있다.
그리고, 프로세서(120)는 식별된 센싱 장치 2에서 획득되는 센싱 데이터에 기초하여 동작을 수행하도록 제어하기 위한 신호를 타겟 전자 장치로 전송할 수 있다(S851). 이 경우, 식별된 센싱 장치에 대한 정보(예: 식별 정보, 네트워크 정보 등)가 포함될 수 있으며, 타겟 전자 장치는 식별된 센싱 장치에 대한 정보를 통해 센싱 장치 2로부터 센싱 데이터를 수신할 수 있다(S855). 다만, 이는 일 실시 예일 뿐이며, 서버(100)가 센싱 장치 2로부터 센싱 데이터를 수신하여 타겟 전자 장치로 전송할 수도 있다. 그리고, 타겟 전자 장치는 수신된 센싱 데이터에 기초하여 동작을 수행할 수 있다(S860).
도 8c 및 도 8d는 본 개시의 일 실시 예에 따른 사용자 명령 및 사용자 음성에 따라 장치를 식별하는 방법을 설명하기 위한 도면이다.
도 8c 및 도 8d를 참조하면, 복수의 전자 장치(200)는 제1 전자 장치(200-1), 제2 전자 장치(200-2), 제3 전자 장치(200-3) 및 제4 전자 장치(200-4)를 포함할 수 있다. 예를 들어, 제1 전자 장치(200-1)는 제1 영역(21)에 배치되어 에어컨으로 구현되고, 제2 전자 장치(200-2)는 제2 영역(22)에 배치되어 TV로 구현되며, 제3 전자 장치(200-3)는 제2 영역(22)에 배치되어 TV를 제어하는 리모컨으로 구현되며, 제4 전자 장치(200-4)는 제3 영역(23)에 배치된 인공지능 스피커로 구현된 것으로 가정하도록 한다.
도 8c와 같이, 사용자(30)는 제2 전자 장치(200-2)와 적외선 통신 등의 통신을 수행하는 제3 전자 장치(200-3)를 통해 제2 전자 장치(200-2)를 원격으로 제어할 수 있다.
여기서, 제3 전자 장치(200-3)가 서버(100)와 네트워크로 연결된 상태에서, 제3 전자 장치(200-3)에 사용자 명령이 입력되면, 제3 전자 장치(200-3)는 서버(100)로 제3 전자 장치(200-3)의 상태 정보를 전송할 수 있다. 서버(100)는 제3 전자 장치(200-3) 및 복수의 센싱 장치(300)의 위치 정보를 이용하여, 상태 정보가 수신된 제3 전자 장치(200-3)와 동일한 영역에 위치하는 제2 센싱 장치(300-2)를 사용자의 위치에 대응되는 센싱 장치로 식별할 수 있다. 한편, 제3 전자 장치(200-3)가 서버(100)와 네트워크로 연결되지 않은 상태에서, 제3 전자 장치(200-3)에 사용자 명령이 입력되면, 제3 전자 장치(200-3)를 통해 제어되는 제2 전자 장치(200-2)는 서버(100)로 제2 전자 장치(200-2)의 상태 정보를 전송할 수 있다. 서버(100)는 제2 전자 장치(200-2) 및 복수의 센싱 장치(300)의 위치 정보를 이용하여, 상태 정보가 수신된 제2 전자 장치(200-3)와 동일한 영역에 위치하는 제2 센싱 장치(300-2)를 사용자의 위치에 대응되는 센싱 장치로 식별할 수 있다.
여기서, 제1 전자 장치(200-1)가 타겟 전자 장치인 경우에는, 서버(100)는 식별된 제2 센싱 장치(300-2)에서 획득되는 센싱 데이터에 기초하여 타겟 전자 장치가 동작을 수행하도록 제어하기 위한 신호를 타겟 전자 장치로 전송할 수 있다. 이 경우, 타겟 전자 장치는 설정 온도(예: 24℃) 및 제2 센싱 장치(300-2)에서 획득된 센싱 데이터(예: 30℃)에 기반하여 냉방 동작을 수행할 수 있다.
도 8d와 같이 사용자(30)가 음성을 발화하는 경우, 복수의 전자 장치(200) 중에서 마이크를 구비한 전자 장치가 사용자 음성을 수신할 수 있다. 예를 들어, 도 8d와 같이 제3 전자 장치(200-3) 및 제4 전자 장치(200-4)가 마이크를 구비한 것으로 가정하면, 제3 전자 장치(200-3) 및 제4 전자 장치(200-4) 중에서 사용자(30)와 가까이 위치한 제3 전자 장치(200-3)에는 사용자 음성의 신호 크기가 큰 상태로 수신될 수 있으며, 사용자(30)와 멀리 위치한 제4 전자 장치(200-4)에는 사용자 음성의 신호 크기가 작은 상태로 수신될 수 있다. 이 경우, 제3 전자 장치(200-3) 및 제4 전자 장치(200-4)는 수신된 사용자 음성에 대한 정보를 서버(100)로 전송할 수 있다. 서버(100)는 제3 전자 장치(200-3) 및 제4 전자 장치(200-4)로부터 수신된 사용자 음성에 대한 정보에 기초하여, 사용자 음성의 신호 크기가 가장 큰 전자 장치인 제3 전자 장치(200-3)와 동일한 영역에 위치하는 제2 센싱 장치(300-2)를 사용자의 위치에 대응되는 센싱 장치로 식별할 수 있다.
여기서, 제1 전자 장치(200-1)가 타겟 전자 장치인 경우에는, 서버(100)는 식별된 제2 센싱 장치(300-2)에서 획득되는 센싱 데이터에 기초하여 타겟 전자 장치가 동작을 수행하도록 제어하기 위한 신호를 타겟 전자 장치로 전송할 수 있다. 이 경우, 타겟 전자 장치는 설정 온도(예: 24℃) 및 제2 센싱 장치(300-2)에서 획득된 센싱 데이터(예: 30℃)에 기반하여 냉방 동작을 수행할 수 있다.
도 9a 내지 9c는 본 개시의 일 실시 예에 따른 신호의 세기를 이용하여 타겟 전자 장치의 동작의 기반이 되는 센싱 장치를 결정하는 방법을 설명하기 위한 도면이다. 여기서, 도 9a는 신호의 세기가 가장 큰 장치가 전자 장치인 경우를 나타낸 것이며, 도 9b는 신호의 세기가 가장 큰 장치가 센싱 장치인 경우를 나타낸 것이다.
도 9a 및 도 9b를 참조하여, 서버(100)의 프로세서(120)는 통신 인터페이스(110)를 통해 사용자 단말 장치(400) 또는 전자 장치 1로부터 전자 장치 1을 제어하는 명령을 수신할 수 있다(S910). 이때, 전자 장치 1은 타겟 전자 장치라고 지칭하기로 한다.
프로세서(120)는 통신 인터페이스(110)를 통해 복수의 전자 장치(200) 및 복수의 센싱 장치(300)와 사용자 단말 장치(400) 간의 통신 신호 세기에 대한 정보를 수신할 수 있다(913). 여기서, 통신 신호 세기에 대한 정보는 사용자 단말 장치(400) 및 전자 장치 1 간의 통신 신호의 세기, 사용자 단말 장치(400) 및 전자 장치 2 간의 통신 신호의 세기, 사용자 단말 장치(400) 및 센싱 장치 1 간의 통신 신호의 세기, 사용자 단말 장치(400) 및 센싱 장치 2 간의 통신 신호의 세기에 대한 정보를 포함할 수 있다. 또한, 통신 신호 세기에 대한 정보는 사용자 단말 장치(400)로부터 수신될 수 있으나, 이는 일 실시 예일 뿐이며 각각의 통신 신호 세기에 대한 정보가 복수의 전자 장치(200) 및 복수의 센싱 장치(300)로부터 수신되는 것 또한 가능하다.
프로세서(120)는 수신된 통신 신호 세기에 대한 정보에 기초하여 가장 큰 통신 신호 세기를 갖는 장치를 식별할 수 있다(S920). 예를 들어, 도 9c와 같이 사용자 단말 장치(400)와 가장 가까운 거리의 제2 전자 장치(200-2)가 가장 큰 통신 신호를 가질 수 있다.
이 경우, 프로세서(120)는 복수의 센싱 장치(300) 중 가장 큰 통신 신호 세기를 갖는 것으로 식별된 장치에 대응되는 센싱 장치를 사용자(30)의 위치에 대응되는 센싱 장치인 것으로 식별할 수 있다.
일 실시 예로서, 도 9a와 같이 서버(100)의 프로세서(120)는 복수의 전자 장치(200) 중 하나가 가장 큰 통신 신호 세기를 갖는 장치로 식별된 경우, 위치 정보에 기초하여 복수의 센싱 장치(300) 중 식별된 전자 장치와 동일한 영역에 위치한 센싱 장치를 사용자(30)의 위치에 대응되는 센싱 장치인 것으로 식별할 수 있다. 다른 실시 예로서, 도 9b와 같이 프로세서(120)는 복수의 센싱 장치(300) 중 하나가 가장 큰 통신 신호 세기를 갖는 장치로 식별된 경우, 식별된 센싱 장치를 사용자(30)의 위치에 대응되는 센싱 장치인 것으로 식별할 수 있다.
구체적으로, 프로세서(120)는 가장 큰 통신 신호 세기를 갖는 것으로 식별된 장치가 획득 가능한 센싱 데이터에 대한 정보 및 타겟 전자 장치가 요구하는 센싱 데이터에 대한 정보를 비교하여, 가장 큰 통신 신호 세기를 갖는 것으로 식별된 장치가 타겟 전자 장치의 동작에 이용되는 센싱 데이터의 획득이 가능한지를 판단할 수 있다(S930). 식별된 장치가 획득가능한 센싱 데이터에 대한 정보 및 타겟 전자 장치가 요구하는 센싱 데이터에 대한 정보는 서버(100)에 기저장된 정보이거나, 각 장치로부터 수신된 정보일 수 있다. 예를 들어, 도 9a의 경우 가장 큰 통신 신호 세기를 갖는 것으로 식별된 전자 장치 2가 타겟 전자 장치의 동작에 대응되는 센싱 데이터의 획득이 가능하지 않는 것으로 판단될 수 있다. 또 다른 예를 들어, 도 9b의 경우 가장 큰 통신 신호 세기를 갖는 것으로 식별된 센싱 장치 2가 타겟 전자 장치의 동작에 대응되는 센싱 데이터의 획득이 가능한 것으로 판단될 수 있다.
일 실시 예로서, 도 9a와 같이 가장 큰 통신 신호 세기를 갖는 것으로 식별된 전자 장치 2가 타겟 전자 장치의 동작에 대응되는 센싱 데이터의 획득이 가능하지 않는 것으로 판단되는 경우(S930, N), 프로세서(120)는 위치 정보에 기초하여 복수의 센싱 장치(300) 중 식별된 전자 장치 2와 동일한 영역에 위치한 센싱 장치 2를 사용자(30)의 위치에 대응되는 센싱 장치인 것으로 식별할 수 있다.
다른 실시 예로서, 도 9b와 같이 가장 큰 통신 신호 세기를 갖는 것으로 식별된 센싱 장치 2가 타겟 전자 장치의 동작에 대응되는 센싱 데이터의 획득이 가능한 것으로 판단되는 경우(S930, Y), 프로세서(120)는 식별된 센싱 장치 2를 사용자(30)의 위치에 대응되는 센싱 장치인 것으로 식별할 수 있다.
이후 프로세서(120)는 식별된 센싱 장치에 대한 정보를 타겟 전자 장치로 전송하고(S941, S951), 타겟 전자 장치는 식별된 센싱 장치 2로부터 센싱 데이터를 수신하여(S945, S955), 수신된 센싱 데이터를 이용하여 동작을 수행할 수 있다(S950, S960). 이는 도 8a 내지 도 8d에서 상술한 내용과 중복된다는 점에서 구체적인 내용은 생략하기로 한다.
도 10은 본 개시의 일 실시 예에 따른 스코어를 이용하여 타겟 전자 장치의 동작의 기반이 되는 센싱 장치를 결정하는 방법을 설명하기 위한 도면이다.
도 10을 참조하여, 서버(100)의 프로세서(120)는 통신 인터페이스(110)를 통해, 복수의 전자 장치(200) 및 복수의 센싱 장치(300)로부터 수신된 통신 신호 세기에 대한 정보, 복수의 전자 장치(200) 중 적어도 하나로부터 수신된 상태 정보 및 사용자 음성에 대한 정보에 기초하여 복수의 센싱 장치(300) 중 사용자(30)의 위치에 대응되는 센싱 장치를 식별할 수 있다.
구체적으로, 서버(100)의 프로세서(120)는 복수의 전자 장치(200) 및 복수의 센싱 장치(300) 각각에 대해, 통신 신호 세기에 대한 정보, 상태 정보 및 사용자 음성에 대한 정보 각각에 대응되는 값에 기설정된 가중치를 적용하여 스코어를 산출할 수 있다.
여기서, 통신 신호 세기에 대한 정보, 상태 정보 및 사용자 음성에 대한 정보 각각에 대응되는 값은 통신 신호 세기에 대한 정보, 상태 정보 및 사용자 음성에 대한 정보 각각을 정량화한 값일 수 있다. 예를 들어, 상태 정보에 대응되는 값은 사용자 명령이 입력되지 않은 경우 0의 값을 가지며, 사용자 명령이 입력된 경우 1의 값을 가질 수 있다. 사용자 음성에 대응되는 값은 최소 0에서 최대 1 사이의 값을 가지며, 사용자 음성의 신호 크기(소리의 크기)가 클수록 높은 값을 가질 수 있다. 통신 신호 세기에 대응되는 값은 최소 0에서 최대 1 사이의 값을 가지며, 통신 신호의 세기가 클수록 높은 값을 가질 수 있다. 다만, 이는 일 실시 예일 뿐이며 이들은 다양한 범위 내의 값을 가질 수 있다. 각 가중치들은 제조사 또는 사용자에 의해 설정되거나 조정될 수 있다.
또한, 스코어는 복수의 전자 장치(200) 및 복수의 센싱 장치(300) 각각에 대해 산출될 수 있다. 예를 들어, 도 10과 같이 전자 장치 1의 스코어(Y 1)는 가중치 1(W 1)에 상태 정보에 대응되는 값(X 11)을 곱한 값, 가중치 2(W 2)에 사용자 음성에 대응되는 값(X 12)을 곱한 값, 가중치 3(W 3)에 통신 신호 세기에 대응되는 값(X 13)을 곱한 값을 합산한 것일 수 있다.
그리고, 서버(100)의 프로세서(120)는 복수의 전자 장치(200) 및 복수의 센싱 장치(300) 중에서 가장 큰 스코어를 갖는 장치를 식별할 수 있다.
일 실시 예로서, 프로세서(120)는 복수의 전자 장치(200) 중 하나의 전자 장치가 가장 큰 스코어를 갖는 장치로 식별된 경우, 위치 정보에 기초하여 복수의 센싱 장치(300) 중 식별된 전자 장치와 동일한 영역에 위치한 센싱 장치를 사용자(30)의 위치에 대응되는 센싱 장치인 것으로 식별할 수 있다.
이와 다른 실시 예로서, 서버(100)의 프로세서(120)는 복수의 센싱 장치(300) 중 하나의 센싱 장치가 가장 큰 스코어를 갖는 장치로 식별된 경우, 식별된 센싱 장치를 사용자(30)의 위치에 대응되는 센싱 장치인 것으로 식별할 수 있다.
도 11은 본 개시의 일 실시 예에 따른 복수의 전자 장치 중 하나의 전자 장치의 구성을 설명하기 위한 블록도이다.
도 11을 참조하면, 제N 전자 장치(200-N)는 통신 인터페이스(210), 구동부(220) 및 프로세서(230)를 포함할 수 있다. 여기서, 제N 전자 장치(200-N)는 복수의 전자 장치(200) 중 하나의 전자 장치일 수 있다. 또한, 추가적으로 제N 전자 장치(200-N)는 통신 인터페이스(210), 구동부(220) 및 프로세서(230) 이외에도 입력 인터페이스(240), 출력 인터페이스(250), 메모리(260), 센서(270) 중에서 적어도 하나를 더 포함할 수 있다. 여기서, 도 2a 및 도 2b에서 설명한 내용이 적용될 수 있다는 점에서, 중복되는 내용은 생략하기로 한다.
구동부(220)는 특정한 서비스 제공을 위한 동작을 수행할 수 있는 구성이다. 예를 들어, 구동부(220)는 냉풍 또는 온풍을 발생시키거나, 제N 전자 장치(200-N)를 이동시키거나, 제N 전자 장치(200-N)를 회전시키거나, 빛을 발생시키는 등의 다양한 동작을 수행할 수 있다. 이를 위해, 구동부(220)는 송풍팬(221), 열교환기(222), 구동 모터(223), 히트 펌프(224) 등과 같은 구성을 포함할 수 있으며, 이는 제N 전자 장치(200-N)이 수행하는 동작 또는 제공되는 서비스에 따라 다양한 구성을 포함하도록 변형될 수 있다.
도 12는 본 개시의 일 실시 예에 따른 복수의 센싱 장치 중 하나의 센싱 장치의 구성을 설명하기 위한 블록도이다.
도 12를 참조하면, 제N 센싱 장치(300-N)는 통신 인터페이스(310), 센서(320) 및 프로세서(330)를 포함할 수 있다. 여기서, 제N 센싱 장치(300-N)는 복수의 센싱 장치(300) 중 하나의 센싱 장치일 수 있다. 또한, 추가적으로 제N 센싱 장치(300-N)는 통신 인터페이스(310), 센서(320) 및 프로세서(330) 이외에도 입력 인터페이스(340), 출력 인터페이스(350), 메모리(360), 구동부(370) 중에서 적어도 하나를 더 포함할 수 있다. 여기서, 도 2a 및 도 2b에서 설명한 내용이 적용될 수 있다는 점에서, 중복되는 내용은 생략하기로 한다.
센서(320)는 주변 환경에 대한 센싱 데이터를 획득할 수 있다. 예를 들어, 온도, 미세먼지의 농도, 습도, 이산화탄소의 농도, 조도 등 다양한 센싱 데이터를 획득할 수 있다. 이를 위해 센서(320)는 온도 센서(321), 미세먼지 센서(322), 습도 센서(323), 가스 센서(324) 등과 같은 구성을 포함할 수 있으며, 이는 제N 센싱 장치(300-N)에서 획득되는 센싱 데이터에 따라 다양한 구성을 포함하도록 변형될 수 있다.
도 13은 본 개시의 일 실시 예에 따른 흐름도를 설명하기 위한 도면이다.
본 개시의 일 실시 예에 따른 서버(100)의 제어 방법은 복수의 전자 장치(200) 및 복수의 센싱 장치(300) 중 적어도 하나로부터 수신된 정보에 기초하여 복수의 센싱 장치(300) 중 사용자(30)의 위치에 대응되는 센싱 장치를 식별하는 단계(S1310) 및 식별된 센싱 장치로부터 수신된 센싱 데이터에 기초하여 복수의 전자 장치(200) 중 타겟 전자 장치를 제어하기 위한 신호를 타겟 전자 장치로 전송하는 단계(S1320)를 포함할 수 있다.
구체적으로, 복수의 전자 장치(200) 및 복수의 센싱 장치(300) 중 적어도 하나로부터 수신된 정보에 기초하여 복수의 센싱 장치(300) 중 사용자(30)의 위치에 대응되는 센싱 장치를 식별할 수 있다(S1310).
여기서, 본 개시의 일 실시 예에 따른 사용자(30)의 위치에 대응되는 센싱 장치는, 복수의 센싱 장치(300) 중 사용자(30)와 가장 근접한 센싱 장치일 수 있다. 즉, 사용자의 위치에 대응되는 센싱 장치를 식별하는 단계는 복수의 센싱 장치(300) 중 사용자(30)의 위치에 대응되는 센싱 장치를 사용자(30)와 가장 근접한 센싱 장치로서 식별할 수 있다.
한편, 본 개시의 일 실시 예에 따른 서버(100)는 특정 장소에서 복수의 전자 장치(200) 및 복수의 센싱 장치(300)가 위치한 영역에 대한 위치 정보를 저장할 수 있다. 이 경우, 센싱 장치를 식별하는 단계는, 복수의 전자 장치(200) 중 적어도 하나로부터 수신된 정보에 기초하여 복수의 전자 장치(200) 중 하나를 식별할 수 있다. 그리고, 위치 정보에 기초하여 복수의 센싱 장치(300) 중 식별된 전자 장치와 동일한 영역에 위치한 센싱 장치를 사용자(30)의 위치에 대응되는 센싱 장치인 것으로 식별할 수 있다.
본 개시의 일 실시 예에 따른 센싱 장치를 식별하는 단계는, 복수의 전자 장치(200) 중 사용자 명령에 기초하여 제어된 전자 장치로부터 전자 장치의 상태 정보가 수신되면, 복수의 센싱 장치(300) 중 상태 정보를 전송한 전자 장치와 동일한 영역에 위치한 센싱 장치를 사용자(30)의 위치에 대응되는 센싱 장치인 것으로 식별하는 것을 포함할 수 있다.
본 개시의 일 실시 예에 따른 센싱 장치를 식별하는 단계는, 복수의 전자 장치(200) 중 사용자 음성을 수신한 전자 장치로부터 사용자 음성에 대한 정보가 수신되면, 복수의 센싱 장치(300) 중 사용자 음성에 대한 정보를 전송한 전자 장치와 동일한 영역에 위치한 센싱 장치를 사용자(30)의 위치에 대응되는 센싱 장치인 것으로 식별하는 것을 포함할 수 있다.
본 개시의 일 실시 예에 따른 센싱 장치를 식별하는 단계는, 복수의 전자 장치(200) 및 복수의 센싱 장치(300)와 사용자 단말 장치(400) 간의 통신 신호 세기에 대한 정보가 수신되면, 수신된 통신 신호 세기에 대한 정보에 기초하여 가장 큰 통신 신호 세기를 갖는 장치를 식별하고, 복수의 센싱 장치(300) 중 식별된 장치에 대응되는 센싱 장치를 사용자(30)의 위치에 대응되는 센싱 장치인 것으로 식별하는 것을 포함할 수 있다.
여기서, 센싱 장치를 식별하는 단계는, 복수의 전자 장치(200) 중 하나가 가장 큰 통신 신호 세기를 갖는 장치로 식별된 경우, 위치 정보에 기초하여 복수의 센싱 장치(300) 중 식별된 전자 장치와 동일한 영역에 위치한 센싱 장치를 사용자(30)의 위치에 대응되는 센싱 장치인 것으로 식별하는 단계 및 복수의 센싱 장치(300) 중 하나가 가장 큰 통신 신호 세기를 갖는 장치로 식별된 경우, 식별된 센싱 장치를 사용자(30)의 위치에 대응되는 센싱 장치인 것으로 식별하는 단계를 포함할 수 있다.
본 개시의 일 실시 예에 따른 센싱 장치를 식별하는 단계는, 복수의 전자 장치(200) 및 복수의 센싱 장치(300)로부터 수신된 통신 신호 세기에 대한 정보, 복수의 전자 장치(200) 중 적어도 하나로부터 수신된 상태 정보 및 사용자 음성에 대한 정보에 기초하여, 복수의 센싱 장치(300) 중 사용자(30)의 위치에 대응되는 센싱 장치를 식별하는 것을 포함할 수 있다.
여기서, 센싱 장치를 식별하는 단계는, 복수의 전자 장치(200) 및 복수의 센싱 장치(300) 각각에 대해, 통신 신호 세기에 대한 정보, 상태 정보 및 사용자 음성에 대한 정보 각각에 대응되는 값에 기설정된 가중치를 적용하여 스코어를 산출할 수 있다. 그리고, 복수의 전자 장치(200) 및 복수의 센싱 장치(300) 중에서 가장 큰 스코어를 갖는 장치를 식별할 수 있다.
일 실시 예로서, 복수의 전자 장치(200) 중 하나가 가장 큰 스코어를 갖는 장치로 식별된 경우, 위치 정보에 기초하여 복수의 센싱 장치(300) 중 식별된 전자 장치와 동일한 영역에 위치한 센싱 장치를 사용자(30)의 위치에 대응되는 센싱 장치인 것으로 식별할 수 있다. 이와 다른 실시 예로서, 복수의 센싱 장치(300) 중 하나가 가장 큰 스코어를 갖는 장치로 식별된 경우, 식별된 센싱 장치를 사용자(30)의 위치에 대응되는 센싱 장치인 것으로 식별하는 단계를 포함할 수 있다.
그리고, 식별된 센싱 장치로부터 수신된 센싱 데이터에 기초하여 복수의 전자 장치(200) 중 타겟 전자 장치를 제어하기 위한 신호를 타겟 전자 장치로 전송할 수 있다(S1320).
본 개시의 일 실시 예에 따른 복수의 센싱 장치(300) 각각은, 각 센싱 장치 주변의 환경을 센싱하여 센싱 데이터를 생성할 수 있다. 이 경우, 전송하는 단계는, 식별된 센싱 장치에서 주변의 환경을 센싱하여 생성한 센싱 데이터를 식별된 센싱 장치로부터 수신하는 단계 및 수신된 센싱 데이터에 기초하여 타겟 전자 장치 주변의 환경을 제어하기 위한 신호를 타겟 전자 장치로 전송하는 단계를 포함할 수 있다.
이상과 같은 본 개시의 다양한 실시 예에 따르면, 사용자(30)의 환경에 보다 가까운 환경에 대한 센싱 데이터를 활용하여 타겟 전자 장치의 동작을 제어하는 서버 및 그의 제어 방법을 제공할 수 있다. 이에 따라, 서비스에 대한 사용자(30)의 만족도가 향상될 수 있으며, 또한 사용자(30)의 불편을 해소할 수 있다.
또한, 본 개시의 다양한 실시 예에 따르면, 사용자(30)의 위치를 정확하게 감지하지 않고서도 사용자(30)의 환경으로 추정되는 환경을 감지할 수 있다. 이에 따라, 사용자(30)의 위치를 감지하는 별도의 하드웨어 및 소프트웨어를 구비한 센서 장치가 필요하지 않다는 점에서 경제적이며, 나아가 사용자(30)의 프라이버시 또한 보호할 수 있다.
본 개시의 다양한 실시 예들은 기기(machine)(예: 컴퓨터)로 읽을 수 있는 저장 매체(machine-readable storage media에 저장된 명령어를 포함하는 소프트웨어로 구현될 수 있다. 기기는 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 동작이 가능한 장치로서, 개시된 실시 예들에 따른 전자 장치(예: 전자 장치(100))를 포함할 수 있다. 상기 명령이 프로세서에 의해 실행될 경우, 프로세서가 직접, 또는 상기 프로세서의 제어 하에 다른 구성요소들을 이용하여 상기 명령에 상기하는 기능을 수행할 수 있다. 명령은 컴파일러 또는 인터프리터에 의해 생성 또는 실행되는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체가 신호(signal)를 포함하지 않으며 실재(tangible)한다는 것을 의미할 뿐 데이터가 저장매체에 반영구적 또는 임시적으로 저장됨을 구분하지 않는다.
다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 온라인으로 배포될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시 예들에 따른 구성 요소(예: 모듈 또는 프로그램) 각각은 단수 또는 복수의 개체로 구성될 수 있으며, 전술한 상기 서브 구성 요소들 중 일부 서브 구성 요소가 생략되거나, 또는 다른 서브 구성 요소가 다양한 실시 예에 더 포함될 수 있다. 대체적으로 또는 추가적으로, 일부 구성 요소들(예: 모듈 또는 프로그램)은 하나의 개체로 통합되어, 통합되기 이전의 각각의 상기 구성 요소에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따른, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.

Claims (15)

  1. 서버에 있어서,
    복수의 전자 장치 및 복수의 센싱 장치와 통신을 수행하기 위한 통신 인터페이스; 및
    상기 통신 인터페이스를 통해 상기 복수의 전자 장치 및 상기 복수의 센싱 장치 중 적어도 하나로부터 수신된 정보에 기초하여 상기 복수의 센싱 장치 중 사용자의 위치에 대응되는 센싱 장치를 식별하고,
    상기 식별된 센싱 장치로부터 수신된 센싱 데이터에 기초하여 상기 복수의 전자 장치 중 타겟 전자 장치를 제어하기 위한 신호를 상기 타겟 전자 장치로 전송하도록 상기 통신 인터페이스를 제어하는 프로세서;를 포함하는 서버.
  2. 제1항에 있어서,
    상기 복수의 센싱 장치 각각은, 각 센싱 장치 주변의 환경을 센싱하여 센싱 데이터를 생성하고,
    상기 프로세서는,
    상기 식별된 센싱 장치에서 주변의 환경을 센싱하여 생성한 센싱 데이터를 상기 식별된 센싱 장치로부터 수신하고, 상기 수신된 센싱 데이터에 기초하여 상기 타겟 전자 장치 주변의 환경을 제어하기 위한 상기 신호를 상기 타겟 전자 장치로 전송하도록 상기 통신 인터페이스를 제어하는 서버.
  3. 제1항에 있어서,
    상기 프로세서는,
    상기 복수의 전자 장치 및 상기 복수의 센싱 장치 중 적어도 하나로부터 수신된 정보에 기초하여 상기 복수의 센싱 장치 중 상기 사용자의 위치에 대응되는 센싱 장치를 상기 사용자와 가장 근접한 센싱 장치로서 식별하는 것을 특징으로 하는, 서버.
  4. 제1항에 있어서,
    특정 장소에서 상기 복수의 전자 장치 및 상기 복수의 센싱 장치가 위치한 영역에 대한 위치 정보가 저장된 메모리;를 더 포함하고,
    상기 프로세서는,
    상기 통신 인터페이스를 통해 상기 복수의 전자 장치 중 적어도 하나로부터 수신된 정보에 기초하여 상기 복수의 전자 장치 중 하나를 식별하고, 상기 위치 정보에 기초하여 상기 복수의 센싱 장치 중 상기 식별된 전자 장치와 동일한 영역에 위치한 센싱 장치를 상기 사용자의 위치에 대응되는 센싱 장치인 것으로 식별하는 서버.
  5. 제4항에 있어서,
    상기 프로세서는,
    상기 통신 인터페이스를 통해 상기 복수의 전자 장치 중 사용자 명령에 기초하여 제어된 전자 장치로부터 상기 전자 장치의 상태 정보가 수신되면, 상기 복수의 센싱 장치 중 상기 상태 정보를 전송한 전자 장치와 동일한 영역에 위치한 센싱 장치를 상기 사용자의 위치에 대응되는 센싱 장치인 것으로 식별하는 서버.
  6. 제4항에 있어서,
    상기 프로세서는,
    상기 통신 인터페이스를 통해 상기 복수의 전자 장치 중 사용자 음성을 수신한 전자 장치로부터 사용자 음성에 대한 정보가 수신되면, 상기 복수의 센싱 장치 중 상기 사용자 음성에 대한 정보를 전송한 전자 장치와 동일한 영역에 위치한 센싱 장치를 상기 사용자의 위치에 대응되는 센싱 장치인 것으로 식별하는 서버.
  7. 제4항에 있어서,
    상기 프로세서는,
    상기 통신 인터페이스를 통해 상기 복수의 전자 장치 및 상기 복수의 센싱 장치와 사용자 단말 장치 간의 통신 신호 세기에 대한 정보가 수신되면, 상기 수신된 통신 신호 세기에 대한 정보에 기초하여 가장 큰 통신 신호 세기를 갖는 장치를 식별하고, 상기 복수의 센싱 장치 중 상기 식별된 장치에 대응되는 센싱 장치를 상기 사용자의 위치에 대응되는 센싱 장치인 것으로 식별하는 서버.
  8. 제7항에 있어서,
    상기 프로세서는,
    상기 복수의 전자 장치 중 하나가 가장 큰 통신 신호 세기를 갖는 장치로 식별된 경우, 상기 위치 정보에 기초하여 상기 복수의 센싱 장치 중 상기 식별된 전자 장치와 동일한 영역에 위치한 센싱 장치를 상기 사용자의 위치에 대응되는 센싱 장치인 것으로 식별하고,
    상기 복수의 센싱 장치 중 하나가 가장 큰 통신 신호 세기를 갖는 장치로 식별된 경우, 상기 식별된 센싱 장치를 상기 사용자의 위치에 대응되는 센싱 장치인 것으로 식별하는 서버.
  9. 제4항에 있어서,
    상기 프로세서는,
    상기 통신 인터페이스를 통해, 상기 복수의 전자 장치 및 상기 복수의 센싱 장치로부터 수신된 통신 신호 세기에 대한 정보, 상기 복수의 전자 장치 중 적어도 하나로부터 수신된 상태 정보 및 사용자 음성에 대한 정보에 기초하여 상기 복수의 센싱 장치 중 상기 사용자의 위치에 대응되는 상기 센싱 장치를 식별하는 서버.
  10. 제9항에 있어서,
    상기 프로세서는,
    상기 복수의 전자 장치 및 상기 복수의 센싱 장치 각각에 대해, 상기 통신 신호 세기에 대한 정보, 상기 상태 정보 및 상기 사용자 음성에 대한 정보 각각에 대응되는 값에 기설정된 가중치를 적용하여 스코어를 산출하고,
    상기 복수의 전자 장치 및 상기 복수의 센싱 장치 중에서 가장 큰 스코어를 갖는 장치를 식별하며,
    상기 복수의 전자 장치 중 하나가 가장 큰 스코어를 갖는 장치로 식별된 경우, 상기 위치 정보에 기초하여 상기 복수의 센싱 장치 중 상기 식별된 전자 장치와 동일한 영역에 위치한 센싱 장치를 상기 사용자의 위치에 대응되는 센싱 장치인 것으로 식별하고,
    상기 복수의 센싱 장치 중 하나가 가장 큰 스코어를 갖는 장치로 식별된 경우, 상기 식별된 센싱 장치를 상기 사용자의 위치에 대응되는 센싱 장치인 것으로 식별하는 서버.
  11. 서버의 제어 방법에 있어서,
    복수의 전자 장치 및 복수의 센싱 장치 중 적어도 하나로부터 수신된 정보에 기초하여 상기 복수의 센싱 장치 중 사용자의 위치에 대응되는 센싱 장치를 식별하는 단계; 및
    상기 식별된 센싱 장치로부터 수신된 센싱 데이터에 기초하여 상기 복수의 전자 장치 중 타겟 전자 장치를 제어하기 위한 신호를 상기 타겟 전자 장치로 전송하는 단계;를 포함하는 제어 방법.
  12. 제11항에 있어서,
    상기 복수의 센싱 장치 각각은, 각 센싱 장치 주변의 환경을 센싱하여 센싱 데이터를 생성하고,
    상기 전송하는 단계는,
    상기 식별된 센싱 장치에서 주변의 환경을 센싱하여 생성한 센싱 데이터를 상기 식별된 센싱 장치로부터 수신하는 단계; 및
    상기 수신된 센싱 데이터에 기초하여 상기 타겟 전자 장치 주변의 환경을 제어하기 위한 상기 신호를 상기 타겟 전자 장치로 전송하는 단계;를 포함하는 제어 방법.
  13. 제11항에 있어서,
    상기 센싱 장치를 식별하는 단계는,
    상기 복수의 전자 장치 및 상기 복수의 센싱 장치 중 적어도 하나로부터 수신된 정보에 기초하여 상기 복수의 센싱 장치 중 상기 사용자의 위치에 대응되는 센싱 장치를 상기 사용자와 가장 근접한 센싱 장치로서 식별하는 것을 특징으로 하는, 제어 방법.
  14. 제11항에 있어서,
    상기 서버는, 특정 장소에서 상기 복수의 전자 장치 및 상기 복수의 센싱 장치가 위치한 영역에 대한 위치 정보를 저장하며,
    상기 센싱 장치를 식별하는 단계는,
    상기 복수의 전자 장치 중 적어도 하나로부터 수신된 정보에 기초하여 상기 복수의 전자 장치 중 하나를 식별하는 단계; 및
    상기 위치 정보에 기초하여 상기 복수의 센싱 장치 중 상기 식별된 전자 장치와 동일한 영역에 위치한 센싱 장치를 상기 사용자의 위치에 대응되는 센싱 장치인 것으로 식별하는 단계;를 포함하는 제어 방법.
  15. 제14항에 있어서,
    상기 센싱 장치를 식별하는 단계는,
    상기 복수의 전자 장치 중 사용자 명령에 기초하여 제어된 전자 장치로부터 상기 전자 장치의 상태 정보가 수신되면, 상기 복수의 센싱 장치 중 상기 상태 정보를 전송한 전자 장치와 동일한 영역에 위치한 센싱 장치를 상기 사용자의 위치에 대응되는 센싱 장치인 것으로 식별하는 것을 포함하는 제어 방법.
PCT/KR2021/004354 2020-05-27 2021-04-07 서버 및 그의 제어 방법 WO2021241879A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP21814195.0A EP4131860A4 (en) 2020-05-27 2021-04-07 SERVER AND CONTROL METHOD THEREOF
CN202180038309.8A CN115668870A (zh) 2020-05-27 2021-04-07 服务器及其控制方法
US17/969,211 US20230045302A1 (en) 2020-05-27 2022-10-19 Server and control method therefor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200063921A KR20210146737A (ko) 2020-05-27 2020-05-27 서버 및 그의 제어 방법
KR10-2020-0063921 2020-05-27

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/969,211 Continuation US20230045302A1 (en) 2020-05-27 2022-10-19 Server and control method therefor

Publications (1)

Publication Number Publication Date
WO2021241879A1 true WO2021241879A1 (ko) 2021-12-02

Family

ID=78744858

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/004354 WO2021241879A1 (ko) 2020-05-27 2021-04-07 서버 및 그의 제어 방법

Country Status (5)

Country Link
US (1) US20230045302A1 (ko)
EP (1) EP4131860A4 (ko)
KR (1) KR20210146737A (ko)
CN (1) CN115668870A (ko)
WO (1) WO2021241879A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101624360B1 (ko) * 2009-12-28 2016-05-27 중앙대학교 산학협력단 센서를 이용한 실내 환경 자동 제어 시스템
KR20170088649A (ko) * 2016-01-25 2017-08-02 삼성전자주식회사 위치 정보에 기초하여 공기 상태를 제어하는 전자 장치와 이의 동작 방법
KR20190034384A (ko) * 2017-09-22 2019-04-02 주식회사 잉카솔루션 인체와 소리를 감지하여 대기전력을 제어하는 콘센트형 자동절전 제어장치
US20190104595A1 (en) * 2017-10-04 2019-04-04 Resilience Magnum IP, LLC Information and hub lights
US20200106835A1 (en) * 2018-09-28 2020-04-02 International Business Machines Corporation Using visual recognition and micro-location data to trigger internet of things sensor events

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150163411A1 (en) * 2013-12-11 2015-06-11 Echostar Technologies, Llc Home Monitoring and Control
US10636078B2 (en) * 2014-06-04 2020-04-28 Capital One Services, Llc Methods, system, and computer-readable medium for location sensing in a store
US10482759B2 (en) * 2015-05-13 2019-11-19 Tyco Safety Products Canada Ltd. Identified presence detection in and around premises
CN105182815A (zh) * 2015-08-11 2015-12-23 小米科技有限责任公司 设备控制方法及装置
KR101925034B1 (ko) * 2017-03-28 2018-12-04 엘지전자 주식회사 스마트 컨트롤링 디바이스 및 그 제어 방법
US20180323996A1 (en) * 2017-05-08 2018-11-08 Essential Products, Inc. Automatic generation of scenes using an assistant device
KR102338376B1 (ko) * 2017-09-13 2021-12-13 삼성전자주식회사 디바이스 그룹을 지정하기 위한 전자 장치 및 이의 제어 방법
KR102533443B1 (ko) * 2018-05-04 2023-05-17 삼성전자 주식회사 콘텐츠 제공 방법 및 이를 사용하는 전자 장치
WO2021225601A1 (en) * 2020-05-08 2021-11-11 Google Llc User proximity sensing for automatic cross-device content transfer

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101624360B1 (ko) * 2009-12-28 2016-05-27 중앙대학교 산학협력단 센서를 이용한 실내 환경 자동 제어 시스템
KR20170088649A (ko) * 2016-01-25 2017-08-02 삼성전자주식회사 위치 정보에 기초하여 공기 상태를 제어하는 전자 장치와 이의 동작 방법
KR20190034384A (ko) * 2017-09-22 2019-04-02 주식회사 잉카솔루션 인체와 소리를 감지하여 대기전력을 제어하는 콘센트형 자동절전 제어장치
US20190104595A1 (en) * 2017-10-04 2019-04-04 Resilience Magnum IP, LLC Information and hub lights
US20200106835A1 (en) * 2018-09-28 2020-04-02 International Business Machines Corporation Using visual recognition and micro-location data to trigger internet of things sensor events

Also Published As

Publication number Publication date
CN115668870A (zh) 2023-01-31
EP4131860A1 (en) 2023-02-08
KR20210146737A (ko) 2021-12-06
US20230045302A1 (en) 2023-02-09
EP4131860A4 (en) 2023-09-13

Similar Documents

Publication Publication Date Title
WO2017179820A1 (en) Authentication method and electronic device using the same
WO2019160265A1 (en) Electronic apparatus, controlling method of electronic apparatus and server
WO2018182351A1 (en) Method for providing information and electronic device supporting the same
WO2016175452A1 (en) Fingerprint information processing method and electronic device supporting the same
WO2015167160A1 (en) Command displaying method and command displaying device
WO2016080774A1 (en) Method of sharing contents and electronic device thereof
WO2017119631A1 (ko) 잠금 장치 제어를 위한 방법 및 그 전자 장치
WO2018009029A1 (en) Electronic device and operating method thereof
WO2017095082A1 (ko) 오디오 제공 방법 및 그 장치
WO2016144059A1 (ko) 무전원 센서를 구동하는 전자 장치 및 그 제어 방법
WO2016137294A1 (en) Electronic device and control method thereof
WO2016175602A1 (en) Electronic device for providing short-cut user interface and method therefor
WO2016006734A1 (ko) 생체정보를 인식하는 방법 및 장치
WO2020040517A1 (en) Electronic apparatus and control method thereof
WO2018236150A1 (en) ELECTRONIC CONTENT READING DEVICE AND METHOD OF OPERATION
WO2018038419A1 (en) Method for recognizing location and electronic device implementing the same
WO2018048130A1 (ko) 컨텐츠 재생 방법 및 이를 지원하는 전자 장치
WO2017052216A1 (en) Method for providing events corresponding to touch attributes and electronic device thereof
WO2018164445A1 (en) Electronic device and method for controlling application thereof
WO2018066889A1 (ko) 거래 이력 기반의 서비스 제공 방법 및 그 전자 장치
WO2019225927A1 (ko) 전자 장치 및 외부 전자 장치를 제어하는 방법
WO2017078283A1 (ko) 사용자의 위치를 결정하는 전자 장치 및 그 제어 방법
WO2017010710A1 (en) Method for sharing content information and electronic device thereof
WO2020209618A1 (en) Electronic device and method for providing information for stress relief by same
WO2022124752A1 (ko) 전자 장치 및 전자 장치의 제어 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21814195

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021814195

Country of ref document: EP

Effective date: 20221031

NENP Non-entry into the national phase

Ref country code: DE