WO2018128317A1 - Refrigerator and information display method thereof - Google Patents

Refrigerator and information display method thereof Download PDF

Info

Publication number
WO2018128317A1
WO2018128317A1 PCT/KR2017/015548 KR2017015548W WO2018128317A1 WO 2018128317 A1 WO2018128317 A1 WO 2018128317A1 KR 2017015548 W KR2017015548 W KR 2017015548W WO 2018128317 A1 WO2018128317 A1 WO 2018128317A1
Authority
WO
WIPO (PCT)
Prior art keywords
voice
food
display
refrigerator
user
Prior art date
Application number
PCT/KR2017/015548
Other languages
French (fr)
Korean (ko)
Inventor
천은진
도영수
이형진
조남국
황도형
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020170179174A external-priority patent/KR102412202B1/en
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US16/476,008 priority Critical patent/US11521606B2/en
Priority to CN201780082150.3A priority patent/CN110168298B/en
Priority to EP17890733.3A priority patent/EP3546869A4/en
Publication of WO2018128317A1 publication Critical patent/WO2018128317A1/en

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F25REFRIGERATION OR COOLING; COMBINED HEATING AND REFRIGERATION SYSTEMS; HEAT PUMP SYSTEMS; MANUFACTURE OR STORAGE OF ICE; LIQUEFACTION SOLIDIFICATION OF GASES
    • F25DREFRIGERATORS; COLD ROOMS; ICE-BOXES; COOLING OR FREEZING APPARATUS NOT OTHERWISE PROVIDED FOR
    • F25D29/00Arrangement or mounting of control or safety devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Definitions

  • the disclosed invention relates to a refrigerator and a method of displaying information of a refrigerator, and more particularly, to a refrigerator and a method of displaying information of a refrigerator that can communicate with an external device.
  • the present disclosure relates to an artificial intelligence (AI) system and its application for simulating functions such as recognition and judgment of the human brain using a machine learning algorithm.
  • AI artificial intelligence
  • a refrigerator includes a display for displaying a temperature of a storage compartment and an operation mode of the refrigerator.
  • Such a display not only enables a user to easily acquire image information using a graphical user interface, but also allows a user to intuitively input a control command using a touch panel.
  • the recent display performs not only an information display function but also an information input function.
  • recent refrigerators include a communication module for connecting to an external device (eg, a server connected to the Internet).
  • an external device eg, a server connected to the Internet.
  • the refrigerator may access the Internet through a communication module, obtain various information from various servers connected to the Internet, and provide various services based on the obtained information.
  • the refrigerator may provide not only information related to food such as food information and recipe of food through the Internet, but also various services such as internet shopping.
  • the refrigerator provides more various services to the user through the display and the communication module.
  • an artificial intelligence system is a computer system that implements human-level intelligence.
  • an artificial intelligence system is a machine that learns, judges, and becomes smart. The more artificial intelligence systems are used, the better the recognition rate and the more accurate the user's taste will be. Therefore, the existing rule-based smart system is gradually being replaced by artificial intelligence system based on deep learning.
  • Machine learning is an algorithmic technique for classifying and learning features of input data.
  • Element technology is a technology using a machine learning algorithm, and may be composed of technical fields such as linguistic understanding, visual understanding, inference / prediction, knowledge representation, and motion control.
  • Linguistic understanding is a technique for recognizing and applying / processing human language / characters, including natural language processing, machine translation, dialogue system, question and answer, speech recognition / synthesis, and the like.
  • Visual understanding is a technology that recognizes and processes objects as human vision, and includes object recognition, object tracking, image retrieval, person recognition, scene understanding, spatial understanding, and image enhancement.
  • Inference / prediction is a technique for determining, logically inferring, and predicting information. It includes knowledge / probability-based inference, optimization prediction, preference-based planning, and recommendation.
  • Knowledge representation is a technology that automates human experience information into knowledge data, and includes knowledge construction (data generation / classification) and knowledge management (data utilization).
  • Motion control is a technology for controlling autonomous driving of a vehicle, movement of a robot, and the like, and includes motion control (navigation, collision, driving), operation control (action control), and the like.
  • One aspect of the disclosed invention provides a refrigerator capable of receiving a command through voice using voice recognition technology and outputting content in voice.
  • One aspect of the disclosed invention provides a refrigerator capable of providing internet shopping by command via voice.
  • One aspect of the disclosed invention provides a refrigerator capable of identifying a plurality of users and providing content suitable for the identified user.
  • a refrigerator may include a microphone; A display for displaying information according to a voice input through the microphone; And when a first voice including a food name is recognized, a list including food information having a name corresponding to the food name and a label for identifying the food, on the display, and displaying at least one of the labels. And a controller for displaying food information indicated by a label included in the second voice on the display when the second voice to be referred to is recognized.
  • the controller may display the list in the form of a card type user interface on the user interface of the application displayed on the display.
  • the controller may execute an application for providing food information indicated by a label included in the second voice and display the food information provided by the application on a display.
  • the controller may further include a communication unit, and when the first voice is recognized, the controller transmits the first voice data to the server through the communication unit, and transmits information about the list transmitted from the server in the communication unit. Upon receipt, the list can be displayed on the display.
  • the controller may further include a communication unit.
  • the controller transmits the data of the second voice to the server through the communication unit, and receives the food information transmitted from the server in the communication unit.
  • the food information may be displayed on the display.
  • the controller may further include a communication unit, and when the first voice is recognized, the controller transmits the first voice data to the server through the communication unit, and analyzes the analysis information on the first voice transmitted from the server.
  • an instruction according to the analysis information may be transmitted to an application related to performing a task according to the analysis information, so that the application may display the list.
  • the controller may further include a communication unit, and when the second voice is recognized, the controller transmits the data of the second voice to the server through the communication unit, and analyzes the analysis information on the second voice transmitted from the server.
  • an instruction according to the analysis information may be transmitted to an application related to performing work according to the analysis information, so that the application may display the food information.
  • a voice indicating that the list is displayed is output.
  • the food information is displayed. It may further include a speaker for outputting a voice indicating.
  • a refrigerator may include a microphone; A display for displaying information according to a voice input through the microphone; A speaker for outputting voice; And when a voice is input through the microphone, performs a command indicated by the input voice for the application displayed on the display, and if the command indicated by the input voice cannot be performed for the application, to the applications related to the command. And a controller for performing the command with respect to another application according to a predetermined priority.
  • the controller may output a voice indicating that the command cannot be performed to the application through the speaker.
  • the controller may output a voice requesting confirmation of whether to execute the command with respect to another application through a speaker.
  • the controller may execute a command indicated by the voice for an application indicated by the input answer.
  • the controller determines an application to execute the command according to a predetermined priority for applications related to the command, and determines the application to the determined application.
  • the command can be performed for
  • the controller may perform a command indicated by the input voice for an application displayed on the display if the object inputted by the microphone does not include a target to perform the command indicated by the voice.
  • a refrigerator may include a microphone; A display for displaying information according to a voice input through the microphone; A speaker for outputting voice; And when a voice is input through a microphone, when user identification is required in performing a command indicated by the voice, displaying a user registered in advance on the display and outputting a voice through the speaker requesting to select from the displayed users. Controller;
  • the controller may perform a command indicated by the voice in relation to the selected user, and display the result on the display.
  • the controller may display a user mark which is identified in advance on the display and each user.
  • the controller may perform a command indicated by the voice in relation to the user indicated by the mark and display the result on the display.
  • the controller when a voice is input through a microphone, when the voice includes a representation representing a user, the controller performs a command indicated by the voice in relation to a user included in the voice and displays the result on the display. can do.
  • the controller may perform a command indicated by the voice in relation to a user represented by voice data matching the input voice among prestored voice data and display the result on the display.
  • An aspect of the disclosed invention can provide a refrigerator capable of receiving a command through voice using voice recognition technology and outputting content in voice.
  • One aspect of the disclosed invention may provide a refrigerator capable of providing internet shopping with a command via voice.
  • One aspect of the disclosed invention may provide a refrigerator capable of identifying a plurality of users and providing content suitable for the identified user.
  • a refrigerator includes a storage compartment for storing food; A temperature sensor for sensing a temperature inside the storage compartment; Cooling unit for supplying cold air to the storage compartment; A display for displaying information; A microphone for receiving a voice; A display for displaying information; At least one processor electrically connected to the temperature sensing unit, the microphone, and the display; And a memory electrically connected to the at least one processor.
  • the memory may include a food list including food information corresponding to the food name and an identification mark for identifying the food information, when the processor recognizes the first voice including the food name through the microphone. If the second voice indicating the identification mark is recognized on the display and the microphone is recognized, the at least one instruction set to display purchase information of at least one food item corresponding to the identification mark is stored on the display. .
  • the memory acquires the food name by recognizing the first voice using a learning network model trained according to an artificial intelligence algorithm. And at least one instruction set to display the food list including the food information corresponding to the food name on the display.
  • the learning network model may be trained using a plurality of voices and a plurality of words corresponding to each of the plurality of voices.
  • the memory may be configured to recognize the food name and the food by recognizing the first voice using a learning network model trained according to an artificial intelligence algorithm when the first voice including the food name is input through the microphone.
  • Obtain at least one instruction configured to acquire user information uttering a first voice and display the food list corresponding to the food name on the display, the food list including the food information related to the user information.
  • the learning network model may be trained using a plurality of voices and user information corresponding to each of the plurality of voices.
  • the processor identifies whether the food associated with the food name in the storage compartment exists in the storage compartment, and if the food is present in the storage compartment, the food is the At least one instruction set to display on the display information indicating what is present in the storage compartment may be stored.
  • the memory may be further configured to identify whether or not a food associated with the food name exists in the storage compartment when the processor recognizes the first voice, and if the food does not exist in the storage compartment, the processor identifies the food name.
  • At least one instruction set to display the food list including the corresponding food information on the display may be stored.
  • the memory may store at least one instruction configured to display the food list on a user interface of an application displayed on the display in a form of a card type user interface when the first voice is recognized. Can be.
  • the memory may be configured such that, when the second voice is recognized, the processor executes an application for providing food information indicated by a label included in the second voice to display food information provided by the application on a display. At least one instruction may be stored.
  • the memory device may further include a communication unit, wherein the processor transmits data of the first voice to a server through the communication unit when the first voice is recognized, and is transmitted from the server in the communication unit.
  • the processor transmits data of the first voice to a server through the communication unit when the first voice is recognized, and is transmitted from the server in the communication unit.
  • the apparatus may further include a communication unit, wherein the memory transmits the data of the second voice to the server through the communication unit when the second voice is recognized, and is transmitted from the server in the communication unit.
  • the memory transmits the data of the second voice to the server through the communication unit when the second voice is recognized, and is transmitted from the server in the communication unit.
  • at least one instruction set to display the food information on the display may be stored.
  • the apparatus may further include a communication unit, and, when the processor recognizes the first voice, the memory transmits the first voice data to the server through the communication unit, and transmits the first voice to the server.
  • the communication information is received by the communication unit, an instruction according to the analysis information is transmitted to an application related to performing the work according to the analysis information, and the application may store at least one instruction set to display the food list. .
  • the apparatus may further include a communication unit, and, when the processor recognizes the second voice, transmits data of the second voice to the server through the communication unit, and transmits the second voice to the server.
  • the application may store at least one instruction set to display the food information. .
  • the apparatus may further include a speaker, wherein the memory outputs a voice indicating that the list is displayed through the speaker when the processor recognizes the first voice and displays the food list on the display.
  • the processor recognizes the first voice and displays the food list on the display.
  • at least one instruction set to output a voice indicating that the food information is displayed through the speaker may be stored.
  • a refrigerator includes a storage compartment for storing food; A temperature sensor for sensing a temperature inside the storage compartment; Cooling unit for supplying cold air to the storage compartment; A microphone for receiving a voice; A display for displaying information; At least one processor electrically connected to the temperature sensing unit, the microphone, and the display; And a memory electrically connected to the at least one processor.
  • the memory when the voice is input through the microphone, the memory performs a command indicated by the input voice for the application displayed on the display, and performs a command indicated by the input voice for the application. If not, store at least one instruction set to execute the command for another application according to a predetermined priority for the applications associated with the command.
  • the apparatus may further include a speaker, wherein the memory is further configured to generate a voice indicating that the processor cannot perform the command for the application if the processor cannot perform a command indicated by the input voice for the application. At least one instruction set to be output through the speaker may be stored.
  • the apparatus may further include a speaker, wherein the memory is configured to output, through the speaker, a voice requesting confirmation whether the processor performs the command for another application when the processor does not have the priority. You can store one instruction.
  • the memory may store at least one instruction set by the processor to execute a command indicated by the voice to an application indicated by the input response when the controller receives an answer to the confirmation request.
  • the memory determines the application to perform the command according to a predetermined priority for the applications associated with the command and At least one instruction configured to execute the command with respect to the determined application may be stored.
  • the memory may be configured to cause the processor to perform a command indicated by the input voice for an application displayed on the display, when the voice input through the microphone does not include a target to perform the command indicated by the voice.
  • At least one set instruction may be stored.
  • a refrigerator includes a storage compartment for storing food; A temperature sensor for sensing a temperature inside the storage compartment; Cooling unit for supplying cold air to the storage compartment; A microphone for receiving a voice; A display for displaying information; A speaker for outputting voice; And at least one processor electrically connected to the temperature sensing unit, the microphone, the speaker, and the display. And a memory electrically connected to the at least one processor.
  • the memory is configured to display a user registered in advance on the display and select from among the displayed users, when user identification is required to perform a command indicated by the voice.
  • Store at least one instruction configured to output the desired voice through the speaker.
  • the memory is further configured to perform a command indicated by the voice in relation to the selected user when the processor inputs a voice for selecting at least one user among the displayed users, and display the result on the display. At least one instruction may be stored.
  • the memory may further include at least one instruction configured to display, by the processor, a user identifying a user who is registered in advance on the display and a beacon for identifying each user when user identification is required to perform a command indicated by the voice. Can be stored.
  • the memory may further include at least one set by the processor to perform a command indicated by the voice in relation to a user indicated by the mark and to display a result on the display when a voice for selecting at least one of the marks is input. Instructions can be stored.
  • the memory when the voice is input through the microphone, the memory performs a command indicated by the voice in relation to a user included in the voice when the voice includes a representation representing a user. At least one instruction set to display a result on the display may be stored.
  • the memory is further configured to perform a command indicated by the voice in relation to a user represented by voice data matching the input voice among prestored voice data, and output the result.
  • At least one instruction set to be displayed on the display may be stored.
  • An information display method of a refrigerator may include: receiving a first voice including a food name through a microphone; Displaying a food list on a display in front of the refrigerator, the food list including food information corresponding to the food name and an identification mark for identifying the food information, based on the recognition of the first voice; Receiving a second voice indicating the identification mark through the microphone; And displaying, on the display, purchase information of at least one food item corresponding to the identification mark, based on the recognition of the second voice.
  • a refrigerator capable of receiving a command through voice using voice recognition technology and outputting a content by voice.
  • a refrigerator capable of identifying a plurality of users and providing content suitable for the identified user.
  • FIG. 1 illustrates an exterior of a refrigerator according to one embodiment.
  • FIG. 2 illustrates a front surface of a refrigerator according to one embodiment.
  • FIG 3 illustrates a configuration of a refrigerator according to one embodiment.
  • FIG. 4 illustrates a display included in a refrigerator according to one embodiment.
  • FIG. 5 illustrates a home screen displayed on a display included in a refrigerator according to one embodiment.
  • FIG. 6 and 7 illustrate a voice recognition application displayed on a display included in a refrigerator according to one embodiment.
  • FIG. 8 illustrates communication with an external device through a communication unit included in a refrigerator according to one embodiment.
  • FIG. 9 and 10 illustrate a communication between a refrigerator and a server according to an embodiment.
  • 11A to 14 illustrate a method of purchasing food by a user through a refrigerator according to one embodiment.
  • 15 and 16 illustrate a method in which a refrigerator performs a command in response to a voice command of a user.
  • 17 to 20 provide a method of identifying a user in a refrigerator according to one embodiment and providing information corresponding to the identified user.
  • 21A is a block diagram of a controller for data learning and recognition according to an embodiment.
  • 21B is a detailed block diagram of a data learner and a data recognizer, according to an exemplary embodiment.
  • FIG. 22 is a flowchart of a refrigerator displaying information according to an embodiment.
  • FIG. 23 is a flowchart of a network system according to an embodiment.
  • 24 is a view illustrating a method of purchasing food by a user through a refrigerator according to another embodiment.
  • ⁇ part may refer to a unit for processing at least one function or operation.
  • the terms may refer to at least one hardware processed by at least one piece of hardware such as a field-programmable gate array (FPGA) / application specific integrated circuit (ASIC), at least one software stored in a memory, or a processor.
  • FPGA field-programmable gate array
  • ASIC application specific integrated circuit
  • the term "food” in the present specification may include industrial products, products produced or hunted by the user manufactured and traded by a person or a machine.
  • FIG. 1 illustrates an exterior of a refrigerator according to one embodiment
  • FIG. 2 illustrates a front surface of the refrigerator according to one embodiment
  • 3 illustrates a configuration of a refrigerator according to one embodiment
  • FIG. 4 illustrates a display included in the refrigerator according to one embodiment.
  • the refrigerator 1 may include a main body 10 having a front face open and a door 30 opening and closing the open front face of the body 10. have.
  • the main body 10 is provided with a storage compartment 20 whose front surface is opened so that food can be refrigerated or frozen.
  • the main body 10 may form an appearance of the refrigerator 1.
  • the main body 10 may include an inner wound 11 forming the storage compartment 20 and an outer wound 12 coupled to an outer side of the inner wound 11 to form an outer appearance.
  • a heat insulating material (not shown) may be filled between the inner wound 11 and the outer wound 12 of the main body 10 to prevent leakage of cold air from the storage compartment 20.
  • the storage compartment 20 may be divided into a plurality of compartments by the horizontal barrier rib 21 and the vertical barrier rib 22.
  • the storage compartment 20 may be divided into an upper storage compartment 20a, a lower first storage compartment 20b, and a lower second storage compartment 20c.
  • the storage compartment 20 may be provided with a shelf 23 on which food can be placed and a sealed container 24 for hermetically storing food.
  • the storage compartment 20 may be opened and closed by the door 30.
  • the upper storage compartment 20a may be opened and closed by the upper first door 30aa and the upper second door 30ab
  • the lower first storage compartment 20b may be the lower first. It may be opened and closed by the door 30b
  • the lower second storage compartment 20c may be opened and closed by the lower second door 30c.
  • a handle 31 may be provided at the door 30 to easily open and close the door 30.
  • the handle 31 may be formed long in the vertical direction along the upper first door 30aa and the upper second door 30ab and between the lower first door 30b and the lower second door 30c. . Thereby, when the door 30 is closed, the handle 31 can be seen as being integrally provided.
  • the refrigerator 1 may include a display 120, a storage 130, a communication unit 140, a dispenser 150, a cooling unit 150, a temperature sensing unit 170, an acoustic unit 180, and a main controller ( 110) may be included.
  • the display 120 can interact with the user.
  • the user may receive a user input from the user and display an image according to the received user input.
  • the display 120 includes a display panel 121 for displaying an image, a touch panel 122 for receiving a user input, and a touch screen controller 123 for controlling / driving the display panel 121 and the touch panel 122. can do.
  • the display panel 121 may convert image data received from the main controller 110 through the touch screen controller 123 into an optical image that can be viewed by the user.
  • the display panel 101 includes a cathode ray tube (CRT) display panel, a liquid crystal display (LCD) panel, a light emitting diode (LED) panel, and an organic light emitting diode (OLED).
  • CTR cathode ray tube
  • LCD liquid crystal display
  • LED light emitting diode
  • OLED organic light emitting diode
  • Diode (PDP) panels, plasma display panels (PDPs), field emission display (FED) panels and the like can be employed.
  • the display panel 101 is not limited thereto, and the display panel 101 may employ various display means capable of visually displaying an optical image corresponding to the image data.
  • the touch panel 122 may receive a user's touch input and transmit an electrical signal corresponding to the received touch input to the touch screen controller 123.
  • the touch panel 122 senses a user's touch on the touch panel 122 and transmits an electrical signal corresponding to the coordinates of the user's touch point to the touch screen controller 123.
  • the touch screen controller 123 may acquire the coordinates of the touch point of the user based on the electrical signal received from the touch panel 122.
  • the touch panel 122 may be positioned in front of the display panel 121.
  • the touch panel 122 may be provided on a surface on which an image is displayed. Therefore, the touch panel 122 may be made of a transparent material so that the image displayed on the display panel 121 is not distorted.
  • the touch panel 122 may employ a resistive touch panel or a capacitive touch panel. However, the touch panel 122 is not limited thereto, and the touch panel 122 may detect a user's touch or approach, and output various electrical signals corresponding to the detected coordinates of the touch point or the coordinates of the access point. An input means can be employed.
  • the touch screen controller 123 may drive / control the operations of the display panel 121 and the touch panel 122.
  • the touch screen controller 123 drives the display panel 121 to display an optical image corresponding to the image data received from the main controller 110, and detects the coordinates of the touch point of the user. ) Can be controlled.
  • the touch screen controller 123 may determine the coordinates of the user's touch point based on the electrical signal output from the touch panel 122, and transmit the coordinates of the user's touch point to the main controller 110. .
  • the touch screen controller 123 may transmit an electrical signal output from the touch panel 122 to the main controller 110 so that the main controller 110 determines the coordinates of the user's touch point.
  • the touch screen controller 123 may include a memory (not shown) that stores programs and data for controlling operations of the display panel 121 and the touch panel 122, and the display panel 121 according to the programs and data stored in the memory. And a microprocessor (not shown) that performs an operation for controlling the operation of the touch panel 122.
  • the memory and the processor of the touch screen controller 123 may be provided as separate chips or may be provided as a single chip.
  • the display 120 may be installed in the door 30 for the convenience of the user.
  • the display 120 may be installed in the upper second door 30ab.
  • the display 120 installed in the upper second door 30ab will be described, but the installation position of the display 120 is not limited to the upper second door 30ab.
  • the dispenser 150 is a position that can be viewed by the user, such as the upper first door 30aa, the lower first door 30b, the lower second door 30c, and the trauma 12 of the main body 10. Can be installed anywhere.
  • the display 120 may have a wake up function that is automatically activated when the user approaches within a certain range. For example, when the user approaches within a certain range, the display 120 may be activated. In other words, the display 120 may be in an on state. On the other hand, if the user deviates within a certain range, the display 120 may be deactivated. In other words, the display 120 may be in an off state.
  • the display 120 may display various screens or images. The screen or image displayed on the display 120 is described in detail below.
  • the storage unit 130 may store a control program and control data for controlling the operation of the refrigerator 1 and various application programs and application data for performing various functions according to a user input.
  • the storage unit 130 may include an operating system (OS) program that manages the configuration and resources (software and hardware) included in the refrigerator 1, an image display application that displays a pre-stored image, and a pre-stored video.
  • OS operating system
  • the storage unit 130 may include a nonvolatile memory in which a program or data is not lost even when power is cut off.
  • the storage 130 may include a large capacity flash memory or a solid state drive (SSD) 131.
  • the communication unit 140 may transmit data to or receive data from an external device under the control of the main controller 110.
  • the communication unit 140 may include at least one of communication modules 141, 142, and 143 that transmit and receive data according to a predetermined communication protocol.
  • the communication unit 140 may connect to an external device such as a WiFi Fidelity (WiFi®) module 141 that connects to a local area network (LAN) through a wireless access device.
  • WiFi® WiFi Fidelity
  • LAN local area network
  • Bluetooth® module 142 for one-to-one communication or one-to-many communication with a few external devices, and a Zigbee module for forming a short-range communication network between a plurality of electronic devices (mainly home appliances) 143) and the like.
  • each of the plurality of communication modules 141, 142, and 143 transmits a radio signal to or receives radio signals from free space, an antenna for modulating data to be transmitted, and a demodulator / demodulator for demodulating the received radio signals. It may include.
  • the dispenser 150 may discharge water or ice according to a user input. In other words, the user may directly take out water or ice to the outside without opening the door 30 through the dispenser 150.
  • the dispenser 150 includes a dispenser lever 151 for receiving a discharge command from a user, a dispenser nozzle 152 for discharging water or ice, a flow path 153 for guiding water from the external water supply to the dispenser nozzle 152, and discharge It may include a filter 154 for purifying the water to be dispensed and the dispenser display panel 155 for displaying the operating state of the dispenser 150.
  • the dispenser 150 may be installed outside the door 30 or the main body 10.
  • the dispenser 150 may be installed in the upper first door 30aa.
  • the dispenser 150 installed in the upper first door 30aa will be described, but the dispenser 150 is not limited to being installed in the upper first door 30aa.
  • the dispenser 40 draws water or ice from the user, such as the upper second door 30ab, the lower first door 30b, the lower second door 30c, and the external wound 12 of the body 10. It can be installed anywhere you can.
  • the door 30 or the outer box 12 may be provided with a cavity 150a recessed inwardly to form a water or ice extraction space, and the cavity 150a may have a dispenser nozzle 152 and a dispenser lever. 151 may be provided. When the user presses the dispenser lever 151, water or ice is discharged from the dispenser nozzle 152.
  • the water when water is discharged through the dispenser nozzle 152, the water may flow from an external water supply source (not shown) along the flow path 152 to the dispenser nozzle 152. Water may also be purified by filter 153 while flowing to dispenser nozzle 152.
  • the filter 153 may be detachably provided in the main body 10 or the door 30 so that the filter 153 may be replaced when the life of the filter 153 expires.
  • the cooling unit 160 may supply cold air to the storage chamber 20.
  • the cooling unit 160 may maintain the temperature of the storage compartment 20 within a predetermined range by using evaporation of the refrigerant.
  • the cooling unit 160 may include a compressor 161 for compressing the gas refrigerant, a condenser 162 for converting the compressed gas refrigerant into a liquid refrigerant, an expander 163 for reducing the liquid refrigerant, and a reduced liquid refrigerant in a gas state. It may include an evaporator 164 to change the state.
  • the cooling unit 160 may supply cold air to the storage compartment 20 by using a phenomenon in which the pressure-reduced liquid refrigerant absorbs thermal energy of ambient air while changing its state into a gas state.
  • the configuration of the cooling unit 160 is not limited to the compressor 161, the condenser 162, the expander 163, and the evaporator 164.
  • the cooling unit 160 may include a Peltier element using the Peltier effect.
  • the Peltier effect means that when a current flows through contact surfaces of different metals, an exothermic phenomenon occurs in one metal and an endothermic phenomenon occurs in another metal.
  • the cooling unit 160 may supply cold air to the storage compartment 102 using the Peltier element.
  • the cooling unit 160 may include a magnetic cooling device using a magneto-caloric effect.
  • the magnetocaloric effect means that heat is released when a specific material (magnetic calorie material) is magnetized, and absorbs heat when the specific material (magnetic calorie material) is demagnetized.
  • the cooling unit 160 may supply cold air to the storage compartment 20 by using a magnetic cooling device.
  • the temperature sensing unit 170 may be provided in the storage compartment 20 to sense a temperature inside the storage compartment 20.
  • the temperature sensing unit 170 may include a plurality of temperature sensors 171 installed in the plurality of storage chambers 20a, 20b, and 20c, respectively.
  • each of the plurality of temperature sensors 171 may include a thermistor whose electrical resistance changes with temperature.
  • the sound unit 180 converts an electrical signal received from the main controller 110 into an acoustic signal, converts an electrical signal into a speaker 181 for outputting the converted acoustic signal, and converts an electrical signal into a main controller ( It may include a microphone 182 that outputs to 110.
  • the main controller 110 may include a display 120, a storage 130, and a communication unit included in the refrigerator 1 according to a user input and / or a program and data stored in the storage 130 received through the display 120.
  • the controller 140 may control the dispenser 150, the cooling unit 150, the temperature sensing unit 170, and the acoustic unit 180.
  • the main controller 110 may include a microprocessor 111 that performs operations for controlling the refrigerator 1, and a memory 112 that stores / stores programs and data related to operations of the microprocessor 111. Can be.
  • the microprocessor 111 may load data stored / stored in the memory 112 according to a program stored / stored in the memory 112 and perform an arithmetic operation or a logical operation on the retrieved data. Also, the microprocessor 111 may output the result of an arithmetic operation or a logical operation to the memory 112.
  • the memory 112 may include a volatile memory that loses stored data when power supply is interrupted.
  • the volatile memory may load a program and data from the storage 130 described above, and temporarily store the loaded data.
  • the volatile memory can provide stored programs and data to the microprocessor 111, and can store data output from the microprocessor 111.
  • Such a volatile memory may include an S-RAM, a D-lap, and the like.
  • the memory 112 may include a nonvolatile memory as necessary.
  • the nonvolatile memory can retain the stored data when the power supply is interrupted.
  • the nonvolatile memory may store firmware for managing and initializing various components included in the refrigerator 1.
  • Such nonvolatile memories may include ROM, EPYROM, EPYROM, flash memory, and the like.
  • the main controller 110 may include a plurality of microprocessors 111 and a plurality of memories 112.
  • the first microprocessor and the first memory for controlling the temperature sensor 170, the dispenser 150, and the cooling unit 160 of the refrigerator 1, the display 120 of the refrigerator 1, and a storage unit. 130, a second microprocessor and a second memory for controlling the communicator 140 and the acoustic unit 180 may be included.
  • microprocessor 111 and the memory 112 have been described functionally and distinctly, the microprocessor 111 and the memory 112 are not necessarily physically distinguished.
  • the microprocessor 111 and the memory 112 may be implemented not only as separate chips but also as one chip.
  • the main controller 110 may control the overall operation of the refrigerator 1, and the operation of the refrigerator 1 described below may be interpreted as being performed by the control of the main controller 110.
  • the main controller 110, the storage unit 130, and the communication unit 140 have been functionally distinguished and described, but the main controller 110, the storage unit 130, and the communication unit 140 are not necessarily physically distinguished.
  • the main controller 110, the storage unit 130, and the communication unit 140 may be implemented as one chip, or each of the main controller 110, the storage unit 130, and the communication unit 140 may be a separate chip. Can be implemented.
  • the display 120, the storage unit 130, the communication unit 140, the dispenser 150, the cooling unit 150, the temperature sensing unit 170, and the sound unit 180 included in the refrigerator 1 are described above.
  • the main controller 110 has been described, a new configuration may be added or some components may be omitted as necessary.
  • FIG. 5 illustrates a home screen displayed on a display included in a refrigerator according to one embodiment.
  • the main controller 110 may control the display 120 to display the home screen 200 as illustrated in FIG. 5.
  • an application stored in the time / date display area 210 displaying the time and date, the operation information display area 220 displaying the operation information of the refrigerator 1, and the storage 130 is executed.
  • a plurality of launcher 230 for may be displayed.
  • time / date display area 210 In the time / date display area 210, current time information and today's date information may be displayed. In addition, the time / date display area 210 may display location information (eg, a name of a country or city) of a location where the refrigerator 1 is located.
  • location information eg, a name of a country or city
  • a storage map 221 related to operations of the plurality of storage rooms 20a, 20b, and 20c included in the refrigerator 1 may be displayed.
  • the storage map 221 may display information related to operations of the plurality of storage rooms 20a, 20b, and 20c included in the refrigerator 1. For example, as illustrated in FIG. 5, an upper storage compartment 20a, a lower first storage compartment 20b, and a lower second storage compartment 20c may be divided and displayed in the storage compartment map 221, and the upper storage compartment 20a may be displayed. ), A target temperature of the lower first storage compartment 20b and a target temperature of the lower second storage compartment 20c may be displayed.
  • the main controller 110 displays an image for displaying a target temperature of each of the storage compartments 20a, 20b, and 20c. Can be marked on. For example, when a user touches an area indicating the upper storage compartment 20a in the storage compartment map 221, an image for setting a target temperature of the upper storage compartment 20a may be displayed on the display 120.
  • the operation information display area 220 may display a timer setting icon 222 and a refrigerator setting icon 223 for executing an application for controlling the operation of the and refrigerator 1.
  • a timer setting screen for setting a target time of the timer may be displayed on the display 120.
  • the user may input the time to output the alarm or the time interval until the alarm is output through the timer setting image, and the refrigerator 1 outputs the alarm at the time input by the user or the user.
  • an alarm can be output.
  • the main controller 110 may display, on the display 120, an operation setting screen for inputting a setting value for controlling the operation of the refrigerator 1. For example, a user may set a target temperature of each of the plurality of storage compartments 20a, 20b, and 20c included in the refrigerator 1 through an operation setting screen, and which of the water and ice is discharged through the dispenser 150. You can set whether or not.
  • the home screen 200 may display a plurality of launcher 230 for executing various applications stored in the storage 130 by the user.
  • the home screen 200 includes an album launcher 231 for executing an album application displaying a picture stored in the storage 130, and a recipe launcher 232 for executing a recipe application providing a recipe for food.
  • the screen setting launcher 233 for executing the screen setting application for controlling the operation of the display 120 may be displayed.
  • the home screen 200 sets the operation of the home appliance control launcher 234 for executing the home appliance control application for controlling various home appliances through the refrigerator 1, and the operation of the voice output application for outputting various contents as a voice.
  • the voice output setting launcher 235 and the online shopping launcher 236 for executing a shopping application for online shopping may be displayed.
  • the home screen 200 of the refrigerator 1 may display main information related to the operation of the refrigerator 1 and a launcher for executing various applications.
  • FIG. 5 is only an example of the home screen 200, and the refrigerator 100 may display various types of home screens according to a user's setting, and the information and the launcher displayed on the home screen. Again not limited to the bar shown in FIG.
  • FIG. 6 illustrates a voice recognition UI displayed on the display 120 of the refrigerator according to one embodiment.
  • the main controller will be referred to as a controller for convenience.
  • the controller 110 may display a voice recognition user interface 250 (hereinafter, referred to as a UI) on the display 120.
  • the speech recognition UI 250 may be displayed on the display 120 as a UI having a configuration as illustrated in FIG. 6.
  • the wake word may be composed of a preset word or a combination of words, and may be changed to a desired expression by the user.
  • the controller 110 may execute the voice recognition function through the wake word uttered by the user. As shown in FIG. 7, when the microphone-shaped button 271 displayed on the public UI is touched, the voice recognition function is performed. You can also run
  • the shape of the launcher representing the button for executing the voice recognition function is not limited to the shape of the microphone, but may be implemented in various other forms of images.
  • the notification UI may be displayed on the display 120 when a touch gesture for swiping upward while a specific point at the bottom of the display 120 is touched is input.
  • the launcher for executing the voice recognition function may be displayed on the notification UI or may be displayed on the home screen 200 of the display 120.
  • the controller 110 recognizes and analyzes the user's voice in natural language using a voice recognition function to determine the user's intention, and can execute a command according to the user's intention. In addition, by outputting the voice process or the result of the command according to the user's intention so that the user can recognize the voice process or the result of the voice command.
  • the voice recognition UI 250 may be displayed on the display 120, as shown in FIGS. 6 and 7.
  • the speech recognition UI 250 may include a first region 252 in which a word or sentence output as speech through a text to speech (TTS) function is displayed, a second region 254 in which a state of a speech recognition function is displayed, and a TTS.
  • a third area 260 indicating that speech is output through the text to speech function, a setting object 256 for setting the speech recognition function, and a help object 258 for providing help for using the speech recognition function. ) May be included.
  • the second area 254 in which the status of the voice recognition function is displayed may display, in text, a state in which the user's voice is being input, a standby state for the user's voice input, or a state in which a process according to the voice input is being performed. Can be.
  • a state in which the user's voice is input may be displayed as ⁇ listening>, a standby state as ⁇ stand by>, and a state in which the process is performed as ⁇ processing>.
  • the above-described English text is merely an example, and the status may be displayed in Korean text, or may be displayed as an image instead of text.
  • the voice recognition UI 250 may be displayed in the form of a card UI popped up on the home screen 200 or displayed on the entire screen of the display 120. May be
  • the controller 110 transmits voice data to the first server SV1 to be described later, and receives information analyzed by the voice from the first server SV1. You can run the command.
  • FIGS. 9 and 10 illustrate communication between a refrigerator and a server according to an embodiment.
  • the refrigerator 1 may communicate with various electronic devices as well as the servers SV1 and SV2 through the communication unit 140.
  • the refrigerator 1 may be connected to an access point AP via the communication unit 140.
  • the refrigerator 1 may use a connection repeater (Wi-Fi TM, IEEE 802.11), Bluetooth (Bluetooth TM, IEEE 802.15.1), Zigbee (Zigbee, IEEE 802.15.4) and the like using a wireless communication standard.
  • AP connection repeater
  • the access relay may be called variously, such as “hub”, “router”, “switch”, “gateway”, a wide area network (Internet), such as the Internet (Wide Area) Network) (WAN).
  • Internet Wide Area Network
  • connection repeater AP not only a refrigerator 1 but also an air conditioner 2, a washing machine 3, an oven 4, a microwave oven 5, a robot cleaner 6, a security camera 7, an electric lamp ( 8) and various electronic devices such as the television 9 can be connected.
  • the electronic devices 1-9 connected to the access relay AP may form a local area network (LAN).
  • LAN local area network
  • the access relay AP may connect a local area network (LAN) formed by the electronic devices 1-9 connected to the access relay AP and a wide area network (WAN) such as the Internet.
  • LAN local area network
  • WAN wide area network
  • the wide area network WAN may be connected to a first server SV1 that provides information analyzed by voice data to a refrigerator and a second server SV2 operated by operators that provide information through an application mounted on the refrigerator.
  • the second server SV2 may be, for example, a server selling food online through a shopping application such as a mart application mounted in a refrigerator (hereinafter referred to as a mart server), and a server providing information to a weather application (hereinafter referred to as a weather server).
  • a server providing recipe related information to a recipe application hereinafter referred to as a recipe server
  • a music server hereinafter referred to as a music server
  • a mobile terminal MT may be connected to the wide area network WAN.
  • the mobile terminal MT may directly connect to the wide area network WAN or access the wide area network WAN through the access relay AP.
  • the mobile terminal MT may access the wide area network WAN through the access repeater AP.
  • the mobile terminal MT may directly connect to the wide area network WAN through a mobile communication service provided by the mobile communication provider.
  • the refrigerator 1 transmits data to the first server SV1 and / or the second server SV2 through the connection repeater AP, and the first server SV1 and / or the second server SV2 and the like. Data may be received from.
  • the refrigerator 1 may transmit voice data of a user input through the microphone 182 to the first server SV1 through the access repeater AP, and the first server SV1 may transmit the voice data.
  • the analysis information including the user's intention derived from the analysis may be transmitted to the refrigerator.
  • the refrigerator 1 may transmit information analyzing the voice data of the user to the second server SV2 through the access repeater AP, and may be associated with a specific application from the second server SV2 through the access repeater AP.
  • Information for example, food information associated with a mart application.
  • the refrigerator 1 may communicate with the first server SV1 and receive analysis information of the voice data of the user through the first server SV1.
  • the refrigerator 1 may communicate with the second server SV2 and receive information related to a specific application from the second server SV2.
  • the communication between the refrigerator and the server will be described in more detail with reference to FIGS. 9 and 10.
  • the refrigerator 1 transmits voice data to the first server SV1 (1000).
  • the first server SV1 may analyze the voice data to derive the intention of the user (1010).
  • the controller 110 of the refrigerator 1 modulates the input analog voice signal into voice data, which is a digital signal, and communicates with the first server SV1 through the communication unit 140. To send.
  • the controller 110 of the refrigerator 1 may modulate an analog voice signal into a digital voice signal by using pulse code modulation.
  • the controller 110 of the refrigerator 1 may input a voice command of ⁇ Notify me of the weather> from the user, and may modulate the voice command into a digital signal and transmit the same to the first server SV1.
  • the first server SV1 removes noise by performing preprocessing on the speech data transmitted from the refrigerator 1, and analyzes the speech data and converts the speech data into text, and automatic speech recognition (ASR) and automatic speech recognition. It may include a natural language understanding (NLU) to grasp the user's intention based on the text converted by the wealth. Alternatively, the first server SV1 may include a learning network model trained using an artificial intelligence algorithm. In this case, the first server SV1 may apply the voice data transmitted from the refrigerator 1 to the learning network model to determine (or recognize, estimate, infer, and predict) the intention of the user.
  • ASR automatic speech recognition
  • NLU natural language understanding
  • the first server SV1 may include a learning network model trained using an artificial intelligence algorithm. In this case, the first server SV1 may apply the voice data transmitted from the refrigerator 1 to the learning network model to determine (or recognize, estimate, infer, and predict) the intention of the user.
  • the automatic speech recognition unit and the natural language processing unit of the first server SV1 may determine the user's intention that the voice data requires information on the weather of the region where the user is currently located.
  • the first server SV1 transmits the information analyzing the voice data to the second server SV2 (1020), and the second server SV2 transmits the information requested by the voice data according to the analysis information of the voice data. In operation 1030, it may be transmitted to SV1.
  • the first server SV1 transmits the information transmitted from the second server SV2 to the refrigerator 1 (1040).
  • the first server SV1 determines the intention of the user included in the voice data
  • the first server SV1 determines the second server SV2 that provides information to an application related to the user's intention, and determines the voice data to the determined second server SV2. Transmit the analyzed information.
  • the weather server provides information to the weather application of the second server SV2.
  • the analysis information of the voice data can be transmitted.
  • the second server SV2 may search for information corresponding to the user's intention based on the analysis information of the voice data and transmit the information to the first server SV1.
  • the weather server may generate current weather information of the area where the user is based on the analysis information of the voice data, and transmit the generated weather information to the first server SV1.
  • the first server SV1 converts the information transmitted from the second server SV2 into a JSON (JavaScript Object Notation) file format and transmits the information to the refrigerator 1.
  • JSON JavaScript Object Notation
  • the refrigerator 1 displays the information transmitted from the first server SV1 on the display 120 using a card type UI and outputs it by voice (1050).
  • the controller 110 of the refrigerator 1 displays the received information as a card type UI (120). ), And the received information can be output by voice using the Text To Speech (TTS) function.
  • TTS Text To Speech
  • the controller 110 of the refrigerator 1 may receive information including the location, time, and weather of the user.
  • the card UI may display the display 120.
  • the controller 110 may output the weather information displayed by the card UI as a voice (for example, ⁇ today's current weather is 20 degrees, humidity is 50%, and it is clear without clouds>). have.
  • the refrigerator 1 transmits voice data to the first server SV1 (1100).
  • the first server SV1 may analyze the voice data to derive the intention of the user (1110).
  • the controller 110 of the refrigerator 1 modulates the input analog voice signal into voice data, which is a digital signal, and communicates with the first server SV1 through the communication unit 140. To send.
  • the controller 110 of the refrigerator 1 may modulate an analog voice signal into a digital voice signal by using pulse code modulation. For example, when the voice command “Listen to next song” is input from the user, the controller 110 of the refrigerator 1 may modulate the voice command into a digital signal and transmit the same to the first server SV1. Alternatively, when the voice command “tell me apple pie recipe” is input from the user, the controller 110 of the refrigerator 1 may modulate the voice command into a digital signal and transmit it to the first server SV1.
  • the first server SV1 performs preprocessing on the speech data transmitted from the refrigerator 1 to remove noise, analyzes the speech data, and converts the speech data into text, and automatic speech recognition (ASR) and automatic speech recognition. It may include a natural language understanding (NLU) to grasp the user's intention based on the text converted by the wealth. Alternatively, the first server SV1 may include a learning network model trained using an artificial intelligence algorithm. In this case, the first server SV1 may apply the voice data transmitted from the refrigerator 1 to the learning network model to determine (or recognize, estimate, infer, and predict) the intention of the user.
  • ASR automatic speech recognition
  • NLU natural language understanding
  • the first server SV1 may include a learning network model trained using an artificial intelligence algorithm. In this case, the first server SV1 may apply the voice data transmitted from the refrigerator 1 to the learning network model to determine (or recognize, estimate, infer, and predict) the intention of the user.
  • the automatic speech recognition unit and the natural language processing unit of the first server SV1 may grasp the user's intention that the speech data requires the reproduction of the next song of the song currently being played.
  • the automatic voice recognition unit and the natural language processing unit of the first server SV1 may recognize the user's intention that the voice data is required to inform the user of how to cook the apple pie.
  • the first server SV1 transmits information analyzing the voice data to the refrigerator 1 (1120), and the refrigerator 1 transmits analysis information of the voice data to the second server SV2 (1130).
  • the second server SV2 may transmit the information requested by the voice data to the refrigerator 1 according to the analysis information of the voice data (1140).
  • the first server SV1 analyzes the voice data, and when the user's intention is determined, converts the analysis information of the voice data of the user into a JSON (JavaScript Object Notation) file format and transmits it to the refrigerator 1.
  • JSON JavaScript Object Notation
  • the controller 110 of the refrigerator 1 determines a related application based on the analysis information, The analysis information can be output to the determined application.
  • the controller 110 of the refrigerator 1 determines that it is the user's intention to request the playback of the next song of the currently playing song based on the analysis information in the JSON file format, the user's intention of the music application is determined. This may be determined by an application that performs a function related to. The controller 110 may transmit a command for requesting reproduction of the next song to the determined music application.
  • the controller 110 of the refrigerator 1 determines the user's intention to inform the cooking method of the apple pie based on the analysis information in the JSON file format
  • the application performs a recipe application function related to the user's intention. Can be determined.
  • the controller 110 may transmit a command requesting information on a method of cooking an apple pie to the determined recipe application.
  • the determined application may transmit the analysis information to the second server SV2 that provides the information.
  • the second server SV2 may search for information corresponding to the user's intention based on the analysis information of the voice data and transmit the information to the refrigerator 1.
  • the music application when receiving the analysis information output from the controller 110, the music application may request information about the next song from the second server SV2 that provides the information to the music application, that is, the music server. have.
  • the music server may determine the next song of the song currently being played based on the analysis information of the voice data, and provide the music application with information about the determined next song.
  • the recipe application may request information on how to cook the apple pie to the second server (SV2) that provides information to the recipe application, that is, the recipe server.
  • the recipe server may provide a recipe application of a pre-stored apple pie to a recipe application based on analysis information of voice data, or provide a recipe application by searching for another cooking method of apple pie.
  • the refrigerator 1 may execute the related application according to the received information (1150).
  • the controller 110 executes the determined application according to the information transmitted from the second server SV2, and then executes the determined application.
  • Information corresponding to voice may be provided.
  • the controller 110 executes a music application when the information about the next song transmitted from the music server is received.
  • the music application may stop playing the currently playing song and play the next song according to the information about the next song transmitted from the music server.
  • the display 120 of the refrigerator 1 may display a UI of a music application to display information related to playing the next song, and the output of the song currently being played through the speaker 181 of the refrigerator 1 is stopped. The next song can be output.
  • the controller 110 executes the recipe application.
  • the display 120 of the refrigerator 1 may display a UI of a recipe application to display an apple pie cooking method, and a voice for reading the recipe of the apple pie through the speaker 181 of the refrigerator 1 may be output. Can be.
  • information related to a voice of a user may be received through communication between the first server SV1 and the second server SV2, and the refrigerator 1 and the second server may be received as illustrated in FIG. 10.
  • Information related to the voice of the user may be received through communication between the SV2s.
  • 11A to 14 illustrate a method of purchasing food by a user through a refrigerator according to one embodiment.
  • a voice for ordering a particular food item with a wake word may be input through the microphone 182 (900).
  • the controller 110 executes a voice recognition function to analyze the user's voice, and receives a list 300 of foods included in the user's voice from a related application (for example, a mart application).
  • a related application for example, a mart application.
  • the display 120 displays the display 120 in the form of a display.
  • the refrigerator 1 analyzes a user's voice through communication with the first server SV1 to determine the user's intention, and information related to the user's intention transmitted from the second server SV2. (Eg, a list of foods) may be received through the first server SV1. Then, using the received information as an input value of the application for displaying a food list, as shown in Figure 11A can display the food list 300 in the form of a card UI.
  • the voice analysis result of the user may be, for example, a food name.
  • the food name may include not only the exact name of the food, but also a idiom or slang that refers to the food, a portion of the food name, and a name similar to the food name.
  • the food name may be an alias registered or uttered mainly by the user of the refrigerator 1.
  • the food list 300 may be displayed in the form of a card UI at the bottom of the speech recognition UI 250.
  • the food list 300 includes a representative image 314 representing a food, food information 316 including a manufacturer, a food name, a dose, a quantity, a price, and the like, and an identification mark 312 to distinguish the food from other foods. , For example, a number.
  • a label for distinguishing each of the plurality of foods may be used, and as shown, may be indicated by a number or may be indicated by letters.
  • a selectable tab 318 may be displayed at the bottom of the food list 300.
  • Tab 318 may be represented by a letter indicating the function of tab 318 (see more food at the mart).
  • a mart application that provides food information may be executed and displayed on the display 120.
  • the controller 110 may output, through the speaker 181, a voice requesting confirmation regarding which food from among the foods included in the food list 300 is selected together with the food list 300, and a voice recognition UI.
  • a microphone image indicating that voice is being output through the speaker 181 may be displayed in the third region 260 of the 250.
  • the voice output through the speaker 181 may also be displayed as text in the first area 250 of the voice recognition UI.
  • the controller 110 may recognize the first voice including the food name through the microphone 182. For example, the controller 110 may modulate the input first voice into a digital voice signal. The controller 110 may acquire a food name corresponding to the first voice by recognizing a digital voice signal through a learning network model trained using an artificial intelligence algorithm. In this case, the food name included in the first voice and the food name acquired by recognizing may be the same as or different from each other. For example, when the food name included in the first voice is an idiom, alias or part of a food name, the food name recognized and acquired may be a full name, a sales name, or a brand name.
  • the learning network model that recognizes the first voice is being stored in the storage 130 or in the first server SV1 that receives the first voice data from the refrigerator 1 and recognizes the first voice data. Can be.
  • the controller 110 may transmit a first voice modulated by a digital voice signal to the first server SV1.
  • the first server SV1 may input (eg, estimate, infer, predict, or grasp) a food name corresponding to the first voice by applying the first voice as an input value to a learning network model trained using an artificial intelligence algorithm. Can be.
  • the first server SV1 may transmit the food name corresponding to the first voice to the controller 110.
  • the controller 110 applies the first voice modulated by the digital voice signal to the learning network model stored in the storage unit 130 to generate the first voice. It can recognize the food name corresponding to the.
  • the controller 110 When a food name is obtained using the learning network model, the controller 110 includes a food list including food information 316 related to the obtained food name and an identification mark 312 for distinguishing the food information 316 from other foods. 300 may be displayed on the display 120.
  • the controller 110 may recognize the second voice that refers to the identification mark 312 of the food list through the microphone 182. For example, the controller 110 may modulate the input second voice into a digital voice signal. In addition, the controller 110 may acquire the identification mark corresponding to the second voice by recognizing the digital voice signal through the learning network model trained using the artificial intelligence algorithm. In this case, the learning network model for recognizing the second voice may be stored in the storage 130 or in the first server SV1 analyzing the voice data.
  • the controller 110 may transmit a second voice modulated by a digital voice signal to the first server SV1.
  • the first server SV1 applies the second voice as an input value to the learning network model trained using an artificial intelligence algorithm to recognize (or estimate, infer, predict, or identify) an identification mark corresponding to the second voice. Can be.
  • the first server SV1 may transmit an identification mark corresponding to the second voice to the controller 110.
  • the controller 110 applies the second voice modulated by the digital voice signal to the learning network model stored in the storage unit 130 to generate the second voice. Recognize an identification mark corresponding to.
  • the controller 110 may display on the display 120 purchase information of at least one food indicated by the identification mark 312.
  • 11B illustrates a method for a user to purchase food through a refrigerator according to another embodiment.
  • voice may be input 950 for ordering a particular food through microphone 182.
  • the controller 110 may recognize the first voice including the food name. As described above, as an example, the controller 110 may recognize the first voice by applying the first voice input through the microphone 182 to a learning network model trained using an artificial intelligence algorithm.
  • the controller 110 may identify whether the food 951-1 associated with the food name corresponding to the first voice exists in the storage compartment 20 (951).
  • the food associated with the food name may be a food having the food name as at least part of the name, or a food similar or replaceable with the food name.
  • the refrigerator 1 may store the storage information list including the food names of the foods existing in the storage room 20 in the storage unit 130.
  • the food names of the storage information list may be generated by a user input when the user stores the food in the storage compartment 20 of the refrigerator 1.
  • the information input by the user by voice or text may be stored as the food name, or the food name included in the identification information may be stored as the user tags the food identification information (eg, a barcode).
  • the food names may be generated as a result of image recognition of the storage room 10 photographed using a camera provided in the refrigerator 1.
  • the refrigerator 1 may recognize a food name and store the recognized food name by applying an image photographed through a camera to a learning network model trained using an artificial intelligence algorithm.
  • the refrigerator 1 may search whether a food name corresponding to the first voice exists in the storage information list, and identify whether a food associated with the food name exists in the storage compartment 20.
  • the controller 110 May control the display 120 to display information indicating the presence of food 951-1 (952).
  • Information indicating the presence of food may be, for example, a video or image of the food (952-1), a notification text indicating the presence of food (e.g., 'there is a food similar to what you are looking for') 952-2, or It may include at least one of the notification sound indicating the presence of food.
  • the user may want to order food additionally.
  • the display 120 displaying information indicating the presence of the foods 951-1 may be displayed together with a UI (not shown) for further ordering of foods.
  • the controller 110 may control the display 120 to display the food list 300 as shown in FIG. 11A.
  • 11C illustrates a method of purchasing food by a user through a refrigerator according to another embodiment.
  • voice may be input 960 for ordering a particular food through microphone 182.
  • the controller 110 may recognize the first voice including the food name. As described above, as an example, the controller 110 may recognize the first voice by applying the first voice input through the microphone 182 to a learning network model trained using an artificial intelligence algorithm.
  • the controller 110 may identify whether food associated with the food name corresponding to the first voice exists in the storage compartment 20 (961). For example, the controller 110 may identify whether a food associated with a food name exists in the storage compartment 20 based on an image of the storage compartment 20 photographed using a camera provided in the refrigerator 1. Alternatively, a storage information list for foods existing in the storage compartment 20 may exist in the storage 130 of the refrigerator 1. In this case, the controller 110 may search whether the food name exists in the list of stored foods and identify whether the food associated with the food name exists in the storage compartment 20.
  • the controller 110 may purchase a food name to purchase the food.
  • the display 120 may display a food list 962-1 including food information having a name corresponding to and a label for identifying the food information (962).
  • the food list 962-1 may be displayed in a card UI form at the bottom of the voice recognition UI.
  • 11D illustrates a method for a user to purchase food through a refrigerator according to another embodiment.
  • voice may be input 970 to order a particular food through microphone 182.
  • the controller 110 may recognize the first voice including the food name. As described above, as an example, the controller 110 may recognize the first voice by applying the first voice input through the microphone 182 to a learning network model trained using an artificial intelligence algorithm. In addition, the controller 110 recognizes a user who uttered the first voice by applying the first voice input through the microphone 182 to the learning network model trained using an artificial intelligence algorithm, and utters the first voice. User information can be obtained.
  • the controller 110 may transmit a first voice modulated by a digital voice signal to the first server SV1.
  • the first server SV1 may recognize (or estimate, infer, predict, or grasp) a user who spoke the first voice by applying the first voice as an input value to a learning network model trained using an artificial intelligence algorithm. have.
  • the first server SV1 may transmit the user information that uttered the first voice to the controller 110.
  • the controller 110 applies the first voice modulated by the digital voice signal to the learning network model stored in the storage unit 130 to generate the first voice. It can recognize the user who uttered.
  • the controller 110 may obtain food information preferred by the user who spoke the first voice in relation to the food name (971).
  • the same food name may have different preferred foods for each user depending on the manufacturer of the food, the type of food or the capacity of the food, and the place of sale of the food.
  • the storage unit 130 of the refrigerator 1 may store a food information list 971-1 for each user, in which preferred food information for each user is registered for the same food name.
  • the food information for each user may be determined based on a purchase history purchased by each user, an input history registered directly by the user, a food information history corresponding to an identification mark selected from identification labels corresponding to the food name, and the like.
  • the food information list for each user may be stored in the food information according to the preferred priority for each user. For example, food information whose priority is determined according to the order of the purchase history of the user may be stored.
  • the controller 110 may acquire food information preferred by a specific user based on the food information list stored in the storage 130 (971). Alternatively, the controller 110 may apply food name and user information to a learning network model learned using an artificial intelligence algorithm to obtain food information preferred by a specific user.
  • the learning network model may be a learning network model trained using the above-described purchase history, input history, and food information history corresponding to the selected identification mark.
  • the controller 110 may include a food list including an identification mark for distinguishing the food information that the user prefers from other food information that the user prefers. 972-1) may be displayed on the display 120. In this case, the food list 972-1 may sort the food information preferred by the user according to the user's preferred ranking.
  • a user in response to a voice requesting confirmation of which food from among foods included in the food list, a user may utter a voice for selecting a specific food (902). For example, the user may utter the identification label to distinguish foods.
  • the user may utter the first or first one to select an identification label to select the first food in the food list (903, 904).
  • the controller 110 may analyze the user's voice through a voice recognition function.
  • the controller 110 transmits the voice data of the user to the first server SV1 and receives information analyzed by the first server SV1 to analyze the intention of the user. I can figure it out.
  • the controller 110 of the refrigerator 1 may analyze the user's voice and determine the user's intention using the voice recognition function.
  • the controller 110 may search for a food name corresponding to the identification mark uttered by the user (905) and display the searched food. As shown in FIG. 13, the controller 110 may display a UI including purchase information for purchasing selected foods by executing a mart application on the display 120 (906).
  • the controller 110 outputs information analyzing the voice data of the user to the mart application, and executes the mart application when receiving information on food from the second server SV2.
  • the UI as shown in FIG. 13 may be displayed on the display 120.
  • the food confirmation UI includes a representative image area 354 representing a food, a food information area 356 including a manufacturer, a food name, a capacity, a quantity, a price, and the like, a quantity control area 358 for controlling the quantity of food, A food purchase area 360 including food purchase information such as a shopping cart tab for putting food in a shopping cart, a direct purchase tab for purchasing food directly, a gift tab for presenting food, and a tab for bookmarking selected foods It may include.
  • the number or arrangement of regions included in the food purchase UI illustrated in FIG. 13 is merely an example and may include other numbers, arrangements or other contents.
  • the user may say ⁇ put in the shopping cart> to put the food displayed in the food confirmation UI in the shopping cart (907), or say ⁇ buy it> to immediately purchase the food displayed in the food confirmation UI. May be 912.
  • the controller 110 displays the voice recognition UI on the display 120 as shown in FIG. 14.
  • the text “Add the selected food to the shopping cart” may be displayed on the voice recognition UI.
  • the controller 110 may output the text displayed on the voice recognition UI as a voice through the speaker 181 using the TTS function.
  • the voice recognition UI may be displayed as a card UI type on the mart application screen.
  • the mart application may display a shopping cart screen on the display 120 (911).
  • the controller 110 displays the voice recognition UI as shown in FIG. , An error occurred when adding the shopping cart. Check the content and try again> may be displayed on the speech recognition UI (910).
  • the controller 110 may output the text displayed on the voice recognition UI as a voice through the speaker 181 using the TTS function. In this case, the user may say "put it in the shopping cart" again to add the food to the shopping cart.
  • the controller 110 displays a voice recognition UI on the display 120 as shown in FIG. 14.
  • the text ⁇ Go to the purchase page of the selected food> may be displayed on the voice recognition UI.
  • the controller 110 may output the text displayed on the voice recognition UI as a voice through the speaker 181 using the TTS function.
  • the voice recognition UI may be displayed as a card UI type on the mart application screen.
  • the mart application may display a food purchase screen on the display 120 when a text and a voice indicating that the function of directly purchasing a food is normally executed to move to a purchase page of the food are output.
  • the controller 110 displays a voice recognition UI on the display 120, as shown in FIG. An error occurred when moving the purchase page. Check the contents and try again> may be displayed on the speech recognition UI (916). In addition, the controller 110 may output the text displayed on the voice recognition UI as a voice through the speaker 181 using the TTS function. In this case, the user may say ⁇ purchase> again to purchase the food again.
  • the user when the user does not want to select a food included in the food list or wants to cancel the food purchase process, the user may say ⁇ Cancel>.
  • the controller 110 may display the speech recognition UI on the display 120 in response to the user's speech called ⁇ cancel>, and display the text ⁇ food search canceled> on the speech recognition UI (918).
  • the controller 110 may output the text displayed on the voice recognition UI as a voice through the speaker 181 using the TTS function.
  • the voice recognition UI may be displayed as a card UI type on the mart application screen.
  • the user may say a food name that is not an identification mark (919). If foods of the same food name exist among the foods included in the food list, or if the user says the wrong food name, the food selected by the user may not be identified.
  • the controller 110 may display the voice recognition UI on the display 120 in response to the user's speech, and display the text ⁇ Please tell the number> on the voice recognition UI ( 920).
  • the controller 110 may output the text displayed on the voice recognition UI as a voice through the speaker 181 using the TTS function.
  • the controller 110 provides information in the form of a card UI without immediately executing the related application in response to a user's utterance, and then selects a related application when specific information is selected from the information provided through the card UI. Can be run.
  • 15 and 16 illustrate a method in which a refrigerator performs a command in response to a voice command of a user.
  • the controller 110 of the refrigerator 1 may perform a command corresponding to the voice command as illustrated in FIG. 15.
  • the controller 110 of the refrigerator 1 analyzes the input voice through a voice recognition function to intention of the user.
  • the controller 110 of the refrigerator 1 may analyze a user's voice by using a voice recognition function, and transmit voice data to the first server SV1 to obtain analysis information of the voice data from the first server SV1. May be received.
  • the controller 110 of the refrigerator 1 determines whether a music application is currently running, that is, whether music is being played (1301). If the music is playing, the controller 110 immediately stops playing the music (1302).
  • the controller 110 may display the voice recognition UI on the display 120 as shown in FIG. 15, and display the text ⁇ Music not being played> on the voice recognition UI. (1303). In addition, the controller 110 may output the text displayed on the voice recognition UI as a voice through the speaker 181 using the TTS function.
  • a voice command for which an object is not specified may be input through the microphone 182. That is, as shown in FIG. 16, a voice of ⁇ stop>, in which an object of a command is omitted, may be input through the microphone 182 (1300).
  • the controller 110 of the refrigerator 1 analyzes the input voice through a voice recognition function to determine the user's intention.
  • the controller 110 of the refrigerator 1 may analyze a user's voice by using a voice recognition function, and transmit voice data to the first server SV1 to obtain analysis information of the voice data from the first server SV1. May be received.
  • the controller 110 determines whether the voice command can be performed on the currently running application displayed on the display 120 (1310).
  • the controller 110 When the controller 110 can perform a voice command on the currently running application displayed on the display 120, the controller 110 performs a voice command on the application displayed on the display 120 (1320).
  • the controller 110 immediately stops the function of reading a recipe application. You can.
  • the controller 110 when a voice command in which the command object is omitted is input, the controller 110 is displayed on the display 120 to determine whether the command can be executed first with respect to the currently running application.
  • the controller 110 When the controller 110 is unable to perform a voice command on the currently running application displayed on the display 120, the controller 110 displays a voice recognition UI on the display 120 to inform that the voice command cannot be performed (1330). .
  • the controller 110 may display the voice recognition UI on the display 120 to display the text ⁇ not reading the recipe> on the voice recognition UI.
  • the controller 110 may output the text displayed on the voice recognition UI as a voice through the speaker 181 using the TTS function.
  • the controller 110 determines whether a predetermined priority exists for the application related to the input voice command (1340). . If there is a predetermined priority, the controller 110 performs a voice command for the application according to the priority (1350).
  • the controller 110 performs a voice command for the application ranked in the highest rank according to the priority, and if it is unable to perform the voice command for the application ranked in the highest rank, it is ranked in the next rank. Perform voice commands for the application.
  • the controller 110 stops playing the music being played by the music application. If the music is not playing, the controller 110 determines whether it is possible to perform a voice command for the application ranked in the next rank. The controller 110 may perform a voice command for the applications ranked in the priority in this way.
  • the controller 110 may request confirmation of whether to perform the voice command for another application (1360).
  • the controller 110 determines whether a voice command can be performed for another application.
  • the controller 110 determines the radio application as a target of a voice command as shown in FIG. 16, and displays a voice recognition UI before performing the voice command for the radio application. And request confirmation of whether or not the voice command is performed.
  • the controller 110 may display the voice recognition UI on the display 120 and display the text ⁇ Shall I stop the radio> on the voice recognition UI.
  • the controller 110 may output the text displayed on the voice recognition UI as a voice through the speaker 181 using the TTS function.
  • the controller 110 When the answer to the confirmation request is input through the microphone 182, the controller 110 performs a command according to the input answer (1370).
  • the controller 110 stops the execution of the radio application when an affirmative voice (eg ⁇ yes>) is input to the confirmation request " Stop radio? &Quot;.
  • an affirmative voice eg ⁇ yes>
  • the refrigerator 1 may perform a command corresponding to the intention of the user according to the method shown in FIG. 16.
  • 17 to 20 provide a method of identifying a user in a refrigerator according to one embodiment and providing information corresponding to the identified user.
  • a user may refer to a specific user and request the provision of information related to the user.
  • the controller 110 of the refrigerator 1 analyzes the input voice through a voice recognition function. Understand your intentions.
  • the controller 110 of the refrigerator 1 may analyze a user's voice by using a voice recognition function, and transmit voice data to the first server SV1 to obtain analysis information of the voice data from the first server SV1. May be received.
  • a calendar application As an example of an application for providing information specific to each user, a calendar application is mentioned. However, the present invention is not limited thereto, and a voice output setting application (eg, morning briefing in FIG. Yes) may provide the user-specific information according to the method according to Figs.
  • a voice output setting application eg, morning briefing in FIG. Yes
  • the controller 110 of the refrigerator 1 When the controller 110 of the refrigerator 1 recognizes the name of a specific user included in the voice and the intention of the user included in the voice is determined, the controller 110 performs a command according to the voice. That is, if it is determined that the user's intention is to show the mother's calendar among the plurality of users and the calendar of this month among the mother's calendars, as shown in FIG.
  • the moon calendar 290 is displayed on the display 120 (2030).
  • a calendar provided by a calendar application may include a calendar portion 291 in which a date and a day are displayed, and a calendar portion 292 in which a today's schedule is displayed.
  • the configuration of the calendar shown in FIG. 18 is merely an example and may have different configurations and arrangements.
  • the controller 110 of the refrigerator 1 cannot recognize the name of a specific user included in the voice, the controller 110 performs a process of selecting a specific user from among prestored users (2020).
  • the controller 110 of the refrigerator 1 cannot recognize the name of a specific user included in the voice, as shown in FIG. 19, the controller 110 displays the voice recognition UI on the display 120 and selects a profile.
  • the text may be displayed on the voice recognition UI (2021).
  • the controller 110 may output the text displayed on the voice recognition UI as a voice through the speaker 181 using the TTS function.
  • the controller 110 may display a profile list of a user registered in advance in the refrigerator 1 together with the voice recognition UI.
  • the profile list includes registered user names and an indication of an identification mark to identify each user name.
  • the identification mark may be indicated by a number, as shown in FIG. 19, but is not limited thereto. In the case of the identification mark, it may be a mark for distinguishing a plurality of users, respectively, and as shown, may be indicated by a number or may be indicated by a letter.
  • the user in response to a voice requesting confirmation of which user among users included in the profile list, the user may utter a voice for selecting a specific user (2022). For example, the user may speak the identification mark negatively.
  • the user may select an identification mark by uttering a second or second to select a second user in the profile list (2023, 2024).
  • the controller 110 may analyze the user's voice through a voice recognition function.
  • the controller 110 transmits the voice data of the user to the first server SV1 and receives information analyzed by the first server SV1 to analyze the intention of the user. I can figure it out.
  • the controller 110 of the refrigerator 1 may analyze the user's voice and determine the user's intention using the voice recognition function.
  • the controller 110 may determine a user name corresponding to the identification mark uttered by the user, and display the determined user's calendar on the display 120. That is, the controller 110 determines the mother as the user corresponding to the identification mark of the second or the second uttered by the user, and displays the mother's current month's calendar on the display 120 as shown in FIG. 18 (2030). ).
  • the user may say a user name that is not an identification mark (2025).
  • the controller 110 may display the voice recognition UI on the display 120 in response to the user's speech, and display the text ⁇ Please tell the profile number> on the voice recognition UI. (2026).
  • the controller 110 may output the text displayed on the voice recognition UI as a voice through the speaker 181 using the TTS function.
  • the controller 110 displays the voice recognition UI on the display 120 to display the text " Correct information cannot be obtained. &Quot; May be displayed on the voice recognition UI (2028).
  • the controller 110 may output the text displayed on the voice recognition UI as a voice through the speaker 181 using the TTS function.
  • the controller 110 may display the speech recognition UI on the display 120 in response to the user's speech called ⁇ cancel>, and display the text ⁇ canceled> on the speech recognition UI.
  • the controller 110 may output the text displayed on the voice recognition UI as a voice through the speaker 181 using the TTS function.
  • a user may request the provision of information stored differently for each user without referring to a specific user.
  • the controller 110 of the refrigerator 1 analyzes the input voice through a voice recognition function. To grasp the intentions.
  • the controller 110 of the refrigerator 1 may analyze a user's voice by using a voice recognition function, and transmit voice data to the first server SV1 to obtain analysis information of the voice data from the first server SV1. May be received.
  • the controller 110 of the refrigerator 1 compares the voice data with voice data of the pre-stored users and determines whether there is a matching voice data (2041).
  • the controller 110 of the refrigerator 1 compares a parameter such as amplitude, waveform, frequency, or period of the voice data input through the microphone 182 with a parameter of pre-stored voice data, and selects a microphone ( In operation 182, voice data that may be considered to match the input voice data may be determined.
  • the controller 110 may display the user's calendar indicated by the determined voice data on the display 120. May be 2042. For example, if the matched voice data among the pre-stored voice data is determined to be the mother's, the controller 110 may display the mother's current month's calendar on the display 120.
  • the controller 110 determines that there is no voice data that can be considered to be matched (NO in 2041), as shown in FIG. 19, the controller 110 displays the voice recognition UI on the display 120 to display the text ⁇ Please select a profile>. It may be displayed on the voice recognition UI (2021). In addition, the controller 110 may output the text displayed on the voice recognition UI as a voice through the speaker 181 using the TTS function. The controller 110 may display a profile list of a user registered in advance in the refrigerator 1 together with the voice recognition UI.
  • the user in response to a voice requesting confirmation of which user among users included in the profile list, the user may utter a voice for selecting a specific user (2022). For example, the user may speak the identification mark negatively.
  • the user may select an identification mark by uttering a second or second to select a second user in the profile list (2023, 2024).
  • the controller 110 may determine a user name corresponding to the identification mark uttered by the user, and display the determined user's calendar on the display 120. That is, the controller 110 determines the mother as the user corresponding to the identification mark of the second or the second uttered by the user, and displays the mother's current month's calendar on the display 120 as shown in FIG. 18 (2030). ).
  • the user may say a user name that is not an identification mark (2025).
  • the controller 110 may display the voice recognition UI on the display 120 in response to the user's speech, and display the text ⁇ Please tell the profile number> on the voice recognition UI. (2026).
  • the controller 110 may output the text displayed on the voice recognition UI as a voice through the speaker 181 using the TTS function.
  • the controller 110 displays the voice recognition UI on the display 120 to display the text " Correct information cannot be obtained. &Quot; May be displayed on the voice recognition UI (2028).
  • the controller 110 may output the text displayed on the voice recognition UI as a voice through the speaker 181 using the TTS function.
  • the refrigerator 1 identifies and identifies the user according to the method shown in FIG. 20 even if the user does not refer to a specific user but requires the provision of information stored differently for each user. It can provide information suitable for the user.
  • 21A is a block diagram of a controller for data learning and recognition according to an embodiment.
  • the controller 2100 may include a data learner 2110 and a data recognizer 2120.
  • the controller 2100 may be the controller 110 of the refrigerator 1.
  • the controller 2100 may be a controller (not shown) of the first server SV1.
  • the data learner 2110 may train the learning network model to have a criterion for recognizing voice data. For example, the data learner 2110 may train the learning network model to have a criterion for recognizing a food name corresponding to the first voice or an identification mark corresponding to the second voice. Alternatively, the data learner 2110 may train the learning network model to have a reference for recognizing an image. For example, the data learner 2110 may train the learning network model to have a criterion for recognizing food stored in the storage room from an image of the storage room of the refrigerator 1.
  • the data learner 2110 may train a learning network model (or a data recognition model) using learning data according to a supervised learning method or an unsupervised learning method based on an artificial intelligence algorithm.
  • the data learner 2110 may train the learning network model using the voice data and the text corresponding to the voice data (for example, a food name and an identification mark) as the training data.
  • the data learner 2110 may train the learning network model using the voice data and the user information that uttered the voice data as the training data.
  • the data learner 2110 may train the learning network model using image data and text (eg, a food name) corresponding to the image data as learning data.
  • the data recognizer 2120 may recognize the voice data by applying the voice data as the recognition data to the learned learning network model.
  • the data recognizer 2120 may recognize food names or identification marks corresponding to the voice data by applying voice data related to the first voice or the second voice as recognition data to the learning network model.
  • the recognition result of the learning network model (or data recognition model) may be used again to update the learning network model.
  • the data recognizer 2120 may recognize the user who spoke the voice data by applying the voice data as the recognition data to the learning network model.
  • the data recognizing unit 2120 may recognize the image data by applying the image data of the storage room 20 as the recognition data to the learned learning network model.
  • the data recognizing unit 2120 may apply image data as recognition data to the learning network model to recognize a food name corresponding to the image data.
  • At least one of the data learner 2110 and the data recognizer 2120 may be manufactured in the form of at least one hardware chip and mounted on the electronic device.
  • at least one of the data learner 2110 and the data recognizer 2120 may be manufactured in the form of a dedicated hardware chip for artificial intelligence (AI), or an existing general purpose processor (eg, a CPU).
  • the electronic device may be manufactured as a part of an application processor or a graphics dedicated processor (eg, a GPU) and mounted on the aforementioned various electronic devices.
  • a dedicated hardware chip for artificial intelligence is a dedicated processor specialized for probability calculation, and has higher parallelism performance than a conventional general-purpose processor, so that a computational task in artificial intelligence such as machine learning can be processed quickly.
  • the data learner 2110 and the data recognizer 2120 may be mounted on one electronic device or may be mounted on separate electronic devices, respectively.
  • one of the data learner 2110 and the data recognizer 2120 may be included in the refrigerator 1, and the other may be included in the server SV1.
  • the data learner 2110 and the data recognizer 2120 may provide at least a part of the learning network model constructed by the data learner 2110 to the data recognizer 2120 through wired or wirelessly. Data input to the data recognizer 2120 may be provided to the data learner 2110 as additional learning data.
  • At least one of the data learner 2110 and the data recognizer 2120 may be implemented as a software module.
  • the software module may be a computer readable non-transitory computer. It may be stored in a non-transitory computer readable media.
  • at least one software module may be provided by an operating system (OS) or by a predetermined application.
  • OS operating system
  • OS operating system
  • others may be provided by a predetermined application.
  • 21B is a detailed block diagram of the data learner 2110 and the data recognizer 2120, according to an exemplary embodiment.
  • FIG. 21B is a block diagram of the data learner 2110, according to an exemplary embodiment.
  • the data learner 2110 may include a data acquirer 2110-1, a preprocessor 2110-2, a training data selector 2110-3, and a model.
  • the learning unit 2110-4 and the model evaluating unit 2110-5 may be included.
  • the data learner 2110 according to some exemplary embodiments may include a data acquirer 2110-1 and a model learner 2110-4, and include a preprocessor 2110-2 and a training data selector 2110-. 3) and at least one of the model evaluator 2110-5 may optionally be further included or not included at all.
  • the data acquirer 2110-1 may acquire data necessary for learning a criterion for recognizing voice data or image data.
  • the data acquirer 2110-1 may acquire audio data or video data.
  • the data acquirer 2110-1 may acquire audio data or image data from the refrigerator 1.
  • the data acquisition unit 2110-1 may acquire audio data or video data from a third device (eg, a mobile terminal or a server) connected to the refrigerator 1.
  • the data acquirer 2110-1 may acquire audio data or image data from a device or database storing or managing learning data.
  • the preprocessor 2110-2 may preprocess audio data or video data.
  • the preprocessor 2110-2 may process the acquired audio data or the image data into a preset format so that the model learner 2110-4 to be described later can use the acquired data for learning for situation determination. Can be.
  • the preprocessor 2110-2 may remove noise or process the audio data or the image data acquired by the data acquirer 2110-1 so as to select meaningful data or to process a predetermined form. Can be.
  • the preprocessor 2110-2 may process the acquired data in the form of data suitable for learning.
  • the training data selector 2110-3 may select voice data or video data required for learning from the preprocessed data according to a preset criterion or randomly.
  • the selected training data may be provided to the model learner 2110-4.
  • the preset criterion may include, for example, at least one of a property of data, a time for generating data, a place for generating data, a device for generating data, reliability of data, and a size of data.
  • training data selector 2110-3 may select the training data according to a preset criterion by the training by the model learner 2110-4 to be described later.
  • the model learner 2110-4 may train the learning network model to have a criterion for recognizing the voice data or the image data based on the training data. For example, the model learner 2110-4 may train the learning network model to have a criterion for recognizing a food name or an identification mark corresponding to the voice data. For example, the model learner 2110-4 may train the learning network model to have a criterion for recognizing food stored in the storage room from image data photographing the storage room of the refrigerator 1.
  • the learning network model may be a pre-built model.
  • the learning network model may be a model built in advance by receiving basic learning data (for example, sample image data or audio data).
  • the learning network model may be set to recognize (or determine, estimate, infer, predict) a food name or an identification mark corresponding to the voice.
  • the learning network model may be set to recognize (or determine, estimate, reason, predict) the user who spoke the voice.
  • the learning network model may be set to recognize (or determine, estimate, infer, predict) the food stored in the storage room from the image data.
  • the learning network model may be, for example, a model based on a neural network.
  • the learning network model can be designed to simulate the human brain structure on a computer.
  • the learning network model may include a plurality of weighted network nodes that simulate neurons in a human neural network.
  • a plurality of network nodes may form a connection relationship to simulate the synaptic activity of neurons that send and receive signals through synapses.
  • the learning network model may include, for example, a neural network model or a deep learning model developed from the neural network model.
  • a plurality of network nodes may be located at different depths (or layers) and exchange data according to a convolutional connection relationship.
  • models such as Deep Neural Network (DNN), Recurrent Neural Network (RNN), and Bidirectional Recurrent Deep Neural Network (BRDNN) may be used as the learning network model, but are not limited thereto.
  • the model learning unit 2110-4 may be a learning network model for learning a learning network model having a large correlation between input learning data and basic learning data. You can decide.
  • the model learner 2110-4 may train the learning network model using, for example, a learning algorithm including an error back-propagation method or a gradient descent method. .
  • the model learner 2110-4 may train the learning network model through, for example, supervised learning using learning data as an input value.
  • the model learner 2110-4 may train the learning network model through unsupervised learning that finds a criterion by learning by itself without any guidance.
  • the model learner 2110-4 may train the learning network model through, for example, reinforcement learning using feedback on whether the result of learning is correct.
  • the model learner 2110-4 may store the learned learning network model.
  • the model learner 2110-4 may store the learned learning network model in the storage 130 of the refrigerator 1.
  • the model learner 2110-4 may store the learned learning network model in a memory of the server SV1 or the server SV2 connected to the refrigerator 1 through a wired or wireless network.
  • the storage unit 130 in which the learned learning network model is stored may store, for example, instructions or data related to at least one other component of the refrigerator 10.
  • the memory may also store software and / or programs.
  • the program may include, for example, a kernel, middleware, an application programming interface (API) and / or an application program (or “application”), and the like.
  • the model evaluator 2110-5 may input the evaluation data into the learning network model, and cause the model learner 2110-4 to relearn if the recognition result output from the evaluation data does not satisfy a predetermined criterion. have.
  • the evaluation data may be preset data for evaluating the learning network model.
  • the model evaluator 2110-5 may determine a predetermined criterion when the number or ratio of the evaluation data that is not accurate among the recognition results of the learned learning network model for the evaluation data exceeds a preset threshold. It can be evaluated as not satisfied. For example, when a predetermined criterion is defined at a ratio of 2%, the model evaluation unit 2110-5 when the learned learning network model outputs an incorrect recognition result for more than 20 evaluation data out of a total of 1000 evaluation data. Can be judged that the learned learning network model is not suitable.
  • the model evaluator 2110-5 evaluates whether a predetermined criterion is satisfied for each learned learning network model, and the model that satisfies the predetermined criterion is a final learning network. Can be determined as a model. In this case, when there are a plurality of models satisfying a predetermined criterion, the model evaluator 2110-5 may determine any one or a predetermined number of models which are preset in the order of the highest evaluation score as the final learning network model.
  • At least one of -5) may be manufactured in the form of at least one hardware chip and mounted on the electronic device.
  • at least one of the data acquirer 2110-1, the preprocessor 2110-2, the training data selector 2110-3, the model learner 2110-4, and the model evaluator 2110-5 One may be manufactured in the form of a dedicated hardware chip for artificial intelligence (AI), or may be manufactured as a part of an existing general purpose processor (eg, a CPU or application processor) or a graphics dedicated processor (eg, a GPU). It may be mounted on various electronic devices.
  • AI artificial intelligence
  • the data obtaining unit 2110-1, the preprocessor 2110-2, the training data selecting unit 2110-3, the model learning unit 2110-4, and the model evaluating unit 2110-5 are electronic components. It may be mounted on the device, or may be mounted on separate electronic devices, respectively.
  • some of the data acquirer 2110-1, the preprocessor 2110-2, the training data selector 2110-3, the model learner 2110-4, and the model evaluator 2110-5. May be included in the refrigerator 1 and the remaining part may be included in the server SV1 or the server SV2.
  • At least one of the data acquirer 2110-1, the preprocessor 2110-2, the training data selector 2110-3, the model learner 2110-4, and the model evaluator 2110-5 is provided. It may be implemented as a software module. At least one of the data acquirer 2110-1, the preprocessor 2110-2, the training data selector 2110-3, the model learner 2110-4, and the model evaluator 2110-5 is a software module. (Or a program module including instructions), the software module may be stored in a computer readable non-transitory computer readable media. In this case, at least one software module may be provided by an operating system (OS) or by a predetermined application. Alternatively, some of the at least one software module may be provided by an operating system (OS), and others may be provided by a predetermined application.
  • OS operating system
  • OS operating system
  • some of the at least one software module may be provided by an operating system (OS), and others may be provided by a predetermined application.
  • FIG. 21B is a block diagram of the data recognition unit 2120 according to an embodiment.
  • the data recognizer 2120 may include a data acquirer 2120-1, a preprocessor 2120-2, a recognition data selector 2120-3, and a recognizer.
  • the result providing unit 2120-4 and the model updating unit 2120-5 may be included.
  • the data recognizer 2120 essentially includes a data acquirer 2120-1 and a recognition result provider 2120-4, and includes a preprocessor 2120-2 and a recognition data selector ( 2120-3) and the model updater 2120-5 may optionally be further included.
  • the data recognizer 2120 may apply the voice data to the learned learning network model as the recognition data, and may recognize a food name corresponding to the voice data, a food label, or a user who utters the voice data. Alternatively, the data recognizing unit 2120 may recognize the food stored in the storage room 20 of the refrigerator 1 by applying the image data to the learned learning network model as the recognition data.
  • the data acquirer 2120-1 may acquire voice data necessary for recognizing a user who spoke a food name, a food label, or a voice from the voice data.
  • the data acquirer 2120-1 may acquire image data necessary for recognizing food from the image data.
  • the data acquirer 2120-1 may acquire various sensing information that is directly input by the user or data selected by the user, or sensed using various sensors of the refrigerator 1.
  • the data acquisition unit 2120-1 may acquire data from an external device (eg, a mobile terminal or a server) that communicates with the refrigerator 1.
  • the preprocessor 2120-2 may preprocess audio data or video data.
  • the preprocessor 2120-2 may process the acquired audio data or the image data into a predetermined format so that the recognition result providing unit 2120-4 to be described later can use the data for situation determination.
  • the preprocessor 2120-2 may remove noise or process the audio data or the image data acquired by the data acquirer 2120-1 so that meaningful data can be selected or processed into a predetermined form. Can be.
  • the preprocessor 2120-2 may process the acquired data into a form of data suitable for learning.
  • the recognition data selector 2120-3 may select voice data or image data required for recognition from the preprocessed data according to a preset criterion or randomly.
  • the selected recognition data may be provided to the model learner 2110-4.
  • the preset criterion may include, for example, at least one of a property of data, a time for generating data, a place for generating data, a device for generating data, reliability of data, and a size of data.
  • the recognition result providing unit 2120-4 may apply the selected recognition data to the learning network model to recognize the recognition network.
  • the recognition result providing unit 2120-4 may apply the selected voice data to the learning network model to recognize a food name or an identification mark corresponding to the voice.
  • the recognition result providing unit 2120-4 may recognize the user who spoke the voice by applying the selected voice data to the learning network model.
  • the recognition result providing unit 2120-4 may recognize the food corresponding to the image data by applying the selected image data to the learning network model.
  • the model updater 2120-5 may cause the learning network model to be updated based on the evaluation of the recognition result provided by the recognition result provider 2120-4.
  • the model updater 2120-5 provides the model learner 2110-4 by providing the food name, the identification mark, or the user information provided by the recognition result provider 2120-4 to the model learner 2110-4.
  • 2110-4 may update the learning network model.
  • At least one of 2120-5 may be manufactured in the form of at least one hardware chip and mounted on the electronic device.
  • the preprocessor 2120-2, the recognition data selector 2120-3, the recognition result provider 2120-4, and the model updater 2120-5 may be fabricated in the form of a dedicated hardware chip for artificial intelligence (AI), or may be fabricated as part of an existing general purpose processor (e.g., CPU or application processor) or graphics dedicated processor (e.g., GPU). It may be mounted on various electronic devices.
  • AI artificial intelligence
  • the data acquisition unit 2120-1, the preprocessor 2120-2, the recognition data selection unit 2120-3, the recognition result providing unit 2120-4, and the model updater 2120-5 may be mounted on an electronic device, or may be mounted on separate electronic devices, respectively.
  • the preprocessor 2120-2, the recognition data selector 2120-3, the recognition result provider 2120-4, and the model updater 2120-5 may be included in the electronic device, and others may be included in the server.
  • At least one of the data acquirer 2120-1, the preprocessor 2120-2, the recognition data selector 2120-3, the recognition result provider 2120-4, and the model updater 2120-5 May be implemented as a software module.
  • At least one of the data acquisition unit 2120-1, the preprocessor 2120-2, the recognition data selection unit 2120-3, the recognition result providing unit 2120-4, and the model updater 2120-5 is software.
  • the software module When implemented as a module (or a program module including instructions), the software module may be stored on a computer readable non-transitory computer readable media.
  • at least one software module may be provided by an operating system (OS) or by a predetermined application.
  • some of the at least one software module may be provided by an operating system (OS), and others may be provided by a predetermined application.
  • FIG. 22 is a flowchart of a refrigerator 1 displaying information according to an embodiment of the present disclosure.
  • the refrigerator 1 may determine whether a first voice including a food name is input through the microphone 182 (2201).
  • the refrigerator 1 displays the food list including food information corresponding to the food name and an identification mark for identifying the food information, based on the recognition of the first voice.
  • the display 120 may display the same.
  • the refrigerator 1 acquires a food name by recognizing the first voice by using a learning network model trained according to an artificial intelligence algorithm, and includes food information corresponding to the food name.
  • the list may be displayed on the display 120.
  • the learning network model may be a learning network model trained using a plurality of voices and a plurality of words corresponding to each of the plurality of voices.
  • the refrigerator 1 acquires a food name and user information uttering the first voice by recognizing the first voice by using a network model trained according to an artificial intelligence algorithm.
  • the display 120 may display a food list corresponding to the food information including food information related to the user information (for example, food information preferred by the user).
  • the learning network model may be a learning network model trained using a plurality of voices and user information corresponding to each of the plurality of voices.
  • the refrigerator 1 may display a food list including food information corresponding to the food name on the display. On the other hand, if food is present in the storage compartment 20, the refrigerator 1 may display on the display 120 information indicating that the food associated with the recognized food name exists in the storage compartment of the refrigerator 1.
  • the refrigerator 1 may determine whether a second voice indicating an identification mark is input through the microphone 182 (2203).
  • the refrigerator 1 transmits purchase information of at least one food item corresponding to the identification mark to the display 120 located in front of the refrigerator 1 based on the recognition of the second voice. It may be displayed (2204).
  • the refrigerator 1 acquires an identification mark by recognizing the second voice using a learning network model trained according to an artificial intelligence algorithm, and purchases food information corresponding to the identification mark. Can be displayed on the display.
  • FIG. 23 is a flowchart of a network system according to an embodiment of the present disclosure.
  • the network system may include a first component 2301 and a second component 2302.
  • the first component 2301 is the refrigerator 1
  • the second component 2302 may be a server SV1 in which a data recognition model is stored or a cloud including at least one server.
  • the first component 2301 may be a general purpose processor
  • the second component 2302 may be an artificial intelligence dedicated processor.
  • the first component 2301 may be at least one application
  • the second component 2302 may be an operating system (OS). That is, the second component 2302 is a component that is more integrated, dedicated, has a smaller delay, has a higher performance, or has more resources than the first component 2301. It can be a component that can process many operations required at the time of generation, update or application of the faster than the first component 2301.
  • an interface for transmitting / receiving data between the first component 2301 and the second component 2302 may be defined.
  • an application program interface having recognition data to be applied to the data recognition model as an argument value (or, a parameter value or a transfer value) may be defined.
  • An API is defined as a set of subroutines or functions that can be called for any processing of one protocol (e.g., a protocol defined in the refrigerator 1) to another protocol (e.g., a protocol defined in the server SV1). Can be. That is, an environment in which an operation of another protocol may be performed in one protocol through an API may be provided.
  • the first component 2301 may receive a first voice of a user including a food name through the microphone 182 (2310).
  • the first component 2301 may modulate the input analog voice signal into voice data which is a digital signal and transmit the same to the second component 2302. In this case, the first component 2301 may change the voice data according to the promised communication format and transmit the voice data to the second component 2302 (2311).
  • the second component 2302 may recognize the received voice data (2312). For example, the second component 2302 may apply the received voice data to the learned learning network model to recognize the voice data and obtain recognition information as a recognition result. For example, the second component 2302 may obtain the food name and the user information that spoke the voice from the voice data. The second component 2302 may transmit the obtained recognition information to the first component 2301 (2313).
  • the first component 2301 may obtain information requested by the voice data, based on the received recognition information (2314). For example, the first component 2301 may obtain food information corresponding to the food name from the storage of the first component 2301 or the third component 2303 as information requested by the voice data. It may be.
  • the third component 2303 may be, for example, a server in communication connection with the first component 2301.
  • the server may be a server SV2 transmitting information requested by voice data in FIGS. 9 and 10.
  • the second component 2302 may directly transmit the recognized recognition information to the third component 2303 without passing through the first component 2301 (2323).
  • the third component 2303 may acquire the information requested by the voice data based on the received recognition information, and transmit the information requested by the acquired voice data to the first component 2301 (2324).
  • the first component 2301 may obtain information requested by the voice data from the third component 2303.
  • the first component 2301 may include food information corresponding to a food name and an identification mark for identifying the food information as the information requested by the voice data.
  • the list of foods to be included may be displayed (2315).
  • the first component 2301 displays purchase information of at least one food corresponding to the identification mark. can do.
  • 24 is a view illustrating a method of purchasing food by a user through a refrigerator according to another embodiment of the present disclosure.
  • a first voice for ordering a specific food may be input through the microphone 182 (980).
  • the controller 110 may recognize the first voice including the food name. As a result of the recognition, the controller 110 may obtain user information that uttered the recognized food name and the first voice.
  • the controller 110 may obtain food information preferred by the user who spoke the first voice in relation to the food name (981).
  • the controller 110 may display on the display 120 a food list including an identification mark for distinguishing the plurality of food information and the plurality of food information that the user prefers ( 982).
  • a second voice indicating a specific identification mark among the identification marks included in the food list may be input (983).
  • the controller 110 may recognize the second voice including the identification mark. As a result of the recognition, the controller 110 may display the purchase information of the food corresponding to the identification mark on the display 120 (984).
  • a third voice for requesting purchase of food through the microphone 182 may be input (985).
  • the third voice requesting the purchase of food may be, for example, a voice spoken by the user as " purchase immediately ".
  • the controller 110 may recognize the third voice.
  • the controller 110 may display, on the display 120, a UI (for example, a UI for payment) for purchasing food as a result of recognizing the third voice.
  • the controller 110 may control the communication unit 140 to transmit a message informing the purchase situation to the external device 986-1 (986).
  • the message indicating the purchase status may include, for example, a message requesting confirmation of whether to purchase the food before purchasing the food, a message requesting input of a password for purchasing the food, or a message indicating a purchase result after the purchase of the food. have.
  • the controller 110 may acquire at least one of the first voice to the third voice to obtain user information uttering the voice.
  • the controller 110 may transmit a message informing the purchase situation to the user's device corresponding to the user information by using the obtained user information.
  • the controller 110 may transmit a message informing the information about the stored food to the user's device.
  • the controller 110 may transmit a message to the device of the guardian of the user who spoke the voice. For example, if the person who ordered the food is a child, the controller 110 may transmit a message informing the above-described purchase situation to the parent device of the child.
  • the external device 986-1 receiving the message may display the purchase status as text, provide a voice, display an image, display haptic or emit light.
  • the manner of notifying the purchase situation is not limited to the above example.
  • the controller 110 may notify a purchase situation to an external device 986-1 that is previously set or communicates with the refrigerator 1. Can also be transmitted. Alternatively, the controller 110 may transmit a message informing the purchase situation to the external device 986-1 that satisfies the preset criteria. At this time, the external device 986-1 that satisfies the preset criteria is located at a predetermined place (for example, a living room, a room, etc.), the signal strength communicating with the refrigerator 1 is greater than or equal to a predetermined value, or the refrigerator 1
  • the target device may be an external device having a distance from the predetermined distance.
  • the preset reference may be an external device 986-1 connected to the refrigerator 1 according to a specific communication method.
  • the specific communication method may include, for example, a short range communication method (eg, Wi-Fi, Bluetooth, Zigbee, etc.) or a direct communication method.
  • the controller 110 sends a push message indicating a purchase status through a communication channel established according to the short range communication method. (986-1).
  • module includes, for example, a unit composed of a combination of one or more of hardware, software, or firmware, for example, a logic, a logical block.
  • block may be used interchangeably.
  • the module may be an integrally formed part or a minimum unit or part of performing one or more functions.
  • Modules may be implemented mechanically or electronically, for example, application-specific integrated circuit (ASIC) chips, field-programmable gate arrays (FPGAs) or programs that perform some operations, known or will be developed in the future. It may include a programmable-logic device.
  • ASIC application-specific integrated circuit
  • FPGAs field-programmable gate arrays
  • the methods described above may be embodied in the form of program instructions that may be executed by various computer means and may be recorded in a computer readable medium.
  • the computer readable medium may include program instructions, data files, data structures, etc. alone or in combination.
  • Program instructions recorded on the media may be those specially designed and constructed for the purposes of the present invention, or they may be of the kind well-known and available to those having skill in the computer software arts.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks.
  • Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.
  • the hardware device may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.
  • the method according to the disclosed embodiments may be provided as a computer program product.
  • the computer program product may include a S / W program, a computer readable storage medium on which the S / W program is stored, or a food product traded between a seller and a buyer.
  • a computer program product may be a food product (eg, a downloader) in the form of a S / W program distributed electronically through a refrigerator 1, a server SV1, a server SV2 or a manufacturer of the device, or an application store.
  • a loadable app For electronic distribution, at least a part of the S / W program may be stored in a storage medium or temporarily generated.
  • the storage medium may be a server of a manufacturer or an application store or a storage medium of a relay server.

Abstract

A refrigerator comprises: a storage chamber for storing food; a temperature sensing unit for sensing the temperature inside the storage chamber; a cooling unit for supplying cool air to the storage chamber; a display for displaying information; a microphone for receiving a voice; at least one processor electrically connected with the temperature sensing unit, the microphone, and the display; and a memory electrically connected with the at least one processor. The memory stores at least one instruction set such that the processor displays, on the display: a food list including food information, corresponding to a food name, and an identification indicator capable of identifying the food information, when a first voice including the food name is recognized through the microphone; and purchase information of at least one food corresponding to the identification indicator when a second voice indicating the identification indicator is recognized through the microphone.

Description

냉장고 및 이의 정보 표시 방법Refrigerator and its information display method
개시된 발명은 냉장고 및 냉장고의 정보 표시 방법에 관한 것으로써, 더욱 상세하게는 외부 장치와 통신할 수 있는 냉장고 및 냉장고의 정보 표시 방법에 관한 발명이다.The disclosed invention relates to a refrigerator and a method of displaying information of a refrigerator, and more particularly, to a refrigerator and a method of displaying information of a refrigerator that can communicate with an external device.
또한, 본 개시는 기계 학습 알고리즘을 활용하여 인간 두뇌의 인지, 판단 등의 기능을 모사하는 인공 지능(Artificial Intelligence, AI) 시스템 및 그 응용에 관한 것이다.In addition, the present disclosure relates to an artificial intelligence (AI) system and its application for simulating functions such as recognition and judgment of the human brain using a machine learning algorithm.
최근 냉장고는 저장실의 온도 및 냉장고의 동작 모드를 표시하기 위한 디스플레이를 포함한다.Recently, a refrigerator includes a display for displaying a temperature of a storage compartment and an operation mode of the refrigerator.
이러한 디스플레이는 그래픽 유저 인터페이스를 이용하여 사용자가 영상 정보를 쉽게 획득할 수 있도록 할 뿐만 아니라, 터치 패널을 이용하여 사용자가 직관적으로 제어 명령을 입력할 수 있도록 한다. 다시 말해, 최근 디스플레이는 정보 표시 기능뿐만 아니라, 정보 입력 기능까지 수행한다.Such a display not only enables a user to easily acquire image information using a graphical user interface, but also allows a user to intuitively input a control command using a touch panel. In other words, the recent display performs not only an information display function but also an information input function.
뿐만 아니라, 최근 냉장고는 외부 장치(예를 들어, 인터넷에 접속된 서버)에 접속하기 위한 통신 모듈을 포함한다.In addition, recent refrigerators include a communication module for connecting to an external device (eg, a server connected to the Internet).
냉장고는 통신 모듈을 통하여 인터넷에 접속하고, 인터넷에 접속된 여러 서버로부터 다양한 정보를 획득하고, 획득된 정보를 기초로 다양한 서비스를 제공할 수 있다. 예를 들어, 냉장고는 인터넷을 통하여 식품의 정보, 식품의 조리법 등 식품과 관련된 정보를 제공할 뿐만 아니라, 인터넷 쇼핑 등 다양한 서비스를 제공할 수 있다.The refrigerator may access the Internet through a communication module, obtain various information from various servers connected to the Internet, and provide various services based on the obtained information. For example, the refrigerator may provide not only information related to food such as food information and recipe of food through the Internet, but also various services such as internet shopping.
이처럼, 냉장고는 디스플레이와 통신 모듈을 통하여 보다 다양한 서비스를 사용자에게 제공하고 있다.As such, the refrigerator provides more various services to the user through the display and the communication module.
또한, 최근에는 기존의 규칙 기반 스마트 시스템과 달리 기계가 스스로 학습하고 판단하며 똑똑해지는 시스템인 인공 지능 기술이 확산되고 있다. 인공 지능 시스템은 인간 수준의 지능을 구현하는 컴퓨터 시스템이며, 기존의 규칙 기반 스마트 시스템과 달리 기계가 스스로 학습하고 판단하며 똑똑해지는 시스템이다. 인공지능 시스템은 사용할수록 인식률이 향상되고 사용자의 취향을 더욱 정확하게 이해할 수 있게 된다. 따라서, 기존의 규칙 기반 스마트 시스템은 점차 딥러닝 기반의 인공지능 시스템으로 대체되고 있다.Recently, artificial intelligence technology, which is a system in which a machine learns itself, judges itself, and becomes smart, unlike a conventional rule-based smart system, is spreading. An artificial intelligence system is a computer system that implements human-level intelligence. Unlike conventional rule-based smart systems, an artificial intelligence system is a machine that learns, judges, and becomes smart. The more artificial intelligence systems are used, the better the recognition rate and the more accurate the user's taste will be. Therefore, the existing rule-based smart system is gradually being replaced by artificial intelligence system based on deep learning.
인공 지능 기술은 기계 학습(예로, 딥러닝) 및 기계 학습을 활용한 요소 기술들을 포함할 수 있다. 기계 학습은 입력 데이터들의 특징을 스스로 분류하여 학습하는 알고리즘 기술이다. 요소 기술은 기계 학습 알고리즘을 활용하는 기술로서, 언어적 이해, 시각적 이해, 추론/예측, 지식 표현, 동작 제어 등의 기술 분야로 구성될 수 있다.Artificial intelligence techniques may include elementary techniques utilizing machine learning (eg, deep learning) and machine learning. Machine learning is an algorithmic technique for classifying and learning features of input data. Element technology is a technology using a machine learning algorithm, and may be composed of technical fields such as linguistic understanding, visual understanding, inference / prediction, knowledge representation, and motion control.
인공 지능 기술이 응용되는 다양한 분야는 다음과 같다. 언어적 이해는 인간의 언어/문자를 인식하고 응용/처리하는 기술로서, 자연어 처리, 기계 번역, 대화 시스템, 질의응답, 음성 인식/합성 등을 포함한다. 시각적 이해는 사물을 인간의 시각처럼 인식하여 처리하는 기술로서, 객체 인식, 객체 추적, 영상 검색, 사람 인식, 장면 이해, 공간 이해, 영상 개선 등을 포함한다. 추론/예측은 정보를 판단하여 논리적으로 추론하고 예측하는 기술로서, 지식/확률 기반 추론, 최적화 예측, 선호 기반 계획, 추천 등을 포함한다. 지식 표현은 인간의 경험 정보를 지식 데이터로 자동화 처리하는 기술로서, 지식 구축(데이터 생성/분류), 지식 관리(데이터 활용) 등을 포함한다. 동작 제어는 차량의 자율 주행, 로봇의 움직임 등을 제어하는 기술로서, 움직임 제어(항법, 충돌, 주행), 조작 제어(행동 제어) 등을 포함한다.The various fields in which artificial intelligence technology is applied are as follows. Linguistic understanding is a technique for recognizing and applying / processing human language / characters, including natural language processing, machine translation, dialogue system, question and answer, speech recognition / synthesis, and the like. Visual understanding is a technology that recognizes and processes objects as human vision, and includes object recognition, object tracking, image retrieval, person recognition, scene understanding, spatial understanding, and image enhancement. Inference / prediction is a technique for determining, logically inferring, and predicting information. It includes knowledge / probability-based inference, optimization prediction, preference-based planning, and recommendation. Knowledge representation is a technology that automates human experience information into knowledge data, and includes knowledge construction (data generation / classification) and knowledge management (data utilization). Motion control is a technology for controlling autonomous driving of a vehicle, movement of a robot, and the like, and includes motion control (navigation, collision, driving), operation control (action control), and the like.
개시된 발명의 일 측면은 음성 인식 기술을 이용하여 음성을 통해 명령을 전달받을 수 있고, 컨텐츠를 음성으로 출력할 수 있는 냉장고를 제공한다.One aspect of the disclosed invention provides a refrigerator capable of receiving a command through voice using voice recognition technology and outputting content in voice.
개시된 발명의 일 측면은 음성을 통한 명령으로 인터넷 쇼핑을 제공할 수 있는 냉장고를 제공한다.One aspect of the disclosed invention provides a refrigerator capable of providing internet shopping by command via voice.
개시된 발명의 일 측면은 복수의 사용자를 식별하여 식별된 사용자에 적합한 컨텐츠를 제공할 수 있는 냉장고를 제공한다.One aspect of the disclosed invention provides a refrigerator capable of identifying a plurality of users and providing content suitable for the identified user.
개시된 실시예에 따른 냉장고는 마이크로폰; 상기 마이크로폰을 통해 입력된 음성에 따른 정보를 표시하는 디스플레이; 및 식품명을 포함하는 제1음성이 인식되면, 상기 식품명에 대응하는 명칭을 갖는 식품 정보와 상기 식품을 식별할 수 있는 표지를 포함하는 리스트를 상기 디스플레이에 표시하고, 상기 표지 중 적어도 하나의 표지를 지칭하는 제2음성이 인식되면, 상기 제2음성에 포함된 표지가 나타내는 식품 정보를 상기 디스플레이에 표시하는 컨트롤러;를 포함한다.A refrigerator according to the disclosed embodiment may include a microphone; A display for displaying information according to a voice input through the microphone; And when a first voice including a food name is recognized, a list including food information having a name corresponding to the food name and a label for identifying the food, on the display, and displaying at least one of the labels. And a controller for displaying food information indicated by a label included in the second voice on the display when the second voice to be referred to is recognized.
또한, 상기 컨트롤러는, 상기 제1음성이 인식되면, 상기 디스플레이에 표시된 어플리케이션의 사용자 인터페이스 상에 상기 리스트를 카드 타입의 사용자 인터페이스 형태로 중첩하여 표시할 수 있다.In addition, when the first voice is recognized, the controller may display the list in the form of a card type user interface on the user interface of the application displayed on the display.
또한, 상기 컨트롤러는, 상기 제2음성이 인식되면, 상기 제2음성에 포함된 표지가 나타내는 식품 정보를 제공하는 어플리케이션을 실행하여 상기 어플리케이션이 제공하는 식품 정보를 디스플레이에 표시할 수 있다.In addition, when the second voice is recognized, the controller may execute an application for providing food information indicated by a label included in the second voice and display the food information provided by the application on a display.
또한, 통신부;를 더 포함하고, 상기 컨트롤러는 상기 제1음성이 인식되면, 상기 제1음성의 데이터를 상기 통신부를 통해 서버로 전송하고, 상기 통신부에서 상기 서버로부터 전송되는 상기 리스트에 대한 정보를 수신하면, 상기 리스트를 상기 디스플레이에 표시할 수 있다.The controller may further include a communication unit, and when the first voice is recognized, the controller transmits the first voice data to the server through the communication unit, and transmits information about the list transmitted from the server in the communication unit. Upon receipt, the list can be displayed on the display.
또한, 통신부;를 더 포함하고, 상기 컨트롤러는 상기 제2음성이 인식되면, 상기 제2음성의 데이터를 상기 통신부를 통해 서버로 전송하고, 상기 통신부에서 상기 서버로부터 전송되는 상기 식품 정보를 수신하면, 상기 식품 정보를 상기 디스플레이에 표시할 수 있다.The controller may further include a communication unit. When the second voice is recognized, the controller transmits the data of the second voice to the server through the communication unit, and receives the food information transmitted from the server in the communication unit. The food information may be displayed on the display.
또한, 통신부;를 더 포함하고, 상기 컨트롤러는 상기 제1음성이 인식되면, 상기 제1음성의 데이터를 상기 통신부를 통해 서버로 전송하고, 상기 서버로부터 전송되는 상기 제1음성에 대한 분석 정보를 상기 통신부에서 수신하면, 상기 분석 정보에 따른 작업 수행과 관련된 어플리케이션에 상기 분석 정보에 따른 지시를 전달하여, 상기 어플리케이션이 상기 리스트를 표시할 수 있도록 할 수 있다.The controller may further include a communication unit, and when the first voice is recognized, the controller transmits the first voice data to the server through the communication unit, and analyzes the analysis information on the first voice transmitted from the server. When received by the communication unit, an instruction according to the analysis information may be transmitted to an application related to performing a task according to the analysis information, so that the application may display the list.
또한, 통신부;를 더 포함하고, 상기 컨트롤러는 상기 제2음성이 인식되면, 상기 제2음성의 데이터를 상기 통신부를 통해 서버로 전송하고, 상기 서버로부터 전송되는 상기 제2음성에 대한 분석 정보를 상기 통신부에서 수신하면, 상기 분석 정보에 따른 작업 수행과 관련된 어플리케이션에 상기 분석 정보에 따른 지시를 전달하여, 상기 어플리케이션이 상기 식품 정보를 표시할 수 있도록 할 수 있다.The controller may further include a communication unit, and when the second voice is recognized, the controller transmits the data of the second voice to the server through the communication unit, and analyzes the analysis information on the second voice transmitted from the server. When received by the communication unit, an instruction according to the analysis information may be transmitted to an application related to performing work according to the analysis information, so that the application may display the food information.
또한, 상기 제1음성이 인식되어 상기 리스트가 디스플레이에 표시되면, 상기 리스트가 표시되었음을 나타내는 음성을 출력하고, 제2음성이 인식되어 상기 식품 정보가 상기 디스플레이에 표시되면, 상기 식품 정보가 표시되었음을 나타내는 음성을 출력하는 스피커;를 더 포함할 수 있다.In addition, when the first voice is recognized and the list is displayed on the display, a voice indicating that the list is displayed is output. When a second voice is recognized and the food information is displayed on the display, the food information is displayed. It may further include a speaker for outputting a voice indicating.
개시된 실시예에 따른 냉장고는 마이크로폰; 상기 마이크로폰을 통해 입력된 음성에 따른 정보를 표시하는 디스플레이; 음성을 출력하는 스피커; 및 마이크로폰을 통해 음성이 입력되면, 디스플레이에 표시된 어플리케이션에 대해 상기 입력된 음성이 나타내는 명령을 수행하고, 상기 어플리케이션에 대해 상기 입력된 음성이 나타내는 명령을 수행할 수 없으면, 상기 명령과 관련된 어플리케이션들에 대한 미리 정해진 우선순위에 따라, 다른 어플리케이션에 대해 상기 명령을 수행하는 컨트롤러;를 포함한다.A refrigerator according to the disclosed embodiment may include a microphone; A display for displaying information according to a voice input through the microphone; A speaker for outputting voice; And when a voice is input through the microphone, performs a command indicated by the input voice for the application displayed on the display, and if the command indicated by the input voice cannot be performed for the application, to the applications related to the command. And a controller for performing the command with respect to another application according to a predetermined priority.
또한, 상기 컨트롤러는 상기 어플리케이션에 대해 상기 입력된 음성이 나타내는 명령을 수행할 수 없으면, 상기 어플리케이션에 대해 상기 명령을 수행할 수 없음을 나타내는 음성을 상기 스피커를 통해 출력할 수 있다.In addition, when the controller cannot perform a command indicated by the input voice to the application, the controller may output a voice indicating that the command cannot be performed to the application through the speaker.
또한, 상기 컨트롤러는 상기 우선순위가 없는 경우, 다른 어플리케이션에 대해 상기 명령을 수행할지 여부에 대한 확인을 요청하는 음성을 스피커를 통해 출력할 수 있다.In addition, when there is no priority, the controller may output a voice requesting confirmation of whether to execute the command with respect to another application through a speaker.
또한, 상기 컨트롤러는 상기 확인 요청에 대한 답변이 입력되면 입력된 답변이 나타내는 어플리케이션에 대해 상기 음성이 나타내는 명령을 수행할 수 있다.In addition, when an answer to the confirmation request is input, the controller may execute a command indicated by the voice for an application indicated by the input answer.
또한, 상기 컨트롤러는 상기 어플리케이션에 대해 상기 입력된 음성이 나타내는 명령을 수행할 수 없으면, 상기 명령과 관련된 어플리케이션들에 대한 미리 정해진 우선순위에 따라 상기 명령을 수행할 어플리케이션을 결정하고, 상기 결정된 어플리케이션에 대해 상기 명령을 수행할 수 있다.In addition, when the controller cannot execute a command indicated by the input voice to the application, the controller determines an application to execute the command according to a predetermined priority for applications related to the command, and determines the application to the determined application. The command can be performed for
또한, 상기 컨트롤러는 마이크로폰을 통해 입력된 음성에 상기 음성이 나타내는 명령을 수행할 대상이 포함되어 있지 않으면, 상기 디스플레이에 표시된 어플리케이션에 대해 상기 입력된 음성이 나타내는 명령을 수행할 수 있다.The controller may perform a command indicated by the input voice for an application displayed on the display if the object inputted by the microphone does not include a target to perform the command indicated by the voice.
개시된 실시예에 따른 냉장고는 마이크로폰; 상기 마이크로폰을 통해 입력된 음성에 따른 정보를 표시하는 디스플레이; 음성을 출력하는 스피커; 및 마이크로폰을 통해 음성이 입력되면, 상기 음성이 나타내는 명령의 수행에 있어서 사용자 식별이 필요한 경우, 상기 디스플레이에 미리 등록된 사용자를 표시하고 상기 표시된 사용자 중에서 선택할 것을 요구하는 음성을 상기 스피커를 통해 출력하는 컨트롤러;를 포함한다.A refrigerator according to the disclosed embodiment may include a microphone; A display for displaying information according to a voice input through the microphone; A speaker for outputting voice; And when a voice is input through a microphone, when user identification is required in performing a command indicated by the voice, displaying a user registered in advance on the display and outputting a voice through the speaker requesting to select from the displayed users. Controller;
또한, 상기 컨트롤러는 상기 표시된 사용자 중에서 적어도 하나의 사용자를 선택하는 음성이 입력되면, 상기 선택된 사용자와 관련하여 상기 음성이 나타내는 명령을 수행하고, 그 결과를 상기 디스플레이에 표시할 수 있다.In addition, when a voice for selecting at least one user from among the displayed users is input, the controller may perform a command indicated by the voice in relation to the selected user, and display the result on the display.
또한, 상기 컨트롤러는 상기 음성이 나타내는 명령의 수행에 있어서 사용자 식별이 필요한 경우, 상기 디스플레이에 미리 등록된 사용자와 각 사용자를 식별할 수 있는 표지를 표시할 수 있다.In addition, when the user identification is required to perform the command indicated by the voice, the controller may display a user mark which is identified in advance on the display and each user.
또한, 상기 컨트롤러는 상기 표지 중 적어도 하나를 선택하는 음성이 입력되면, 상기 표지가 나타내는 사용자와 관련하여 상기 음성이 나타내는 명령을 수행하고 그 결과를 상기 디스플레이에 표시할 수 있다.In addition, when a voice for selecting at least one of the marks is input, the controller may perform a command indicated by the voice in relation to the user indicated by the mark and display the result on the display.
또한, 상기 컨트롤러는 마이크로폰을 통해 음성이 입력되면, 상기 음성에 사용자를 나타내는 표현이 포함되어 있는 경우, 상기 음성에 포함된 사용자와 관련하여 상기 음성이 나타내는 명령을 수행하고 그 결과를 상기 디스플레이에 표시할 수 있다.In addition, when a voice is input through a microphone, when the voice includes a representation representing a user, the controller performs a command indicated by the voice in relation to a user included in the voice and displays the result on the display. can do.
또한, 상기 컨트롤러는 마이크로폰을 통해 음성이 입력되면, 미리 저장된 음성 데이터 중 상기 입력된 음성에 매칭되는 음성 데이터가 나타내는 사용자와 관련하여 상기 음성이 나타내는 명령을 수행하고 그 결과를 상기 디스플레이에 표시할 수 있다.In addition, when a voice is input through a microphone, the controller may perform a command indicated by the voice in relation to a user represented by voice data matching the input voice among prestored voice data and display the result on the display. have.
개시된 발명의 일 측면은 음성 인식 기술을 이용하여 음성을 통해 명령을 전달받을 수 있고, 컨텐츠를 음성으로 출력할 수 있는 냉장고를 제공할 수 있다.An aspect of the disclosed invention can provide a refrigerator capable of receiving a command through voice using voice recognition technology and outputting content in voice.
개시된 발명의 일 측면은 음성을 통한 명령으로 인터넷 쇼핑을 제공할 수 있는 냉장고를 제공할 수 있다.One aspect of the disclosed invention may provide a refrigerator capable of providing internet shopping with a command via voice.
개시된 발명의 일 측면은 복수의 사용자를 식별하여 식별된 사용자에 적합한 컨텐츠를 제공할 수 있는 냉장고를 제공할 수 있다.One aspect of the disclosed invention may provide a refrigerator capable of identifying a plurality of users and providing content suitable for the identified user.
개시된 실시예에 따른 냉장고는 식품을 저장하는 저장실; 상기 저장실 내부의 온도를 감지하는 온도 감지부; 상기 저장실로 냉기를 공급하는 냉각부; 정보를 표시하는 디스플레이; 음성을 입력 받는 마이크로폰; 정보를 표시하는 디스플레이; 상기 온도 감지부, 상기 마이크로폰 및 상기 디스플레이와 전기적으로 연결되는 적어도 하나의 프로세서; 및 상기 적어도 하나의 프로세서와 전기적으로 연결되는 메모리를 포함한다.A refrigerator according to the disclosed embodiment includes a storage compartment for storing food; A temperature sensor for sensing a temperature inside the storage compartment; Cooling unit for supplying cold air to the storage compartment; A display for displaying information; A microphone for receiving a voice; A display for displaying information; At least one processor electrically connected to the temperature sensing unit, the microphone, and the display; And a memory electrically connected to the at least one processor.
또한, 상기 메모리는, 상기 프로세서가, 상기 마이크로폰을 통해 식품명을 포함하는 제1음성이 인식되면, 상기 식품명에 대응하는 식품 정보와, 상기 식품 정보를 식별할 수 있는 식별 표지를 포함하는 식품 리스트를 상기 디스플레이에 표시하고, 상기 마이크로폰을 통해 상기 식별 표지를 지칭하는 제2음성이 인식되면, 상기 식별 표지에 대응하는 적어도 하나의 식품의 구매 정보를 상기 디스플레이에 표시하도록 설정된 적어도 하나의 인스트럭션들을 저장한다.The memory may include a food list including food information corresponding to the food name and an identification mark for identifying the food information, when the processor recognizes the first voice including the food name through the microphone. If the second voice indicating the identification mark is recognized on the display and the microphone is recognized, the at least one instruction set to display purchase information of at least one food item corresponding to the identification mark is stored on the display. .
또한, 상기 메모리는, 상기 프로세서가, 상기 마이크로폰을 통해 상기 식품명을 포함하는 제1음성이 입력되면, 인공 지능 알고리즘에 따라 학습된 학습 네트워크 모델을 이용하여 상기 제1음성을 인식함으로써 상기 식품명을 획득하고, 상기 식품명에 대응하는 상기 식품 정보를 포함하는 상기 식품 리스트를 상기 디스플레이에 표시하도록 설정된 적어도 하나의 인스트럭션들을 저장할 수 있다. 이 때, 상기 학습 네트워크 모델은, 복수의 음성들 및 상기 복수의 음성들 각각에 대응하는 복수의 단어들을 이용하여 학습될 수 있다.In addition, when the first voice including the food name is input through the microphone, the memory acquires the food name by recognizing the first voice using a learning network model trained according to an artificial intelligence algorithm. And at least one instruction set to display the food list including the food information corresponding to the food name on the display. In this case, the learning network model may be trained using a plurality of voices and a plurality of words corresponding to each of the plurality of voices.
또한, 상기 메모리는, 상기 프로세서가, 상기 마이크로폰을 통해 상기 식품명을 포함하는 제1음성이 입력되면, 인공 지능 알고리즘을 따라 학습된 학습 네트워크 모델을 이용하여 상기 제1음성을 인식함으로써 상기 식품명 및 상기 제1음성을 발화한 사용자 정보를 획득하고, 상기 식품명에 대응하되 상기 사용자 정보와 관련된 상기 식품 정보를 포함하는 상기 식품 리스트를 상기 디스플레이에 표시하도록 설정된 적어도 하나의 인스트럭션들을 저장할 수 있다. 이 때, 상기 학습 네트워크 모델은, 복수의 음성들 및 상기 복수의 음성들 각각에 대응하는 사용자 정보들을 이용하여 학습될 수 있다.The memory may be configured to recognize the food name and the food by recognizing the first voice using a learning network model trained according to an artificial intelligence algorithm when the first voice including the food name is input through the microphone. Obtain at least one instruction configured to acquire user information uttering a first voice and display the food list corresponding to the food name on the display, the food list including the food information related to the user information. In this case, the learning network model may be trained using a plurality of voices and user information corresponding to each of the plurality of voices.
또한, 상기 메모리는, 상기 프로세서가, 상기 제1음성이 인식되면, 상기 저장실에 상기 식품명과 관련된 식품이 상기 저장실에 존재하는지 여부를 식별하고, 상기 식품이 상기 저장실에 존재하면, 상기 식품이 상기 저장실에 존재하는 것을 나타내는 정보를 상기 디스플레이에 표시하도록 설정된 적어도 하나의 인스트럭션들을 저장할 수 있다.In addition, the memory, if the first voice is recognized, the processor identifies whether the food associated with the food name in the storage compartment exists in the storage compartment, and if the food is present in the storage compartment, the food is the At least one instruction set to display on the display information indicating what is present in the storage compartment may be stored.
또한, 상기 메모리는, 상기 프로세서가, 상기 제1음성이 인식되면, 상기 저장실에 상기 식품명과 관련된 식품이 상기 저장실에 존재하는지 여부를 식별하고, 상기 식품이 상기 저장실에 존재하지 않으면, 상기 식품명에 대응하는 상기 식품 정보를 포함하는 상기 식품 리스트를 상기 디스플레이에 표시하도록 설정된 적어도 하나의 인스트럭션들을 저장할 수 있다.The memory may be further configured to identify whether or not a food associated with the food name exists in the storage compartment when the processor recognizes the first voice, and if the food does not exist in the storage compartment, the processor identifies the food name. At least one instruction set to display the food list including the corresponding food information on the display may be stored.
또한, 상기 메모리는, 상기 프로세서가, 상기 제1음성이 인식되면, 상기 디스플레이에 표시된 어플리케이션의 사용자 인터페이스 상에 상기 식품 리스트를 카드 타입의 사용자 인터페이스 형태로 중첩하여 표시하도록 설정된 적어도 하나의 인스트럭션들을 저장할 수 있다.The memory may store at least one instruction configured to display the food list on a user interface of an application displayed on the display in a form of a card type user interface when the first voice is recognized. Can be.
또한, 상기 메모리는, 상기 프로세서가, 상기 제2음성이 인식되면, 상기 제2음성에 포함된 표지가 나타내는 식품 정보를 제공하는 어플리케이션을 실행하여 상기 어플리케이션이 제공하는 식품 정보를 디스플레이에 표시하도록 설정된 적어도 하나의 인스트럭션들을 저장할 수 있다.The memory may be configured such that, when the second voice is recognized, the processor executes an application for providing food information indicated by a label included in the second voice to display food information provided by the application on a display. At least one instruction may be stored.
또한, 통신부;를 더 포함하고, 상기 메모리는, 상기 프로세서가, 상기 제1음성이 인식되면, 상기 제1음성의 데이터를 상기 통신부를 통해 서버로 전송하고, 상기 통신부에서 상기 서버로부터 전송되는 상기 식품 리스트에 대한 정보를 수신하면, 상기 식품 리스트를 상기 디스플레이에 표시하도록 설정된 적어도 하나의 인스트럭션들을 저장할 수 있다.The memory device may further include a communication unit, wherein the processor transmits data of the first voice to a server through the communication unit when the first voice is recognized, and is transmitted from the server in the communication unit. When receiving the information on the food list, it is possible to store at least one instruction set to display the food list on the display.
또한, 통신부;를 더 포함하고, 상기 메모리는, 상기 프로세서가, 상기 제2음성이 인식되면, 상기 제2음성의 데이터를 상기 통신부를 통해 서버로 전송하고, 상기 통신부에서 상기 서버로부터 전송되는 상기 식품 정보를 수신하면, 상기 식품 정보를 상기 디스플레이에 표시하도록 설정된 적어도 하나의 인스트럭션들을 저장할 수 있다.The apparatus may further include a communication unit, wherein the memory transmits the data of the second voice to the server through the communication unit when the second voice is recognized, and is transmitted from the server in the communication unit. Upon receiving food information, at least one instruction set to display the food information on the display may be stored.
또한, 통신부;를 더 포함하고, 상기 메모리는, 상기 프로세서가, 상기 제1음성이 인식되면, 상기 제1음성의 데이터를 상기 통신부를 통해 서버로 전송하고, 상기 서버로부터 전송되는 상기 제1음성에 대한 분석 정보를 상기 통신부에서 수신하면, 상기 분석 정보에 따른 작업 수행과 관련된 어플리케이션에 상기 분석 정보에 따른 지시를 전달하여, 상기 어플리케이션이 상기 식품 리스트를 표시하도록 설정된 적어도 하나의 인스트럭션들을 저장할 수 있다.The apparatus may further include a communication unit, and, when the processor recognizes the first voice, the memory transmits the first voice data to the server through the communication unit, and transmits the first voice to the server. When the communication information is received by the communication unit, an instruction according to the analysis information is transmitted to an application related to performing the work according to the analysis information, and the application may store at least one instruction set to display the food list. .
또한, 통신부;를 더 포함하고, 상기 메모리는, 상기 프로세서가, 상기 제2음성이 인식되면, 상기 제2음성의 데이터를 상기 통신부를 통해 서버로 전송하고, 상기 서버로부터 전송되는 상기 제2음성에 대한 분석 정보를 상기 통신부에서 수신하면, 상기 분석 정보에 따른 작업 수행과 관련된 어플리케이션에 상기 분석 정보에 따른 지시를 전달하여, 상기 어플리케이션이 상기 식품 정보를 표시하도록 설정된 적어도 하나의 인스트럭션들을 저장할 수 있다.The apparatus may further include a communication unit, and, when the processor recognizes the second voice, transmits data of the second voice to the server through the communication unit, and transmits the second voice to the server. When receiving the analysis information on the communication unit, and transmits an instruction according to the analysis information to the application associated with the performance of the operation according to the analysis information, the application may store at least one instruction set to display the food information. .
또한, 스피커;를 더 포함하고, 상기 메모리는, 상기 프로세서가, 상기 제1음성이 인식되어 상기 식품 리스트가 디스플레이에 표시되면, 상기 리스트가 표시되었음을 나타내는 음성을 상기 스피커를 통하여 출력하고, 제2음성이 인식되어 상기 식품 정보가 상기 디스플레이에 표시되면, 상기 식품 정보가 표시되었음을 나타내는 음성을 상기 스피커를 통하여 출력하도록 설정된 적어도 하나의 인스트럭션들을 저장할 수 있다.The apparatus may further include a speaker, wherein the memory outputs a voice indicating that the list is displayed through the speaker when the processor recognizes the first voice and displays the food list on the display. When a voice is recognized and the food information is displayed on the display, at least one instruction set to output a voice indicating that the food information is displayed through the speaker may be stored.
개시된 실시예에 따른 냉장고는 식품을 저장하는 저장실; 상기 저장실 내부의 온도를 감지하는 온도 감지부; 상기 저장실로 냉기를 공급하는 냉각부; 음성을 입력 받는 마이크로폰; 정보를 표시하는 디스플레이; 상기 온도 감지부, 상기 마이크로폰 및 상기 디스플레이와 전기적으로 연결되는 적어도 하나의 프로세서; 및 상기 적어도 하나의 프로세서와 전기적으로 연결되는 메모리를 포함한다.A refrigerator according to the disclosed embodiment includes a storage compartment for storing food; A temperature sensor for sensing a temperature inside the storage compartment; Cooling unit for supplying cold air to the storage compartment; A microphone for receiving a voice; A display for displaying information; At least one processor electrically connected to the temperature sensing unit, the microphone, and the display; And a memory electrically connected to the at least one processor.
또한, 상기 메모리는, 상기 프로세서가, 상기 마이크로폰을 통하여 음성이 입력되면, 상기 디스플레이에 표시된 어플리케이션에 대해 상기 입력된 음성이 나타내는 명령을 수행하고, 상기 어플리케이션에 대해 상기 입력된 음성이 나타내는 명령을 수행할 수 없으면, 상기 명령과 관련된 어플리케이션들에 대한 미리 정해진 우선순위에 따라, 다른 어플리케이션에 대해 상기 명령을 수행하도록 설정된 적어도 하나의 인스트럭션들을 저장한다.Further, when the voice is input through the microphone, the memory performs a command indicated by the input voice for the application displayed on the display, and performs a command indicated by the input voice for the application. If not, store at least one instruction set to execute the command for another application according to a predetermined priority for the applications associated with the command.
또한, 스피커;를 더 포함하고, 상기 메모리는, 상기 프로세서가, 상기 어플리케이션에 대해 상기 입력된 음성이 나타내는 명령을 수행할 수 없으면, 상기 어플리케이션에 대해 상기 명령을 수행할 수 없음을 나타내는 음성을 상기 스피커를 통해 출력하도록 설정된 적어도 하나의 인스트럭션들을 저장할 수 있다.The apparatus may further include a speaker, wherein the memory is further configured to generate a voice indicating that the processor cannot perform the command for the application if the processor cannot perform a command indicated by the input voice for the application. At least one instruction set to be output through the speaker may be stored.
또한, 스피커;를 더 포함하고, 상기 메모리는, 상기 프로세서가, 상기 우선순위가 없는 경우, 다른 어플리케이션에 대해 상기 명령을 수행할지 여부에 대한 확인을 요청하는 음성을 상기 스피커를 통해 출력하도록 설정된 적어도 하나의 인스트럭션들을 저장할 수 있다.The apparatus may further include a speaker, wherein the memory is configured to output, through the speaker, a voice requesting confirmation whether the processor performs the command for another application when the processor does not have the priority. You can store one instruction.
또한, 상기 메모리는, 상기 프로세서가, 상기 컨트롤러는 상기 확인 요청에 대한 답변이 입력되면, 입력된 답변이 나타내는 어플리케이션에 대해 상기 음성이 나타내는 명령을 수행하도록 설정된 적어도 하나의 인스트럭션들을 저장할 수 있다.The memory may store at least one instruction set by the processor to execute a command indicated by the voice to an application indicated by the input response when the controller receives an answer to the confirmation request.
또한, 상기 메모리는, 상기 프로세서가, 상기 어플리케이션에 대해 상기 입력된 음성이 나타내는 명령을 수행할 수 없으면, 상기 명령과 관련된 어플리케이션들에 대한 미리 정해진 우선순위에 따라 상기 명령을 수행할 어플리케이션을 결정하고, 상기 결정된 어플리케이션에 대해 상기 명령을 수행하도록 설정된 적어도 하나의 인스트럭션들을 저장할 수 있다.In addition, the memory, if the processor is unable to perform the command indicated by the input voice for the application, determines the application to perform the command according to a predetermined priority for the applications associated with the command and At least one instruction configured to execute the command with respect to the determined application may be stored.
또한, 상기 메모리는, 상기 프로세서가, 상기 마이크로폰을 통해 입력된 음성에 상기 음성이 나타내는 명령을 수행할 대상이 포함되어 있지 않으면, 상기 디스플레이에 표시된 어플리케이션에 대해 상기 입력된 음성이 나타내는 명령을 수행하도록 설정된 적어도 하나의 인스트럭션들을 저장할 수 있다.Also, the memory may be configured to cause the processor to perform a command indicated by the input voice for an application displayed on the display, when the voice input through the microphone does not include a target to perform the command indicated by the voice. At least one set instruction may be stored.
개시된 실시예에 따른 냉장고는 식품을 저장하는 저장실; 상기 저장실 내부의 온도를 감지하는 온도 감지부; 상기 저장실로 냉기를 공급하는 냉각부; 음성을 입력 받는 마이크로폰; 정보를 표시하는 디스플레이; 음성을 출력하는 스피커; 및 상기 온도 감지부, 상기 마이크로폰, 상기 스피커 및 상기 디스플레이와 전기적으로 연결되는 적어도 하나의 프로세서; 및 상기 적어도 하나의 프로세서와 전기적으로 연결되는 메모리를 포함한다.A refrigerator according to the disclosed embodiment includes a storage compartment for storing food; A temperature sensor for sensing a temperature inside the storage compartment; Cooling unit for supplying cold air to the storage compartment; A microphone for receiving a voice; A display for displaying information; A speaker for outputting voice; And at least one processor electrically connected to the temperature sensing unit, the microphone, the speaker, and the display. And a memory electrically connected to the at least one processor.
또한, 상기 메모리는, 상기 프로세서가, 상기 마이크로폰을 통하여 음성이 입력되면, 상기 음성이 나타내는 명령의 수행에 있어서 사용자 식별이 필요한 경우, 상기 디스플레이에 미리 등록된 사용자를 표시하고 상기 표시된 사용자 중에서 선택할 것을 요구하는 음성을 상기 스피커를 통해 출력하도록 설정된 적어도 하나의 인스트럭션들을 저장한다.In addition, when the voice is input through the microphone, the memory is configured to display a user registered in advance on the display and select from among the displayed users, when user identification is required to perform a command indicated by the voice. Store at least one instruction configured to output the desired voice through the speaker.
또한, 상기 메모리는, 상기 프로세서가, 상기 표시된 사용자 중에서 적어도 하나의 사용자를 선택하는 음성이 입력되면, 상기 선택된 사용자와 관련하여 상기 음성이 나타내는 명령을 수행하고, 그 결과를 상기 디스플레이에 표시하도록 설정된 적어도 하나의 인스트럭션들을 저장할 수 있다.The memory is further configured to perform a command indicated by the voice in relation to the selected user when the processor inputs a voice for selecting at least one user among the displayed users, and display the result on the display. At least one instruction may be stored.
또한, 상기 메모리는, 상기 프로세서가, 상기 음성이 나타내는 명령의 수행에 있어서 사용자 식별이 필요한 경우, 상기 디스플레이에 미리 등록된 사용자와 각 사용자를 식별할 수 있는 표지를 표시하도록 설정된 적어도 하나의 인스트럭션들을 저장할 수 있다.The memory may further include at least one instruction configured to display, by the processor, a user identifying a user who is registered in advance on the display and a beacon for identifying each user when user identification is required to perform a command indicated by the voice. Can be stored.
또한, 상기 메모리는, 상기 프로세서가, 상기 표지 중 적어도 하나를 선택하는 음성이 입력되면, 상기 표지가 나타내는 사용자와 관련하여 상기 음성이 나타내는 명령을 수행하고 그 결과를 상기 디스플레이에 표시하도록 설정된 적어도 하나의 인스트럭션들을 저장할 수 있다.The memory may further include at least one set by the processor to perform a command indicated by the voice in relation to a user indicated by the mark and to display a result on the display when a voice for selecting at least one of the marks is input. Instructions can be stored.
또한, 상기 메모리는, 상기 프로세서가, 상기 마이크로폰을 통해 음성이 입력되면, 상기 음성에 사용자를 나타내는 표현이 포함되어 있는 경우, 상기 음성에 포함된 사용자와 관련하여 상기 음성이 나타내는 명령을 수행하고 그 결과를 상기 디스플레이에 표시하도록 설정된 적어도 하나의 인스트럭션들들 저장할 수 있다.In addition, when the voice is input through the microphone, the memory performs a command indicated by the voice in relation to a user included in the voice when the voice includes a representation representing a user. At least one instruction set to display a result on the display may be stored.
또한, 상기 메모리는, 상기 프로세서가, 상기 마이크로폰을 통해 음성이 입력되면, 미리 저장된 음성 데이터 중 상기 입력된 음성에 매칭되는 음성 데이터가 나타내는 사용자와 관련하여 상기 음성이 나타내는 명령을 수행하고 그 결과를 상기 디스플레이에 표시하도록 설정된 적어도 하나의 인스트럭션들을 저장할 수 있다.In addition, when the voice is input through the microphone, the memory is further configured to perform a command indicated by the voice in relation to a user represented by voice data matching the input voice among prestored voice data, and output the result. At least one instruction set to be displayed on the display may be stored.
개시된 실시예에 따른 냉장고의 정보 표시 방법은, 마이크로폰을 통해 식품명을 포함하는 제1음성을 입력 받는 동작; 상기 제1음성의 인식에 기초하여, 상기 식품명에 대응하는 식품 정보와, 상기 식품 정보를 식별할 수 있는 식별 표지를 포함하는 식품 리스트를 상기 냉장고의 전면에 위치한 디스플레이에 표시하는 동작; 상기 마이크로폰을 통해 상기 식별 표지를 지칭하는 제2음성을 입력 받는 동작; 및 상기 제2음성의 인식에 기초하여, 상기 식별 표지에 대응하는 적어도 하나의 식품의 구매 정보를 상기 디스플레이에 표시하는 동작을 포함한다.An information display method of a refrigerator according to an exemplary embodiment of the present disclosure may include: receiving a first voice including a food name through a microphone; Displaying a food list on a display in front of the refrigerator, the food list including food information corresponding to the food name and an identification mark for identifying the food information, based on the recognition of the first voice; Receiving a second voice indicating the identification mark through the microphone; And displaying, on the display, purchase information of at least one food item corresponding to the identification mark, based on the recognition of the second voice.
개시된 발명의 일 측면에 따르면, 음성 인식 기술을 이용하여 음성을 통해 명령을 전달받을 수 있고, 컨텐츠를 음성으로 출력할 수 있는 냉장고를 제공할 수 있다.According to an aspect of the disclosed invention, it is possible to provide a refrigerator capable of receiving a command through voice using voice recognition technology and outputting a content by voice.
개시된 발명의 일 측면에 따르면, 음성을 통한 명령으로 인터넷 쇼핑을 제공할 수 있는 냉장고를 제공할 수 있다.According to an aspect of the disclosed invention, it is possible to provide a refrigerator capable of providing internet shopping by a command via voice.
개시된 발명의 일 측면에 따르면, 복수의 사용자를 식별하여 식별된 사용자에 적합한 컨텐츠를 제공할 수 있는 냉장고를 제공할 수 있다.According to an aspect of the disclosed invention, it is possible to provide a refrigerator capable of identifying a plurality of users and providing content suitable for the identified user.
도 1은 일 실시예에 의한 냉장고의 외관을 도시한다.1 illustrates an exterior of a refrigerator according to one embodiment.
도 2는 일 실시예에 의한 냉장고의 전면을 도시한다.2 illustrates a front surface of a refrigerator according to one embodiment.
도 3은 일 실시예에 의한 냉장고의 구성을 도시한다.3 illustrates a configuration of a refrigerator according to one embodiment.
도 4는 일 실시예에 의한 냉장고에 포함된 디스플레이를 도시한다.4 illustrates a display included in a refrigerator according to one embodiment.
도 5는 일 실시예에 의한 냉장고에 포함된 디스플레이에 표시되는 홈 스크린을 도시한다.5 illustrates a home screen displayed on a display included in a refrigerator according to one embodiment.
도 6 및 도 7은 일 실시예에 의한 냉장고에 포함된 디스플레이에 표시되는 음성 인식 어플리케이션을 도시한다.6 and 7 illustrate a voice recognition application displayed on a display included in a refrigerator according to one embodiment.
도 8은 일 실시예에 의한 냉장고에 포함된 통신부를 통한 외부 장치와의 통신을 도시한다.8 illustrates communication with an external device through a communication unit included in a refrigerator according to one embodiment.
도 9 및 도 10는 일 실시예에 의한 냉장고와 서버의 통신을 도시한다.9 and 10 illustrate a communication between a refrigerator and a server according to an embodiment.
도 11A 내지 도 14는 일 실시예에 의한 냉장고를 통해 사용자가 식품을 구매하는 방법을 도시한다.11A to 14 illustrate a method of purchasing food by a user through a refrigerator according to one embodiment.
도 15 및 도 16은 사용자의 음성 명령에 대응하여 일 실시예에 의한 냉장고가 명령을 수행하는 방법을 도시한다.15 and 16 illustrate a method in which a refrigerator performs a command in response to a voice command of a user.
도 17 내지 도 20은 일 실시예에 의한 냉장고에서 사용자를 식별하여 식별된 사용자에 대응되는 정보를 제공하는 방법을 제공한다.17 to 20 provide a method of identifying a user in a refrigerator according to one embodiment and providing information corresponding to the identified user.
도 21A는 일 실시예에 의한 데이터 학습 및 인식을 위한 제어부의 블록도이다.21A is a block diagram of a controller for data learning and recognition according to an embodiment.
도 21B는 일 실시예에 의한 데이터 학습부 및 데이터 인식부의 상세 블록도이다.21B is a detailed block diagram of a data learner and a data recognizer, according to an exemplary embodiment.
도 22는 일 실시예에 의한 정보를 표시하는 냉장고의 흐름도이다.22 is a flowchart of a refrigerator displaying information according to an embodiment.
도 23은 일 실시예에 의한 네트워크 시스템의 흐름도이다.23 is a flowchart of a network system according to an embodiment.
도 24는 다른 일 실시예에 의한 냉장고를 통해 사용자가 식품을 구매하는 방법을 도시한다.24 is a view illustrating a method of purchasing food by a user through a refrigerator according to another embodiment.
본 명세서에 기재된 실시예와 도면에 도시된 구성은 개시된 발명의 바람직한 일 예에 불과할 뿐이며, 본 출원의 출원시점에 있어서 본 명세서의 실시예와 도면을 대체할 수 있는 다양한 변형 예들이 있을 수 있다.Configurations shown in the embodiments and drawings described herein are only exemplary embodiments of the disclosed invention, there may be various modifications that can replace the embodiments and drawings of the present specification at the time of filing of the present application.
본 명세서에서 사용한 용어는 실시예를 설명하기 위해 사용된 것으로, 개시된 발명을 제한 및/또는 한정하려는 의도가 아니다. The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting and / or limiting the disclosed invention.
예를 들어, 본 명세서에서 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다.For example, the singular forms herein may include the plural forms unless the context clearly indicates otherwise.
또한, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들의 조합이 존재함을 표현하고자 하는 것이며, 하나 또는 그 이상의 다른 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들의 조합의 추가적인 존재 또는 부가 가능성을 배제하지 않는다.In addition, the terms "comprise" or "have" are intended to express the presence of a feature, number, step, operation, component, part, or combination thereof described in the specification, one or more other features, It does not exclude the possibility of further presence or addition of numbers, steps, actions, components, parts or combinations thereof.
또한, "제1", "제2" 등과 같이 서수를 포함하는 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위하여 사용되며, 상기 하나의 구성요소들을 한정하지 않는다.In addition, terms including an ordinal number such as "first", "second", etc. are used to distinguish one element from another element and do not limit the one element.
또한, "~부", "~기", "~블록", "~부재", "~모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미할 수 있다. 예를 들어, 상기 용어들은 FPGA (field-programmable gate array)/ ASIC (application specific integrated circuit) 등 적어도 하나의 하드웨어, 메모리에 저장된 적어도 하나의 소프트웨어 또는 프로세서에 의하여 처리되는 적어도 하나의 프로세스를 의미할 수 있다.In addition, terms such as "~ part", "~ group", "~ block", "~ member", "~ module" may refer to a unit for processing at least one function or operation. For example, the terms may refer to at least one hardware processed by at least one piece of hardware such as a field-programmable gate array (FPGA) / application specific integrated circuit (ASIC), at least one software stored in a memory, or a processor. have.
또한, 본 명세서에서"식품"이란 용어는 사람 또는 기계에 의하여 제조되어 거래되는 공산품, 사용자가 생산 또는 수렵한 생산품 등을 포함할 수 있다.In addition, the term "food" in the present specification may include industrial products, products produced or hunted by the user manufactured and traded by a person or a machine.
이하에서는 첨부한 도면을 참조하여 개시된 발명의 일 실시예가 상세하게 설명된다. 첨부된 도면에서 제시된 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 부품 또는 구성요소를 나타낼 수 있다.Hereinafter, with reference to the accompanying drawings will be described in detail an embodiment of the disclosed invention. Like reference numerals or signs in the accompanying drawings may refer to parts or components that perform substantially the same function.
도 1은 일 실시예에 의한 냉장고의 외관을 도시하고, 도 2는 일 실시예에 의한 냉장고의 전면을 도시한다. 또한, 도 3은 일 실시예에 의한 냉장고의 구성을 도시하고, 도 4는 일 실시예에 의한 냉장고에 포함된 디스플레이를 도시한다.1 illustrates an exterior of a refrigerator according to one embodiment, and FIG. 2 illustrates a front surface of the refrigerator according to one embodiment. 3 illustrates a configuration of a refrigerator according to one embodiment, and FIG. 4 illustrates a display included in the refrigerator according to one embodiment.
도 1, 도 2 및 도 3에 도시된 바와 같이, 냉장고(1)는 전면(前面)이 개방된 본체(10)와 본체(10)의 개방된 전면을 개폐하는 도어(30)를 포함할 수 있다. 또한, 본체(10)에는 식품을 냉장 또는 냉동 보관할 수 있도록 전면이 개방된 저장실(20)이 마련된다.As shown in FIGS. 1, 2, and 3, the refrigerator 1 may include a main body 10 having a front face open and a door 30 opening and closing the open front face of the body 10. have. In addition, the main body 10 is provided with a storage compartment 20 whose front surface is opened so that food can be refrigerated or frozen.
본체(10)는 냉장고(1)의 외관을 형성할 수 있다. 본체(10)는 저장실(20)을 형성하는 내상(11)과 내상(11)의 외측에 결합되어 외관을 형성하는 외상(12)을 포함할 수 있다. 이때, 본체(10)의 내상(11)과 외상(12) 사이에는 저장실(20)의 냉기 유출을 방지하도록 단열재(미도시)가 충진될 수 있다.The main body 10 may form an appearance of the refrigerator 1. The main body 10 may include an inner wound 11 forming the storage compartment 20 and an outer wound 12 coupled to an outer side of the inner wound 11 to form an outer appearance. In this case, a heat insulating material (not shown) may be filled between the inner wound 11 and the outer wound 12 of the main body 10 to prevent leakage of cold air from the storage compartment 20.
저장실(20)은 수평 격벽(21)과 수직 격벽(22)에 의해 복수 개로 구획될 수 있다. 예를 들어, 도 1에 도시된 바와 같이 저장실(20)은 상부 저장실(20a), 하부 제1 저장실(20b)과 하부 제2 저장실(20c)로 구획될 수 있다. 저장실(20)에는 식품을 올려 놓을 수 있는 선반(23)과 식품을 밀폐 보관하는 밀폐 용기(24)가 마련될 수 있다.The storage compartment 20 may be divided into a plurality of compartments by the horizontal barrier rib 21 and the vertical barrier rib 22. For example, as illustrated in FIG. 1, the storage compartment 20 may be divided into an upper storage compartment 20a, a lower first storage compartment 20b, and a lower second storage compartment 20c. The storage compartment 20 may be provided with a shelf 23 on which food can be placed and a sealed container 24 for hermetically storing food.
저장실(20)은 도어(30)에 의하여 개폐될 수 있다. 예를 들어, 도 1에 도시된 바와 같이 상부 저장실(20a)은 상부 제1 도어(30aa)와 상부 제2 도어(30ab)에 의하여 개폐될 수 있으며, 하부 제1 저장실(20b)은 하부 제1 도어(30b)에 의하여 개폐될 수 있으며, 하부 제2 저장실(20c)은 하부 제2 도어(30c)에 의하여 개폐될 수 있다.The storage compartment 20 may be opened and closed by the door 30. For example, as shown in FIG. 1, the upper storage compartment 20a may be opened and closed by the upper first door 30aa and the upper second door 30ab, and the lower first storage compartment 20b may be the lower first. It may be opened and closed by the door 30b, and the lower second storage compartment 20c may be opened and closed by the lower second door 30c.
도어(30)를 용이하게 개폐할 수 있도록 도어(30)에는 핸들(31)이 마련될 수 있다. 핸들(31)은 상부 제1 도어(30aa)와 상부 제2 도어(30ab)의 사이와 하부 제1 도어(30b)와 하부 제2 도어(30c)의 사이를 따라 상하방향으로 길게 형성될 수 있다. 그로 인하여, 도어(30)가 폐쇄된 경우, 핸들(31)은 일체로 마련될 것과 같이 보여질 수 있다.A handle 31 may be provided at the door 30 to easily open and close the door 30. The handle 31 may be formed long in the vertical direction along the upper first door 30aa and the upper second door 30ab and between the lower first door 30b and the lower second door 30c. . Thereby, when the door 30 is closed, the handle 31 can be seen as being integrally provided.
또한, 냉장고(1)는 디스플레이(120), 저장부(130), 통신부(140), 디스펜서(150), 냉각부(150), 온도 감지부(170), 음향부(180) 및 메인 컨트롤러(110) 중 적어도 하나를 포함할 수 있다.In addition, the refrigerator 1 may include a display 120, a storage 130, a communication unit 140, a dispenser 150, a cooling unit 150, a temperature sensing unit 170, an acoustic unit 180, and a main controller ( 110) may be included.
디스플레이(120)는 사용자와 상호 작용할 수 있다. 예를 들어, 사용자로부터 사용자 입력을 수신하고, 수신된 사용자 입력에 따른 영상을 표시할 수 있다.The display 120 can interact with the user. For example, the user may receive a user input from the user and display an image according to the received user input.
디스플레이(120)는 영상을 표시하는 디스플레이 패널(121), 사용자 입력을 수신하는 터치 패널(122) 및 디스플레이 패널(121)과 터치 패널(122)을 제어/구동하는 터치 스크린 컨트롤러(123)를 포함할 수 있다.The display 120 includes a display panel 121 for displaying an image, a touch panel 122 for receiving a user input, and a touch screen controller 123 for controlling / driving the display panel 121 and the touch panel 122. can do.
디스플레이 패널(121)은 터치 스크린 컨트롤러(123)을 통하여 메인 컨트롤러(110)로부터 수신된 영상 데이터를 사용자가 볼 수 있는 광학적 영상으로 변환할 수 있다.The display panel 121 may convert image data received from the main controller 110 through the touch screen controller 123 into an optical image that can be viewed by the user.
이러한 디스플레이 패널(101)은 음극선관(CRT, Cathode Ray Tube) 디스플레이 패널, 액정 디스플레이(LCD, Liquid Crystal Display) 패널, 발광 다이오드(LED, Light Emitting Diode) 패널, 유기 발광 다이오드(OLED, Organic Light Emitting Diode) 패널, 플라즈마 디스플레이 패널(PDP, Plasma Display Panel), 전계 방출 디스플레이(FED, Field Emission Display) 패널 등을 채용할 수 있다. 다만, 디스플레이 패널(101)은 이에 한정되지 않으며, 디스플레이 패널(101)은 영상 데이터에 대응하는 광학적 영상을 시각적으로 표시할 수 있는 다양한 표시 수단을 채용할 수 있다.The display panel 101 includes a cathode ray tube (CRT) display panel, a liquid crystal display (LCD) panel, a light emitting diode (LED) panel, and an organic light emitting diode (OLED). Diode (PDP) panels, plasma display panels (PDPs), field emission display (FED) panels and the like can be employed. However, the display panel 101 is not limited thereto, and the display panel 101 may employ various display means capable of visually displaying an optical image corresponding to the image data.
터치 패널(122)은 사용자의 터치 입력을 수신하고, 수신된 터치 입력에 대응하는 전기적 신호를 터치 스크린 컨트롤러(123)에 전달할 수 있다.The touch panel 122 may receive a user's touch input and transmit an electrical signal corresponding to the received touch input to the touch screen controller 123.
구체적으로, 터치 패널(122)은 터치 패널(122)에 대한 사용자의 터치를 감지하고, 사용자의 터치 지점의 좌표에 대응하는 전기적 신호를 터치 스크린 컨트롤러(123)에 전달한다. 아래에서 설명하겠으나, 터치 스크린 컨트롤러(123)는 터치 패널(122)로부터 수신된 전기적 신호를 기초로 사용자의 터치 지점의 좌표를 획득할 수 있다.In detail, the touch panel 122 senses a user's touch on the touch panel 122 and transmits an electrical signal corresponding to the coordinates of the user's touch point to the touch screen controller 123. As described below, the touch screen controller 123 may acquire the coordinates of the touch point of the user based on the electrical signal received from the touch panel 122.
또한, 터치 패널(122)은 디스플레이 패널(121)의 전면에 위치할 수 있다. 다시 말해, 터치 패널(122)은 영상이 표시되는 면 위에 마련될 수 있다. 따라서, 디스플레이 패널(121)에 표시되는 영상이 왜곡되지 않도록 터치 패널(122)은 투명한 재질로 구성될 수 있다.In addition, the touch panel 122 may be positioned in front of the display panel 121. In other words, the touch panel 122 may be provided on a surface on which an image is displayed. Therefore, the touch panel 122 may be made of a transparent material so that the image displayed on the display panel 121 is not distorted.
이러한 터치 패널(122)은 저항막 방식 터치 패널 또는 정전용량 방식 터치 패널을 채용할 수 있다. 다만, 터치 패널(122)은 이에 한정되지 않으며, 터치 패널(122)은 사용자의 터치 또는 접근을 감지하고, 감지된 터치 지점의 좌표 또는 접근 지점의 좌표에 대응하는 전기적 신호를 출력할 수 있는 다양한 입력 수단을 채용할 수 있다.The touch panel 122 may employ a resistive touch panel or a capacitive touch panel. However, the touch panel 122 is not limited thereto, and the touch panel 122 may detect a user's touch or approach, and output various electrical signals corresponding to the detected coordinates of the touch point or the coordinates of the access point. An input means can be employed.
터치 스크린 컨트롤러(123)는 디스플레이 패널(121) 및 터치 패널(122)의 동작을 구동/제어할 수 있다. 구체적으로, 터치 스크린 컨트롤러(123)는 메인 컨트롤러(110)로부터 수신된 영상 데이터에 대응하는 광학적 영상이 표시되도록 디스플레이 패널(121)를 구동하고, 사용자의 터치 지점의 좌표를 검출하도록 터치 패널(122)를 제어할 수 있다.The touch screen controller 123 may drive / control the operations of the display panel 121 and the touch panel 122. In detail, the touch screen controller 123 drives the display panel 121 to display an optical image corresponding to the image data received from the main controller 110, and detects the coordinates of the touch point of the user. ) Can be controlled.
실시 형태에 따라 터치 스크린 컨트롤러(123)는 터치 패널(122)이 출력하는 전기적 신호를 기초로 사용자의 터치 지점의 좌표를 판단하고, 사용자의 터치 지점의 좌표를 메인 컨트롤러(110)에 전달할 수 있다.According to an embodiment, the touch screen controller 123 may determine the coordinates of the user's touch point based on the electrical signal output from the touch panel 122, and transmit the coordinates of the user's touch point to the main controller 110. .
또한, 실시 형태에 따라 터치 스크린 컨트롤러(123)는 메인 컨트롤러(110)가 사용자의 터치 지점의 좌표를 판단하도록 터치 패널(122)이 출력하는 전기적 신호를 메인 컨트롤러(110)에 전달할 수 있다.In addition, according to the embodiment, the touch screen controller 123 may transmit an electrical signal output from the touch panel 122 to the main controller 110 so that the main controller 110 determines the coordinates of the user's touch point.
이러한 터치 스크린 컨트롤러(123)는 디스플레이 패널(121) 및 터치 패널(122)의 동작을 제어하기 위한 프로그램 및 데이터를 저장하는 메모리(미도시), 메모리에 저장된 프로그램 및 데이터에 따라 디스플레이 패널(121) 및 터치 패널(122)의 동작을 제어하기 위한 연산을 수행하는 마이크로프로세서(미도시)를 포함할 수 있다. 또한, 터치 스크린 컨트롤러(123)의 메모리와 프로세서는 별도의 칩(chip)으로 마련되거나, 단일의 칩으로 마련될 수 있다.The touch screen controller 123 may include a memory (not shown) that stores programs and data for controlling operations of the display panel 121 and the touch panel 122, and the display panel 121 according to the programs and data stored in the memory. And a microprocessor (not shown) that performs an operation for controlling the operation of the touch panel 122. In addition, the memory and the processor of the touch screen controller 123 may be provided as separate chips or may be provided as a single chip.
이러한 디스플레이(120)는 사용자의 편의를 위해 도어(30)에 설치될 수 있다. 예를 들어, 도 2에 도시된 바와 같이 디스플레이(120)는 상부 제2 도어(30ab)에 설치될 수 있다. 이하에서는 상부 제2 도어(30ab)에 설치된 디스플레이(120)가 설명되나, 디스플레이(120)의 설치 위치가 상부 제2 도어(30ab)에 한정되는 것은 아니다. 예를 들어, 디스펜서(150)는 상부 제1 도어(30aa), 하부 제1 도어(30b), 하부 제2 도어(30c) 및 본체(10)의 외상(12) 등 사용자가 볼 수 있는 위치라면 어디든지 설치될 수 있다.The display 120 may be installed in the door 30 for the convenience of the user. For example, as shown in FIG. 2, the display 120 may be installed in the upper second door 30ab. Hereinafter, the display 120 installed in the upper second door 30ab will be described, but the installation position of the display 120 is not limited to the upper second door 30ab. For example, if the dispenser 150 is a position that can be viewed by the user, such as the upper first door 30aa, the lower first door 30b, the lower second door 30c, and the trauma 12 of the main body 10. Can be installed anywhere.
또한, 디스플레이(120)는 사용자가 일정 범위 이내로 접근할 때 자동으로 활성화되는 웨이크 업(wake up) 기능을 구비할 수 있다. 예를 들어, 사용자가 일정 범위 이내로 접근하면 디스플레이(120)가 활성화될 수 있다. 다시 말해, 디스플레이(120)는 온(on)상태가 될 수 있다. 반면, 사용자가 일정 범위 이내에서 벗어나면 디스플레이(120)는 비활성화될 수 있다. 다시 말해, 디스플레이(120)는 오프(off)상태가 될 수 있다.In addition, the display 120 may have a wake up function that is automatically activated when the user approaches within a certain range. For example, when the user approaches within a certain range, the display 120 may be activated. In other words, the display 120 may be in an on state. On the other hand, if the user deviates within a certain range, the display 120 may be deactivated. In other words, the display 120 may be in an off state.
디스플레이(120)는 다양한 화면 또는 영상을 표시할 수 있다. 디스플레이(120)에 표시되는 화면 또는 영상은 아래에서 자세하게 설명된다.The display 120 may display various screens or images. The screen or image displayed on the display 120 is described in detail below.
저장부(130)는 냉장고(1)의 동작을 제어하기 위한 제어 프로그램 및 제어 데이터와 사용자 입력에 따라 다양한 기능을 수행하는 다양한 어플리케이션 프로그램 및 어플리케이션 데이터를 저장할 수 있다. 예를 들어, 저장부(130)는 냉장고(1)에 포함된 구성 및 자원(소프트웨어 및 하드웨어)를 관리하는 OS (operating system) 프로그램, 사전에 저장된 이미지를 표시하는 영상 표시 어플리케이션, 사전에 저장된 동영상을 재생하는 동영상 재생 어플리케이션, 음악을 재생하는 음악 어플리케이션, 라디오를 재생하는 라디오 어플리케이션, 일정을 관리하는 달력 어플리케이션, 메모를 저장하고 표시하는 메모 어플리케이션, 온라인으로 식품을 구매할 수 있는 온라인 쇼핑몰 어플리케이션 및 음식의 조리법(recipe)을 제공하는 레시피 어플리케이션 등을 저장할 수 있다.The storage unit 130 may store a control program and control data for controlling the operation of the refrigerator 1 and various application programs and application data for performing various functions according to a user input. For example, the storage unit 130 may include an operating system (OS) program that manages the configuration and resources (software and hardware) included in the refrigerator 1, an image display application that displays a pre-stored image, and a pre-stored video. Video playback application to play music, music application to play music, radio application to play radio, calendar application to manage the schedule, memo application to store and display notes, online shopping mall application to buy food online and food Recipe applications that provide recipes, and the like.
또한, 저장부(130)는 전원이 차단되더라도 프로그램 또는 데이터가 손실되지 않는 비휘발성 메모리를 포함할 수 있다. 예를 들어, 저장부(130)는 대용량 플래시 메모리 또는 반도체 소자 드라이브(Solid State Drive, SSD) (131) 등을 포함할 수 있다.In addition, the storage unit 130 may include a nonvolatile memory in which a program or data is not lost even when power is cut off. For example, the storage 130 may include a large capacity flash memory or a solid state drive (SSD) 131.
통신부(140)는 메인 컨트롤러(110)의 제어에 따라 외부 장치에 데이터를 전송하거나, 외부 장치로부터 데이터를 수신할 수 있다.The communication unit 140 may transmit data to or receive data from an external device under the control of the main controller 110.
또한, 통신부(140)는 미리 정해진 통신 규약에 따라 데이터를 송수신하는 통신 모듈들(141, 142, 143) 중 적어도 하나를 포함할 수 있다. 예를 들어, 통신부(140)는 무선 접속 장치(Access Point) 등을 통하여 근거리 통신 네트워크(Local Area Network: LAN)에 접속하는 와이파이(Wireless Fidelity: WiFi®) 모듈(141), 외부 장치와 일-대-일로 통신하거나 소수의 외부 장치와 일-대-다로 통신하는 블루투스(Bluetooth®) 모듈(142), 복수의 전자 장치(주로 가전 기기) 사이에 근거리 통신 네트워크를 형성하는 지그비(Zigbee) 모듈(143) 등을 포함할 수 있다.In addition, the communication unit 140 may include at least one of communication modules 141, 142, and 143 that transmit and receive data according to a predetermined communication protocol. For example, the communication unit 140 may connect to an external device such as a WiFi Fidelity (WiFi®) module 141 that connects to a local area network (LAN) through a wireless access device. Bluetooth® module 142 for one-to-one communication or one-to-many communication with a few external devices, and a Zigbee module for forming a short-range communication network between a plurality of electronic devices (mainly home appliances) 143) and the like.
또한, 복수의 통신 모듈(141, 142, 143) 각각은 자유 공간으로 무선 신호를 송신하거나 자유 공간으로부터 무선 신호를 수신하는 안테나, 송신할 데이터를 변조하거나 수신된 무선 신호를 복조하는 변/복조기 등을 포함할 수 있다.In addition, each of the plurality of communication modules 141, 142, and 143 transmits a radio signal to or receives radio signals from free space, an antenna for modulating data to be transmitted, and a demodulator / demodulator for demodulating the received radio signals. It may include.
통신부(140)를 통한 냉장고(1)의 동작은 아래에서 더욱 자세하게 설명된다.Operation of the refrigerator 1 through the communication unit 140 is described in more detail below.
디스펜서(150)는 사용자 입력에 따라 물 또는 얼음을 배출할 수 있다. 다시 말해, 사용자는 디스펜서(150)를 통하여 도어(30)를 개방하지 않고도 물 또는 얼음을 외부로 직접 취출할 수 있다.The dispenser 150 may discharge water or ice according to a user input. In other words, the user may directly take out water or ice to the outside without opening the door 30 through the dispenser 150.
디스펜서(150)는 사용자의 배출 명령을 수신하는 디스펜서 레버(151), 물 또는 얼음을 배출하는 디스펜서 노즐(152), 외부 급수원으로부터 디스펜서 노즐(152)까지 물을 안내하는 유로(153), 배출되는 물을 정화하는 필터(154) 및 디스펜서(150)의 작동상태를 표시하는 디스펜서 표시 패널(155)를 포함할 수 있다.The dispenser 150 includes a dispenser lever 151 for receiving a discharge command from a user, a dispenser nozzle 152 for discharging water or ice, a flow path 153 for guiding water from the external water supply to the dispenser nozzle 152, and discharge It may include a filter 154 for purifying the water to be dispensed and the dispenser display panel 155 for displaying the operating state of the dispenser 150.
디스펜서(150)는 도어(30) 또는 본체(10)의 외측에 설치될 수 있다. 예를 들어, 도 2에 도시된 바와 같이 디스펜서(150)는 상부 제1 도어(30aa)에 설치될 수 있다. 이하에서는 상부 제1 도어(30aa)에 설치된 디스펜서(150)가 설명되나, 디스펜서(150)가 상부 제1 도어(30aa)에 설치되는 것에 한정되는 것은 아니다. 예를 들어, 디스펜서(40)는 상부 제2 도어(30ab), 하부 제1 도어(30b), 하부 제2 도어(30c) 및 본체(10)의 외상(12) 등 사용자가 물 또는 얼음을 취출할 수 있는 위치라면 어디든지 설치될 수 있다.The dispenser 150 may be installed outside the door 30 or the main body 10. For example, as illustrated in FIG. 2, the dispenser 150 may be installed in the upper first door 30aa. Hereinafter, the dispenser 150 installed in the upper first door 30aa will be described, but the dispenser 150 is not limited to being installed in the upper first door 30aa. For example, the dispenser 40 draws water or ice from the user, such as the upper second door 30ab, the lower first door 30b, the lower second door 30c, and the external wound 12 of the body 10. It can be installed anywhere you can.
예를 들어, 도어(30) 또는 외상(12)에는 물 또는 얼음의 취출 공간을 형성하도록 내측으로 함몰 형성된 캐비티(150a)가 마련될 수 있으며, 캐비티(150a)에는 디스펜서 노즐(152)과 디스펜서 레버(151)가 마련될 수 있다. 사용자가 디스펜서 레버(151)를 가압하면 디스펜서 노즐(152)로부터 물 또는 얼음이 배출된다.For example, the door 30 or the outer box 12 may be provided with a cavity 150a recessed inwardly to form a water or ice extraction space, and the cavity 150a may have a dispenser nozzle 152 and a dispenser lever. 151 may be provided. When the user presses the dispenser lever 151, water or ice is discharged from the dispenser nozzle 152.
특히, 디스펜서 노즐(152)를 통하여 물이 배출되는 경우, 물은 유로(152)를 따라 외부 급수원(미도시)으로부터 디스펜서 노즐(152)까지 유동할 수 있다. 또한, 물은 디스펜서 노즐(152)까지 유동하는 중에 필터(153)에 의하여 정화될 수 있다.In particular, when water is discharged through the dispenser nozzle 152, the water may flow from an external water supply source (not shown) along the flow path 152 to the dispenser nozzle 152. Water may also be purified by filter 153 while flowing to dispenser nozzle 152.
이때, 필터(153)의 수명이 다하면 교체될 수 있도록, 필터(153)는 본체(10) 또는 도어(30)에 탈착 가능하게 마련될 수 있다.In this case, the filter 153 may be detachably provided in the main body 10 or the door 30 so that the filter 153 may be replaced when the life of the filter 153 expires.
냉각부(160)는 저장실(20)에 냉기를 공급할 수 있다.The cooling unit 160 may supply cold air to the storage chamber 20.
구체적으로, 냉각부(160)는 냉매의 증발을 이용하여 저장실(20)의 온도를 일정한 범위 이내로 유지시킬 수 있다.Specifically, the cooling unit 160 may maintain the temperature of the storage compartment 20 within a predetermined range by using evaporation of the refrigerant.
냉각부(160)는 기체 냉매를 압축하는 압축기(161), 압축된 기체 냉매를 액체 냉매로 상태 변환시키는 응축기(162), 액체 냉매를 감압시키는 팽창기(163), 감압된 액체 냉매를 기체 상태로 상태 변환시키는 증발기(164)를 포함할 수 있다.The cooling unit 160 may include a compressor 161 for compressing the gas refrigerant, a condenser 162 for converting the compressed gas refrigerant into a liquid refrigerant, an expander 163 for reducing the liquid refrigerant, and a reduced liquid refrigerant in a gas state. It may include an evaporator 164 to change the state.
특히, 냉각부(160)는 감압된 액체 냉매가 기체 상태로 상태 변환하면서 주위 공기의 열 에너지를 흡수하는 현상을 이용하여 저장실(20)에 냉기를 공급할 수 있다.In particular, the cooling unit 160 may supply cold air to the storage compartment 20 by using a phenomenon in which the pressure-reduced liquid refrigerant absorbs thermal energy of ambient air while changing its state into a gas state.
다만, 냉각부(160)의 구성이 압축기(161), 응축기(162), 팽창기(163) 및 증발기(164)에 한정되는 것은 아니다.However, the configuration of the cooling unit 160 is not limited to the compressor 161, the condenser 162, the expander 163, and the evaporator 164.
예를 들어, 냉각부(160)는 펠티어 효과(Peltier effect)를 이용한 펠티어 소자를 포함할 수도 있다. 펠티어 효과란 서로 다른 종류의 금속이 접하는 접촉면에 전류를 흐르게 하면 어느 하나의 금속에서는 발열 현상이 발생하고, 다른 하나의 금속에서는 흡열 현상이 발생하는 것을 의미한다. 냉각부(160)는 펠티어 소자를 이용하여 저장실(102)에 냉기를 공급할 수도 있다.For example, the cooling unit 160 may include a Peltier element using the Peltier effect. The Peltier effect means that when a current flows through contact surfaces of different metals, an exothermic phenomenon occurs in one metal and an endothermic phenomenon occurs in another metal. The cooling unit 160 may supply cold air to the storage compartment 102 using the Peltier element.
다른 예로, 냉각부(160)는 자기 열효과(magneto-caloric effect)를 이용한 자기 냉각 장치를 포함할 수 있다. 자기 열효과란 특정한 물질(자기 열량 물질)이 자화되면 열을 방출하고, 특정한 물질(자기 열량 물질)이 탈자화되면 열을 흡수하는 것을 의미한다. 냉각부(160)는 자기 냉각 장치를 이용하여 저장실(20)에 냉기를 공급할 수도 있다.As another example, the cooling unit 160 may include a magnetic cooling device using a magneto-caloric effect. The magnetocaloric effect means that heat is released when a specific material (magnetic calorie material) is magnetized, and absorbs heat when the specific material (magnetic calorie material) is demagnetized. The cooling unit 160 may supply cold air to the storage compartment 20 by using a magnetic cooling device.
온도 감지부(170)는 저장실(20)의 내부에 마련되어, 저장실(20) 내부의 온도를 감지할 수 있다. 온도 감지부(170)는 복수의 저장실(20a, 20b, 20c)에 각각 설치되는 복수의 온도 센서(171)를 포함할 수 있다. 또한, 복수의 온도 센서(171) 각각은 온도에 따라 전기적 저항이 변화하는 서미스터(thermistor)를 포함할 수 있다.The temperature sensing unit 170 may be provided in the storage compartment 20 to sense a temperature inside the storage compartment 20. The temperature sensing unit 170 may include a plurality of temperature sensors 171 installed in the plurality of storage chambers 20a, 20b, and 20c, respectively. In addition, each of the plurality of temperature sensors 171 may include a thermistor whose electrical resistance changes with temperature.
음향부(180)는 메인 컨트롤러(110)로부터 수신되는 전기적 신호를 음향 신호로 변환하고 변환된 음향 신호를 출력하는 스피커(181)과 음향 신호를 전기적 신호를 변환하고 변환된 전기적 신호를 메인 컨트롤러(110)로 출력하는 마이크로폰(182)을 포함할 수 있다.The sound unit 180 converts an electrical signal received from the main controller 110 into an acoustic signal, converts an electrical signal into a speaker 181 for outputting the converted acoustic signal, and converts an electrical signal into a main controller ( It may include a microphone 182 that outputs to 110.
메인 컨트롤러(110)는 디스플레이(120)를 통하여 수신된 사용자 입력 및/또는 저장부(130)에 저장된 프로그램 및 데이터에 따라 냉장고(1)에 포함된 디스플레이(120), 저장부(130), 통신부(140), 디스펜서(150), 냉각부(150), 온도 감지부(170) 및 음향부(180)을 제어할 수 있다.The main controller 110 may include a display 120, a storage 130, and a communication unit included in the refrigerator 1 according to a user input and / or a program and data stored in the storage 130 received through the display 120. The controller 140 may control the dispenser 150, the cooling unit 150, the temperature sensing unit 170, and the acoustic unit 180.
이러한 메인 컨트롤러(110)는 냉장고(1)을 제어하기 위한 연산을 수행하는 마이크로프로세서(111), 마이크로프로세서(111)의 연산 동작과 관련된 프로그램 및 데이터를 저장/기억하는 메모리(112)를 포함할 수 있다.The main controller 110 may include a microprocessor 111 that performs operations for controlling the refrigerator 1, and a memory 112 that stores / stores programs and data related to operations of the microprocessor 111. Can be.
마이크로프로세서(111)는 메모리(112)에 저장/기억된 프로그램에 따라 메모리(112)에 저장/기억된 데이터를 불러오고, 불러온 데이터에 대하여 산술 연산 또는 논리 연산을 수행할 수 있다. 또한, 마이크로프로세서(111)는 산술 연산 또는 논리 연산의 결과를 메모리(112)에 출력할 수 있다.The microprocessor 111 may load data stored / stored in the memory 112 according to a program stored / stored in the memory 112 and perform an arithmetic operation or a logical operation on the retrieved data. Also, the microprocessor 111 may output the result of an arithmetic operation or a logical operation to the memory 112.
메모리(112)는 전원 공급이 중단되면 기억된 데이터를 상실하는 휘발성 메모리를 포함할 수 있다. 휘발성 메모리는 앞서 설명된 저장부(130)으로부터 프로그램 및 데이터를 불러오고, 불러온 데이터를 임시로 기억할 수 있다. 또한, 휘발성 메모리는 기억된 프로그램 및 데이터를 마이크로프로세서(111)에 제공할 수 있으며, 마이크로프로세서(111)로부터 출력된 데이터를 기억할 수 있다. 이러한 휘발성 메모리는 S램, D랩등을 포함할 수 있다.The memory 112 may include a volatile memory that loses stored data when power supply is interrupted. The volatile memory may load a program and data from the storage 130 described above, and temporarily store the loaded data. In addition, the volatile memory can provide stored programs and data to the microprocessor 111, and can store data output from the microprocessor 111. Such a volatile memory may include an S-RAM, a D-lap, and the like.
또한, 메모리(112)는 필요에 따라 비휘발성 메모리를 포함할 수 있다. 비휘발성 메모리는 전원 공급이 중단되면 기억된 데이터를 보존할 수 있다. 비휘발성 메모리는 냉장고(1)에 포함된 각종 구성들을 관리하고 초기화시키기 위한 펌웨어(firmware)를 저장할 수 있다. 이러한 비휘발성 메모리는 롬, 이피롬, 이이피롬, 플래시 메모리 등을 포함할 수 있다.In addition, the memory 112 may include a nonvolatile memory as necessary. The nonvolatile memory can retain the stored data when the power supply is interrupted. The nonvolatile memory may store firmware for managing and initializing various components included in the refrigerator 1. Such nonvolatile memories may include ROM, EPYROM, EPYROM, flash memory, and the like.
또한, 메인 컨트롤러(110)는 복수의 마이크로프로세서(111)와 복수의 메모리(112)를 포함할 수 있다. 예를 들어, 냉장고(1)의 온도 감지부(170), 디스펜서(150) 및 냉각부(160)를 제어하는 제1 마이크로프로세서와 제1 메모리, 냉장고(1)의 디스플레이(120), 저장부(130), 통신부(140) 및 음향부(180)를 제어하는 제2 마이크로프로세서 및 제2 메모리를 포함할 수 있다.In addition, the main controller 110 may include a plurality of microprocessors 111 and a plurality of memories 112. For example, the first microprocessor and the first memory for controlling the temperature sensor 170, the dispenser 150, and the cooling unit 160 of the refrigerator 1, the display 120 of the refrigerator 1, and a storage unit. 130, a second microprocessor and a second memory for controlling the communicator 140 and the acoustic unit 180 may be included.
마이크로프로세서(111)와 메모리(112)는 기능적으로 구별되어 설명되었으나, 마이크로프로세서(111)와 메모리(112)가 반드시 물리적으로 구별되는 것은 아니다. 예를 들어, 마이크로프로세서(111)와 메모리(112)는 별도의 칩으로 구현될 수 있을 뿐만 아니라, 하나의 칩으로 구현될 수도 있다.Although the microprocessor 111 and the memory 112 have been described functionally and distinctly, the microprocessor 111 and the memory 112 are not necessarily physically distinguished. For example, the microprocessor 111 and the memory 112 may be implemented not only as separate chips but also as one chip.
이처럼, 메인 컨트롤러(110)는 냉장고(1)의 동작 전반을 제어할 수 있으며, 아래에서 설명하는 냉장고(1)의 동작은 메인 컨트롤러(110)의 제어에 의하여 수행되는 것으로 해석할 수 있다.As such, the main controller 110 may control the overall operation of the refrigerator 1, and the operation of the refrigerator 1 described below may be interpreted as being performed by the control of the main controller 110.
이상에서는 메인 컨트롤러(110), 저장부(130) 및 통신부(140)가 기능적으로 구별되어 설명되었으나, 메인 컨트롤러(110), 저장부(130) 및 통신부(140)가 반드시 물리적으로 구별되는 것은 아니다. 예를 들어, 메인 컨트롤러(110), 저장부(130) 및 통신부(140)가 하나의 칩으로 구현되거나, 메인 컨트롤러(110), 저장부(130) 및 통신부(140) 각각이 별도의 칩으로 구현될 수 있다.In the above description, the main controller 110, the storage unit 130, and the communication unit 140 have been functionally distinguished and described, but the main controller 110, the storage unit 130, and the communication unit 140 are not necessarily physically distinguished. . For example, the main controller 110, the storage unit 130, and the communication unit 140 may be implemented as one chip, or each of the main controller 110, the storage unit 130, and the communication unit 140 may be a separate chip. Can be implemented.
또한, 이상에서는 냉장고(1)에 포함된 디스플레이(120), 저장부(130), 통신부(140), 디스펜서(150), 냉각부(150), 온도 감지부(170), 음향부(180) 및 메인 컨트롤러(110)를 설명하였으나, 필요에 따라 새로운 구성이 추가되거나 일부 구성이 생략될 수 있다.In addition, the display 120, the storage unit 130, the communication unit 140, the dispenser 150, the cooling unit 150, the temperature sensing unit 170, and the sound unit 180 included in the refrigerator 1 are described above. Although the main controller 110 has been described, a new configuration may be added or some components may be omitted as necessary.
도 5는 일 실시예에 의한 냉장고에 포함된 디스플레이에 표시되는 홈 스크린을 도시한다.5 illustrates a home screen displayed on a display included in a refrigerator according to one embodiment.
냉장고(1)에 전원이 공급되면, 메인 컨트롤러(110)는 도 5에 도시된 바와 같은 홈 스크린(200)을 표시하도록 디스플레이(120)를 제어할 수 있다.When power is supplied to the refrigerator 1, the main controller 110 may control the display 120 to display the home screen 200 as illustrated in FIG. 5.
홈 스크린(200)에는 시간 및 날짜를 표시하는 시간/날짜 표시 영역(210), 냉장고(1)의 동작 정보를 표시하는 동작 정보 표시 영역(220) 및 저장부(130)에 저장된 어플리케이션을 실행하기 위한 복수의 런처들(230)이 표시될 수 있다.On the home screen 200, an application stored in the time / date display area 210 displaying the time and date, the operation information display area 220 displaying the operation information of the refrigerator 1, and the storage 130 is executed. A plurality of launcher 230 for may be displayed.
시간/날짜 표시 영역(210)에는 현재의 시간 정보와 오늘의 날짜 정보가 표시될 수 있다. 또한, 시간/날짜 표시 영역(210)에는 냉장고(1)가 위치하는 위치의 위치 정보(예를 들어, 국가 또는 도시의 명칭)가 표시될 수 있다.In the time / date display area 210, current time information and today's date information may be displayed. In addition, the time / date display area 210 may display location information (eg, a name of a country or city) of a location where the refrigerator 1 is located.
동작 정보 표시 영역(220)에는 냉장고(1)에 포함된 복수의 저장실(20a, 20b, 20c)의 동작과 관련된 저장실 맵(221)이 표시될 수 있다.In the operation information display area 220, a storage map 221 related to operations of the plurality of storage rooms 20a, 20b, and 20c included in the refrigerator 1 may be displayed.
저장실 맵(221)에는 냉장고(1)에 포함된 복수 저장실(20a, 20b, 20c)의 동작과 관련된 정보가 표시될 수 있다. 예를 들어, 도 5에 도시된 바와 같이 저장실 맵(221)에는 상부 저장실(20a), 하부 제1 저장실(20b) 및 하부 제2 저장실(20c)이 구획되어 표시될 수 있으며, 상부 저장실(20a)의 목표 온도, 하부 제1 저장실(20b)의 목표 온도 및 하부 제2 저장실(20c)의 목표 온도가 표시될 수 있다.The storage map 221 may display information related to operations of the plurality of storage rooms 20a, 20b, and 20c included in the refrigerator 1. For example, as illustrated in FIG. 5, an upper storage compartment 20a, a lower first storage compartment 20b, and a lower second storage compartment 20c may be divided and displayed in the storage compartment map 221, and the upper storage compartment 20a may be displayed. ), A target temperature of the lower first storage compartment 20b and a target temperature of the lower second storage compartment 20c may be displayed.
이때, 사용자가 각각의 저장실(20a, 20b, 20c)을 나타내는 영역을 터치하면, 메인 컨트롤러(110)는 각각의 저장실(20a, 20b, 20c)의 목표 온도를 표시하기 위한 영상을 디스플레이(120)에 표시할 수 있다. 예를 들어, 사용자가 저장실 맵(221) 중에 상부 저장실(20a)을 나타내는 영역을 터치하면, 상부 저장실(20a)의 목표 온도를 설정하기 위한 영상이 디스플레이(120)에 표시될 수 있다.In this case, when the user touches an area representing each of the storage compartments 20a, 20b, and 20c, the main controller 110 displays an image for displaying a target temperature of each of the storage compartments 20a, 20b, and 20c. Can be marked on. For example, when a user touches an area indicating the upper storage compartment 20a in the storage compartment map 221, an image for setting a target temperature of the upper storage compartment 20a may be displayed on the display 120.
또한, 동작 정보 표시 영역(220)에는 과 냉장고(1)의 동작을 제어하는 어플리케이션을 실행하기 위한 타이머 설정 아이콘(222)과 냉장고 설정 아이콘(223)이 표시될 수 있다.In addition, the operation information display area 220 may display a timer setting icon 222 and a refrigerator setting icon 223 for executing an application for controlling the operation of the and refrigerator 1.
타이머 설정 아이콘(222)이 사용자에 의하여 터치되면, 타이머의 목표 시간을 설정하기 위한 타이머 설정 스크린을 디스플레이(120)에 표시할 수 있다. 예를 들어, 사용자는 타이머 설정 영상을 통하여 알람을 출력할 시각 또는 알람을 출력하기까지의 시간 간격 등을 입력할 수 있으며, 냉장고(1)는 사용자에 의하여 입력된 시각에 알람을 출력하거나 사용자에 의하여 입력된 시간 간격이 경과하면 알람을 출력할 수 있다.When the timer setting icon 222 is touched by the user, a timer setting screen for setting a target time of the timer may be displayed on the display 120. For example, the user may input the time to output the alarm or the time interval until the alarm is output through the timer setting image, and the refrigerator 1 outputs the alarm at the time input by the user or the user. When the input time interval elapses, an alarm can be output.
냉장고 설정 아이콘(223)이 사용자에 의하여 터치되면, 메인 컨트롤러(110)는 냉장고(1)의 동작을 제어하기 위한 설정값을 입력할 수 있는 동작 설정 스크린을 디스플레이(120)에 표시할 수 있다. 예를 들어, 사용자는 동작 설정 스크린을 통하여 냉장고(1)에 포함된 복수의 저장실(20a, 20b, 20c) 각각의 목표 온도를 설정할 수 있으며, 디스펜서(150)를 통하여 물과 얼음 중에 어느 것이 배출될지를 설정할 수 있다.When the refrigerator setting icon 223 is touched by the user, the main controller 110 may display, on the display 120, an operation setting screen for inputting a setting value for controlling the operation of the refrigerator 1. For example, a user may set a target temperature of each of the plurality of storage compartments 20a, 20b, and 20c included in the refrigerator 1 through an operation setting screen, and which of the water and ice is discharged through the dispenser 150. You can set whether or not.
또한, 홈 스크린(200)에는 사용자에 의하여 저장부(130)에 저장된 다양한 어플리케이션을 실행하기 위한 복수의 런처(230)가 표시될 수 있다.In addition, the home screen 200 may display a plurality of launcher 230 for executing various applications stored in the storage 130 by the user.
예를 들어, 홈 스크린(200)에는 저장부(130)에 저장된 사진을 표시하는 앨범 어플리케이션을 실행하기 위한 앨범 런처(231), 음식의 조리법을 제공하는 레시피 어플리케이션을 실행하기 위한 레시피 런처(232), 디스플레이(120)의 동작을 제어하는 스크린 설정 어플리케이션을 실행하기 위한 스크린 설정 런처(233) 등이 표시될 수 있다.For example, the home screen 200 includes an album launcher 231 for executing an album application displaying a picture stored in the storage 130, and a recipe launcher 232 for executing a recipe application providing a recipe for food. The screen setting launcher 233 for executing the screen setting application for controlling the operation of the display 120 may be displayed.
또한, 홈 스크린(200)에는 냉장고(1)를 통하여 각종 가전 기기를 제어하는 가전기기 제어 어플리케이션을 실행하기 위한 가전기기 제어 런처(234), 각종 컨텐츠를 음성으로 출력하는 음성 출력 어플리케이션의 동작을 설정하기 위한 음성 출력 설정 런처(235) 및 온라인 쇼핑을 위한 쇼핑 어플리케이션을 실행하기 위한 온라인 쇼핑 런처(236) 등이 표시될 수 있다.In addition, the home screen 200 sets the operation of the home appliance control launcher 234 for executing the home appliance control application for controlling various home appliances through the refrigerator 1, and the operation of the voice output application for outputting various contents as a voice. The voice output setting launcher 235 and the online shopping launcher 236 for executing a shopping application for online shopping may be displayed.
이상에서 설명된 바와 같이 냉장고(1)의 홈 스크린(200)에는 냉장고(1)의 동작과 관련된 주요한 정보와 다양한 어플리케이션을 실행하기 위한 런처가 표시될 수 있다.As described above, the home screen 200 of the refrigerator 1 may display main information related to the operation of the refrigerator 1 and a launcher for executing various applications.
그러나, 도 5에 도시된 도면은 홈 스크린(200)의 일 예에 불과하며, 냉장고(100)는 사용자의 설정 등에 따라 다양한 형태의 홈 스크린을 표시할 수 있으며, 홈 스크린에 표시되는 정보 및 런처 역시 도 5에 도시된 바에 한정되지 않는다.However, the drawing illustrated in FIG. 5 is only an example of the home screen 200, and the refrigerator 100 may display various types of home screens according to a user's setting, and the information and the launcher displayed on the home screen. Again not limited to the bar shown in FIG.
도 6은 일 실시예에 의한 냉장고의 디스플레이(120)에 표시되는 음성 인식 UI를 도시한다. 이하 메인 컨트롤러를 편의상 컨트롤러로 지칭한다.6 illustrates a voice recognition UI displayed on the display 120 of the refrigerator according to one embodiment. Hereinafter, the main controller will be referred to as a controller for convenience.
컨트롤러(110)는 마이크로폰(182)을 통해 미리 설정된 웨이크 워드(wake word)가 입력되면 음성 인식 사용자 인터페이스(250, 이하 UI라 함)를 디스플레이(120)에 표시할 수 있다. 음성 인식 UI(250)는 도 6에 도시된 것과 같은 구성을 갖는 UI로 디스플레이(120)에 표시될 수 있다. 웨이크 워드는 미리 설정된 단어 또는 단어의 조합으로 이루어질 수 있고, 사용자가 원하는 표현으로 변경될 수도 있다.When a preset wake word is input through the microphone 182, the controller 110 may display a voice recognition user interface 250 (hereinafter, referred to as a UI) on the display 120. The speech recognition UI 250 may be displayed on the display 120 as a UI having a configuration as illustrated in FIG. 6. The wake word may be composed of a preset word or a combination of words, and may be changed to a desired expression by the user.
컨트롤러(110)는 전술한 것처럼 사용자에 의해 발화되는 웨이크 워드를 통해서 음성 인식 기능을 실행할 수도 있고, 도 7에 도시된 것처럼, 공지 UI에 표시되는 마이크로폰 형상의 버튼(271)이 터치되면 음성 인식 기능을 실행할 수도 있다.As described above, the controller 110 may execute the voice recognition function through the wake word uttered by the user. As shown in FIG. 7, when the microphone-shaped button 271 displayed on the public UI is touched, the voice recognition function is performed. You can also run
음성 인식 기능을 실행시키기 위한 버튼을 나타내는 런쳐의 형상은 마이크로폰의 형상에 한정되지 않고 다른 다양한 형태의 이미지로 구현될 수 있음은 물론이다.The shape of the launcher representing the button for executing the voice recognition function is not limited to the shape of the microphone, but may be implemented in various other forms of images.
공지 UI는 디스플레이(120)의 하단의 특정 지점이 터치된 채 상방으로 스와이프되는 터치 제스처가 입력되면, 도 7에 도시된 것처럼 디스플레이(120)에 표시될 수 있다. 음성 인식 기능을 실행시키기 위한 런처는 공지 UI에 표시될 수도 있고, 디스플레이(120)의 홈 스크린(200)에 표시될 수도 있다.The notification UI may be displayed on the display 120 when a touch gesture for swiping upward while a specific point at the bottom of the display 120 is touched is input. The launcher for executing the voice recognition function may be displayed on the notification UI or may be displayed on the home screen 200 of the display 120.
컨트롤러(110)는 음성 인식 기능을 이용하여 자연어로 이루어진 사용자의 음성을 인식하고 분석함으로써 사용자의 의도를 파악할 수 있고, 사용자의 의도에 따른 명령을 수행할 수 있다. 또한, 사용자의 의도에 따른 명령의 수행 과정이나 결과를 음성으로 출력하여 사용자가 청각적으로 음성 명령의 수행 과정이나 결과를 인식하도록 할 수 있다The controller 110 recognizes and analyzes the user's voice in natural language using a voice recognition function to determine the user's intention, and can execute a command according to the user's intention. In addition, by outputting the voice process or the result of the command according to the user's intention so that the user can recognize the voice process or the result of the voice command.
음성 인식 기능이 실행되면, 음성 인식 UI(250)가 도 6 및 도 7에 도시된 것처럼, 디스플레이(120)에 표시될 수 있다. 음성 인식 UI(250)는 TTS(Text To Speech) 기능을 통해 음성으로 출력되는 단어 또는 문장이 표시되는 제1영역(252)과 음성 인식 기능의 상태가 표시되는 제2영역(254)과, TTS(Text To Speech) 기능을 통해 음성이 출력되고 있음을 나타내는 제3영역(260)과, 음성 인식 기능의 설정을 위한 설정 오브젝트(256)와 음성 인식 기능 사용을 위한 도움말을 제공하는 도움말 오브젝트(258)를 포함할 수 있다.When the voice recognition function is executed, the voice recognition UI 250 may be displayed on the display 120, as shown in FIGS. 6 and 7. The speech recognition UI 250 may include a first region 252 in which a word or sentence output as speech through a text to speech (TTS) function is displayed, a second region 254 in which a state of a speech recognition function is displayed, and a TTS. A third area 260 indicating that speech is output through the text to speech function, a setting object 256 for setting the speech recognition function, and a help object 258 for providing help for using the speech recognition function. ) May be included.
음성 인식 기능의 상태가 표시되는 제2영역(254)은 사용자의 음성이 입력되고 있는 상태, 사용자의 음성 입력에 대한 대기상태 또는 사용자의 음성 입력에 따른 프로세스가 수행 중인 상태 등을 텍스트로 표시할 수 있다. 예를 들면, 사용자의 음성이 입력되고 있는 상태는 <listening>, 대기 상태는 <stand by>, 프로세스가 수행 중인 상태는 <processing>으로 표시될 수 있다. 전술한 영문 텍스트는 일 예일 뿐 국문 텍스트로 상태가 표시될 수도 있고, 텍스트가 아닌 이미지로 표시될 수도 있다. The second area 254 in which the status of the voice recognition function is displayed may display, in text, a state in which the user's voice is being input, a standby state for the user's voice input, or a state in which a process according to the voice input is being performed. Can be. For example, a state in which the user's voice is input may be displayed as <listening>, a standby state as <stand by>, and a state in which the process is performed as <processing>. The above-described English text is merely an example, and the status may be displayed in Korean text, or may be displayed as an image instead of text.
도 6 및 도 7에 도시된 것처럼, 음성 인식 UI(250)는 홈 스크린(200) 위에 팝업(pop up)된 카드 UI(card UI) 형태로 표시될 수도 있고, 디스플레이(120) 화면 전체에 표시될 수도 있다.As illustrated in FIGS. 6 and 7, the voice recognition UI 250 may be displayed in the form of a card UI popped up on the home screen 200 or displayed on the entire screen of the display 120. May be
컨트롤러(110)는 마이크로폰(182)을 통해 사용자의 음성이 입력되면, 후술할 제1서버(SV1)로 음성 데이터를 전송하고, 제1서버(SV1)로부터 음성을 분석한 정보를 수신하여 그에 따른 명령을 수행할 수 있다.When the user's voice is input through the microphone 182, the controller 110 transmits voice data to the first server SV1 to be described later, and receives information analyzed by the voice from the first server SV1. You can run the command.
도 8은 일 실시예에 의한 냉장고에 포함된 통신부를 통한 외부 장치와의 통신을 도시하고, 도 9 및 도 10는 일 실시예에 의한 냉장고와 서버의 통신을 도시한다.8 illustrates communication with an external device through a communication unit included in a refrigerator according to an embodiment, and FIGS. 9 and 10 illustrate communication between a refrigerator and a server according to an embodiment.
냉장고(1)는 통신부(140)를 통하여 서버(SV1, SV2) 뿐만 아니라 다양한 전자 장치와 통신할 수 있다.The refrigerator 1 may communicate with various electronic devices as well as the servers SV1 and SV2 through the communication unit 140.
예를 들어, 도 8에 도시된 것처럼, 냉장고(1)는 통신부(140)를 통하여 접속 중계기(Access Point) (AP)에 접속할 수 있다. 구체적으로, 냉장고(1)는 와이파이(Wi-Fi™, IEEE 802.11), 블루투스(Bluetooth™, IEEE 802.15.1), 지그비(Zigbee, IEEE 802.15.4) 등의 무선 통신 표준을 이용하여 접속 중계기(AP)에 접속할 수 있다.For example, as illustrated in FIG. 8, the refrigerator 1 may be connected to an access point AP via the communication unit 140. Specifically, the refrigerator 1 may use a connection repeater (Wi-Fi ™, IEEE 802.11), Bluetooth (Bluetooth ™, IEEE 802.15.1), Zigbee (Zigbee, IEEE 802.15.4) and the like using a wireless communication standard. AP).
이때, 접속 중계기(AP)는 "허브(hub)", "라우터(router)", "스위치(switch)", "게이트웨이(gateway)" 등 다양하게 불릴 수 있으며, 인터넷 등의 광역 네트워크(Wide Area Network) (WAN)와 연결될 수 있다.At this time, the access relay (AP) may be called variously, such as "hub", "router", "switch", "gateway", a wide area network (Internet), such as the Internet (Wide Area) Network) (WAN).
접속 중계기(AP)에는 냉장고(1) 뿐만 아니라, 공기 조화기(2), 세탁기(3), 오븐(4), 마이크로파 오븐(5), 로봇 청소기(6), 보안 카메라(7), 전등(8) 및 텔레비전(9) 등 다양한 전자 장치가 접속할 수 있다. 또한, 접속 중계기(AP)에 접속된 전자 장치들(1-9)은 지역 네트워크(Local Area Network) (LAN)를 형성할 수 있다.In the connection repeater AP, not only a refrigerator 1 but also an air conditioner 2, a washing machine 3, an oven 4, a microwave oven 5, a robot cleaner 6, a security camera 7, an electric lamp ( 8) and various electronic devices such as the television 9 can be connected. In addition, the electronic devices 1-9 connected to the access relay AP may form a local area network (LAN).
이처럼, 접속 중계기(AP)는 접속 중계기(AP)에 접속된 전자 장치들(1-9)에 의하여 형성된 지역 네트워크(LAN)와 인터넷 등의 광역 네트워크(WAN)를 연결할 수 있다.As such, the access relay AP may connect a local area network (LAN) formed by the electronic devices 1-9 connected to the access relay AP and a wide area network (WAN) such as the Internet.
광역 네트워크(WAN)에는 냉장고로 음성 데이터를 분석한 정보를 제공하는 제1서버(SV1)와 냉장고에 탑재된 어플리케이션을 통해 정보를 제공하는 사업자들이 운영하는 제2서버(SV2) 등이 접속될 수 있다. 제2서버(SV2)는 예를 들면, 냉장고에 탑재된 마트 어플리케이션과 같은 쇼핑 어플리케이션을 통해 온라인으로 식품을 판매하는 서버(이하 마트 서버라 함), 날씨 어플리케이션에 정보를 제공하는 서버(이하 날씨 서버라 함), 레시피 어플리케이션에 레시피 관련 정보를 제공하는 서버(이하 레시피 서버라 함), 음악 어플리케이션에 음악 관련 정보를 제공하는 서버(이하 음악 서버라 함) 등을 포함할 수 있다. The wide area network WAN may be connected to a first server SV1 that provides information analyzed by voice data to a refrigerator and a second server SV2 operated by operators that provide information through an application mounted on the refrigerator. have. The second server SV2 may be, for example, a server selling food online through a shopping application such as a mart application mounted in a refrigerator (hereinafter referred to as a mart server), and a server providing information to a weather application (hereinafter referred to as a weather server). A server providing recipe related information to a recipe application (hereinafter referred to as a recipe server), a server providing music related information to a music application (hereinafter referred to as a music server), and the like.
또한, 광역 네트워크(WAN)에는 모바일 단말기(MT)가 접속될 수 있다. 이때, 모바일 단말기(MT)는 위치에 따라 광역 네트워크(WAN)에 직접 접속하거나 접속 중계기(AP)를 통하여 광역 네트워크(WAN)에 접속할 수 있다. 예를 들어, 모바일 단말기(MT)가 접속 중계기(AP)와 근거리에 위치한 경우, 모바일 단말기(MT)는 접속 중계기(AP)를 통하여 광역 네트워크(WAN)에 접속할 수 있다. 또한, 모바일 단말기(MT)가 접속 중계기(AP)로부터 원거리에 위치한 경우, 모바일 단말기(MT)는 이동 통신 사업자가 제공하는 이동 통신 서비스를 통하여 광역 네트워크(WAN)에 직접 접속할 수 있다.In addition, a mobile terminal MT may be connected to the wide area network WAN. In this case, the mobile terminal MT may directly connect to the wide area network WAN or access the wide area network WAN through the access relay AP. For example, when the mobile terminal MT is located near the access repeater AP, the mobile terminal MT may access the wide area network WAN through the access repeater AP. In addition, when the mobile terminal MT is located far from the access relay AP, the mobile terminal MT may directly connect to the wide area network WAN through a mobile communication service provided by the mobile communication provider.
냉장고(1)는 접속 중계기(AP)를 통하여 제1서버(SV1) 및/또는 제2서버(SV2) 등으로 데이터를 전송하고, 제1서버(SV1) 및/또는 제2서버(SV2) 등으로부터 데이터를 수신할 수 있다.The refrigerator 1 transmits data to the first server SV1 and / or the second server SV2 through the connection repeater AP, and the first server SV1 and / or the second server SV2 and the like. Data may be received from.
예를 들어, 냉장고(1)는 접속 중계기(AP)를 통하여 제1서버(SV1)에 마이크로폰(182)을 통해 입력된 사용자의 음성 데이터를 전송할 수 있으며, 제1서버(SV1)는 음성 데이터를 분석하여 도출한 사용자의 의도가 포함된 분석 정보를 냉장고로 전송할 수 있다.For example, the refrigerator 1 may transmit voice data of a user input through the microphone 182 to the first server SV1 through the access repeater AP, and the first server SV1 may transmit the voice data. The analysis information including the user's intention derived from the analysis may be transmitted to the refrigerator.
냉장고(1)는 접속 중계기(AP)를 통하여 제2서버(SV2)로 사용자의 음성 데이터를 분석한 정보를 전송할 수 있고, 접속 중계기(AP)를 통하여 제2서버(SV2)로부터 특정 어플리케이션과 관련된 정보, 예를 들면, 마트 어플리케이션과 관련된 식품 정보를 수신할 수 있다.The refrigerator 1 may transmit information analyzing the voice data of the user to the second server SV2 through the access repeater AP, and may be associated with a specific application from the second server SV2 through the access repeater AP. Information, for example, food information associated with a mart application.
이상에서 설명된 바와 같이, 냉장고(1)는 제1서버(SV1)와 통신할 수 있으며, 제1서버(SV1)를 통하여 사용자의 음성 데이터의 분석 정보를 수신할 수 있다. 또한, 냉장고(1)는 제2서버(SV2)와 통신할 수 있으며, 제2서버(SV2)로부터 특정 어플리케이션과 관련된 정보를 수신할 수 있다. 이하 도 9 및 도 10을 참조하여, 냉장고와 서버 간의 통신을 보다 구체적으로 설명한다.As described above, the refrigerator 1 may communicate with the first server SV1 and receive analysis information of the voice data of the user through the first server SV1. In addition, the refrigerator 1 may communicate with the second server SV2 and receive information related to a specific application from the second server SV2. Hereinafter, the communication between the refrigerator and the server will be described in more detail with reference to FIGS. 9 and 10.
도 9에 도시된 것처럼, 냉장고(1)는 사용자로부터 발화된 음성명령이 입력되면, 음성 데이터를 제1서버(SV1)로 전송한다(1000). 제1서버(SV1)는 음성 데이터를 수신하면, 음성 데이터를 분석하여 사용자의 의도를 도출할 수 있다(1010).As illustrated in FIG. 9, when the voice command uttered by the user is input, the refrigerator 1 transmits voice data to the first server SV1 (1000). When the first server SV1 receives the voice data, the first server SV1 may analyze the voice data to derive the intention of the user (1010).
냉장고(1)의 컨트롤러(110)는 마이크로폰(182)을 통해 사용자의 음성명령이 입력되면, 입력된 아날로그 음성 신호를 디지털 신호인 음성 데이터로 변조하여 통신부(140)를 통해 제1서버(SV1)로 전송한다.When the user's voice command is input through the microphone 182, the controller 110 of the refrigerator 1 modulates the input analog voice signal into voice data, which is a digital signal, and communicates with the first server SV1 through the communication unit 140. To send.
냉장고(1)의 컨트롤러(110)는 펄스 코드 변조(Pulse Code Modulation)방식으로 아날로그 음성 신호를 디지털 음성 신호로 변조할 수 있다. 예를 들어, 냉장고(1)의 컨트롤러(110)는 사용자로부터 <오늘 날씨 알려줘>라는 음성명령이 입력되면, 상기 음성 명령을 디지털 신호로 변조하여 제1서버(SV1)로 전송할 수 있다.The controller 110 of the refrigerator 1 may modulate an analog voice signal into a digital voice signal by using pulse code modulation. For example, the controller 110 of the refrigerator 1 may input a voice command of <Notify me of the weather> from the user, and may modulate the voice command into a digital signal and transmit the same to the first server SV1.
제1서버(SV1)는 냉장고(1)로부터 전송된 음성 데이터에 전처리를 수행하여 노이즈를 제거하고, 음성 데이터를 분석하여 텍스트로 변환하는 자동 음성 인식부(ASR, Automatic Speech Regognition)와 자동 음성 인식부에 의해 변환된 텍스트에 기초하여 사용자의 의도를 파악하는 자연어 처리부(NLU, Natural Language Understanding)를 포함할 수 있다. 또는, 제1서버(SV1)는 인공 지능 알고리즘을 이용하여 학습된 학습 네트워크 모델을 포함할 수 있다. 이 경우, 제1서버(SV1)는 냉장고(1)로부터 전송된 음성 데이터를 학습 네트워크 모델에 적용하여 사용자의 의도를 파악(또는, 인식, 추정, 추론, 예측)할 수 있다.The first server SV1 removes noise by performing preprocessing on the speech data transmitted from the refrigerator 1, and analyzes the speech data and converts the speech data into text, and automatic speech recognition (ASR) and automatic speech recognition. It may include a natural language understanding (NLU) to grasp the user's intention based on the text converted by the wealth. Alternatively, the first server SV1 may include a learning network model trained using an artificial intelligence algorithm. In this case, the first server SV1 may apply the voice data transmitted from the refrigerator 1 to the learning network model to determine (or recognize, estimate, infer, and predict) the intention of the user.
예를 들어, 제1서버(SV1)의 자동 음성 인식부와 자연어 처리부는 음성 데이터가 현재 사용자가 있는 지역의 날씨에 대한 정보를 요구하고 있는 것으로 사용자의 의도를 파악할 수 있다.For example, the automatic speech recognition unit and the natural language processing unit of the first server SV1 may determine the user's intention that the voice data requires information on the weather of the region where the user is currently located.
제1서버(SV1)는 음성 데이터를 분석한 정보를 제2서버(SV2)로 전송하고(1020), 제2서버(SV2)는 음성 데이터의 분석 정보에 따라 음성 데이터가 요청한 정보를 제1서버(SV1)로 전송할 수 있다(1030). 제1서버(SV1)는 제2서버(SV2)로부터 전송된 정보를 냉장고(1)로 전송한다(1040).The first server SV1 transmits the information analyzing the voice data to the second server SV2 (1020), and the second server SV2 transmits the information requested by the voice data according to the analysis information of the voice data. In operation 1030, it may be transmitted to SV1. The first server SV1 transmits the information transmitted from the second server SV2 to the refrigerator 1 (1040).
제1서버(SV1)는 음성 데이터에 포함된 사용자의 의도가 파악되면, 사용자의 의도와 관련된 어플리케이션에 정보를 제공하는 제2서버(SV2)를 결정하여, 결정된 제2서버(SV2)로 음성 데이터를 분석한 정보를 전송한다.When the first server SV1 determines the intention of the user included in the voice data, the first server SV1 determines the second server SV2 that provides information to an application related to the user's intention, and determines the voice data to the determined second server SV2. Transmit the analyzed information.
예를 들어, 전술한 것처럼 음성 데이터에 포함된 사용자의 의도가 현재 사용자가 있는 지역의 날씨에 대한 정보를 요구하는 것으로 파악되면, 제2서버(SV2) 중 날씨 어플리케이션에 정보를 제공하는 날씨 서버로 음성 데이터의 분석 정보를 전송할 수 있다.For example, if it is determined that the intention of the user included in the voice data requires information on the weather of the region where the user is currently located, the weather server provides information to the weather application of the second server SV2. The analysis information of the voice data can be transmitted.
제2서버(SV2)는 음성 데이터의 분석 정보에 기초하여 사용자의 의도에 부합되는 정보를 검색하여 제1서버(SV1)로 전송할 수 있다. 예를 들면, 날씨 서버는 음성 데이터의 분석 정보에 기초하여 사용자가 있는 지역의 현재 날씨 정보를 생성하여, 제1서버(SV1)로 전송할 수 있다. 제1서버(SV1)는 제2서버(SV2)로부터 전송된 정보를 JSON(JavaScript Object Notation) 파일 형식으로 변환하여 냉장고(1)로 전송한다.The second server SV2 may search for information corresponding to the user's intention based on the analysis information of the voice data and transmit the information to the first server SV1. For example, the weather server may generate current weather information of the area where the user is based on the analysis information of the voice data, and transmit the generated weather information to the first server SV1. The first server SV1 converts the information transmitted from the second server SV2 into a JSON (JavaScript Object Notation) file format and transmits the information to the refrigerator 1.
냉장고(1)는 제1서버(SV1)로부터 전송된 정보를 카드 타입의 UI로 디스플레이(120)에 표시하고 음성으로 출력한다(1050).The refrigerator 1 displays the information transmitted from the first server SV1 on the display 120 using a card type UI and outputs it by voice (1050).
냉장고(1)의 통신부(140)에서 제1서버(SV1)로부터 전송된 JSON파일 형식의 정보를 수신하면, 냉장고(1)의 컨트롤러(110)는 수신된 정보를 카드 타입의 UI로 디스플레이(120)에 표시하고, TTS(Text To Speech) 기능을 이용하여 수신된 정보를 음성으로 출력할 수 있다.When the communication unit 140 of the refrigerator 1 receives the JSON file format information transmitted from the first server SV1, the controller 110 of the refrigerator 1 displays the received information as a card type UI (120). ), And the received information can be output by voice using the Text To Speech (TTS) function.
예를 들어, 냉장고(1)의 컨트롤러(110)는 제1서버(SV1)로부터 사용자가 있는 위치의 현재 날씨에 대한 정보를 JSON파일로 수신하면, 사용자의 위치와 시간 및 날씨를 포함하는 정보를 카드 UI로 디스플레이(120)에 표시할 수 있다. 그리고, 컨트롤러(110)는 카드 UI로 표시된 날씨 정보를 음성으로(예를 들면, <오늘 **동의 현재 날씨는 20도이고 습도는 50프로이며 구름이 끼지 않은 맑은 날씨입니다>)으로 출력할 수 있다.For example, when the controller 110 of the refrigerator 1 receives information about the current weather of the location where the user is from the first server SV1 as a JSON file, the controller 110 may receive information including the location, time, and weather of the user. The card UI may display the display 120. In addition, the controller 110 may output the weather information displayed by the card UI as a voice (for example, <today's current weather is 20 degrees, humidity is 50%, and it is clear without clouds>). have.
한편, 도 10을 참조하면, 냉장고(1)는 사용자로부터 발화된 음성명령이 입력되면, 음성 데이터를 제1서버(SV1)로 전송한다(1100). 제1서버(SV1)는 음성 데이터를 수신하면, 음성 데이터를 분석하여 사용자의 의도를 도출할 수 있다(1110).Meanwhile, referring to FIG. 10, when a voice command uttered by a user is input, the refrigerator 1 transmits voice data to the first server SV1 (1100). When the first server SV1 receives the voice data, the first server SV1 may analyze the voice data to derive the intention of the user (1110).
냉장고(1)의 컨트롤러(110)는 마이크로폰(182)을 통해 사용자의 음성명령이 입력되면, 입력된 아날로그 음성 신호를 디지털 신호인 음성 데이터로 변조하여 통신부(140)를 통해 제1서버(SV1)로 전송한다.When the user's voice command is input through the microphone 182, the controller 110 of the refrigerator 1 modulates the input analog voice signal into voice data, which is a digital signal, and communicates with the first server SV1 through the communication unit 140. To send.
냉장고(1)의 컨트롤러(110)는 펄스 코드 변조(Pulse Code Modulation)방식으로 아날로그 음성 신호를 디지털 음성 신호로 변조할 수 있다. 예를 들어, 냉장고(1)의 컨트롤러(110)는 사용자로부터 <다음 곡 들려줘>라는 음성명령이 입력되면, 상기 음성 명령을 디지털 신호로 변조하여 제1서버(SV1)로 전송할 수 있다. 또는, 냉장고(1)의 컨트롤러(110)는 사용자로부터<애플 파이 레시피 알려줘>라는 음성 명령이 입력되면, 상기 음성 명령을 디지털 신호로 변조하여 제1서버(SV1)로 전송할 수 있다.The controller 110 of the refrigerator 1 may modulate an analog voice signal into a digital voice signal by using pulse code modulation. For example, when the voice command “Listen to next song” is input from the user, the controller 110 of the refrigerator 1 may modulate the voice command into a digital signal and transmit the same to the first server SV1. Alternatively, when the voice command “tell me apple pie recipe” is input from the user, the controller 110 of the refrigerator 1 may modulate the voice command into a digital signal and transmit it to the first server SV1.
제1서버(SV1)는 냉장고(1)로부터 전송된 음성 데이터에 전처리를 수행하여 노이즈를 제거하고, 음성 데이터를 분석하여 텍스트로 변환하는 자동 음성 인식부(ASR, Automatic Speech Recognition)와 자동 음성 인식부에 의해 변환된 텍스트에 기초하여 사용자의 의도를 파악하는 자연어 처리부(NLU, Natural Language Understanding)를 포함할 수 있다. 또는, 제1서버(SV1)는 인공 지능 알고리즘을 이용하여 학습된 학습 네트워크 모델을 포함할 수 있다. 이 경우, 제1서버(SV1)는 냉장고(1)로부터 전송된 음성 데이터를 학습 네트워크 모델에 적용하여 사용자의 의도를 파악(또는, 인식, 추정, 추론, 예측)할 수 있다.The first server SV1 performs preprocessing on the speech data transmitted from the refrigerator 1 to remove noise, analyzes the speech data, and converts the speech data into text, and automatic speech recognition (ASR) and automatic speech recognition. It may include a natural language understanding (NLU) to grasp the user's intention based on the text converted by the wealth. Alternatively, the first server SV1 may include a learning network model trained using an artificial intelligence algorithm. In this case, the first server SV1 may apply the voice data transmitted from the refrigerator 1 to the learning network model to determine (or recognize, estimate, infer, and predict) the intention of the user.
예를 들어, 제1서버(SV1)의 자동 음성 인식부와 자연어 처리부는 음성 데이터가 현재 재생 중인 곡의 다음 곡의 재생을 요구하고 있는 것이라고 사용자의 의도를 파악할 수 있다. 또는 제1서버(SV1)의 자동 음성 인식부와 자연어 처리부는 음성 데이터가 애플 파이를 조리하는 방법을 알려달라고 요구하고 있는 것이라고 사용자의 의도를 파악할 수 있다.For example, the automatic speech recognition unit and the natural language processing unit of the first server SV1 may grasp the user's intention that the speech data requires the reproduction of the next song of the song currently being played. Alternatively, the automatic voice recognition unit and the natural language processing unit of the first server SV1 may recognize the user's intention that the voice data is required to inform the user of how to cook the apple pie.
제1서버(SV1)는 음성 데이터를 분석한 정보를 냉장고(1)로 전송하고(1120), 냉장고(1)는 음성 데이터의 분석 정보를 제2서버(SV2)로 전송한다(1130). 제2서버(SV2)는 음성 데이터의 분석 정보에 따라 음성 데이터가 요청한 정보를 냉장고(1)로 전송할 수 있다(1140).The first server SV1 transmits information analyzing the voice data to the refrigerator 1 (1120), and the refrigerator 1 transmits analysis information of the voice data to the second server SV2 (1130). The second server SV2 may transmit the information requested by the voice data to the refrigerator 1 according to the analysis information of the voice data (1140).
제1서버(SV1)는 음성 데이터를 분석하여 사용자 의도가 파악되면 사용자의 음성 데이터의 분석 정보를 JSON(JavaScript Object Notation) 파일 형식으로 변환하여 냉장고(1)로 전송한다.The first server SV1 analyzes the voice data, and when the user's intention is determined, converts the analysis information of the voice data of the user into a JSON (JavaScript Object Notation) file format and transmits it to the refrigerator 1.
냉장고(1)의 통신부(140)에서 제1서버(SV1)로부터 전송된 JSON파일 형식의 분석 정보를 수신하면, 냉장고(1)의 컨트롤러(110)는 분석 정보에 기초하여 관련 어플리케이션을 결정하고, 결정된 어플리케이션으로 분석 정보를 출력할 수 있다.When the communication unit 140 of the refrigerator 1 receives the analysis information in the JSON file format transmitted from the first server SV1, the controller 110 of the refrigerator 1 determines a related application based on the analysis information, The analysis information can be output to the determined application.
예를 들면, 냉장고(1)의 컨트롤러(110)는 JSON파일 형식의 분석 정보에 기초하여, 현재 재생 중인 곡의 다음 곡의 재생을 요구하는 것이 사용자의 의도로 파악되면, 음악 어플리케이션을 사용자의 의도와 관련된 기능을 수행하는 어플리케이션으로 결정할 수 있다. 그리고 컨트롤러(110)는 결정된 음악 어플리케이션으로 다음 곡의 재생을 요구하는 명령을 전송할 수 있다.For example, if the controller 110 of the refrigerator 1 determines that it is the user's intention to request the playback of the next song of the currently playing song based on the analysis information in the JSON file format, the user's intention of the music application is determined. This may be determined by an application that performs a function related to. The controller 110 may transmit a command for requesting reproduction of the next song to the determined music application.
또는 냉장고(1)의 컨트롤러(110)는 JSON파일 형식의 분석 정보에 기초하여, 애플 파이의 조리방법을 알려달라는 것이 사용자의 의도로 파악되면, 레시피 어플리케이션을 사용자의 의도와 관련된 기능을 수행하는 어플리케이션으로 결정할 수 있다. 그리고 컨트롤러(110)는 결정된 레시피 어플리케이션으로 애플 파이의 조리방법에 대한 정보를 요구하는 명령을 전송할 수 있다.Alternatively, when the controller 110 of the refrigerator 1 determines the user's intention to inform the cooking method of the apple pie based on the analysis information in the JSON file format, the application performs a recipe application function related to the user's intention. Can be determined. The controller 110 may transmit a command requesting information on a method of cooking an apple pie to the determined recipe application.
상기 결정된 어플리케이션으로 분석 정보가 출력되면, 결정된 어플리케이션은 정보를 제공해주는 제2서버(SV2)로 분석 정보를 전송할 수 있다. 제2서버(SV2)는 음성 데이터의 분석 정보에 기초하여 사용자의 의도에 부합되는 정보를 검색하여 냉장고(1)로 전송할 수 있다. When the analysis information is output to the determined application, the determined application may transmit the analysis information to the second server SV2 that provides the information. The second server SV2 may search for information corresponding to the user's intention based on the analysis information of the voice data and transmit the information to the refrigerator 1.
예를 들면, 음악 어플리케이션에서, 컨트롤러(110)로부터 출력되는 분석 정보를 수신하면, 음악 어플리케이션은 음악 어플리케이션으로 정보를 제공하는 제2서버(SV2) 즉, 음악 서버로 다음 곡에 대한 정보를 요청할 수 있다.For example, in the music application, when receiving the analysis information output from the controller 110, the music application may request information about the next song from the second server SV2 that provides the information to the music application, that is, the music server. have.
음악 서버는 음성 데이터의 분석 정보에 기초하여 현재 재생 중인 곡의 다음 곡을 결정하고, 결정된 다음 곡에 대한정보를 음악 어플리케이션으로 제공할 수 있다.The music server may determine the next song of the song currently being played based on the analysis information of the voice data, and provide the music application with information about the determined next song.
또는 레시피 어플리케이션에서 컨트롤러(110)로부터 출력되는 분석 정보를 수신하면, 레시피 어플리케이션은 레시피 어플리케이션으로 정보를 제공하는 제2서버(SV2) 즉, 레시피 서버로 애플 파이를 조리하는 방법에 대한 정보를 요청할 수 있다. 레시피 서버는 음성 데이터의 분석 정보에 기초하여 미리 저장된 애플 파이의 조리방법을 레시피 어플리케이션으로 제공하거나, 애플 파이의 다른 조리방법을 검색하여 레시피 어플리케이션으로 제공할 수 있다.Alternatively, when receiving the analysis information output from the controller 110 in the recipe application, the recipe application may request information on how to cook the apple pie to the second server (SV2) that provides information to the recipe application, that is, the recipe server. have. The recipe server may provide a recipe application of a pre-stored apple pie to a recipe application based on analysis information of voice data, or provide a recipe application by searching for another cooking method of apple pie.
냉장고(1)는 제2서버(SV2)로부터 전송되는 정보가 수신되면, 수신된 정보에 따라 관련 어플리케이션을 실행시킬 수 있다(1150).When the information transmitted from the second server SV2 is received, the refrigerator 1 may execute the related application according to the received information (1150).
냉장고(1)의 통신부(140)에서 제2서버(SV2)로부터 전송되는 정보를 수신하면, 컨트롤러(110)는 제2서버(SV2)로부터 전송된 정보에 따라, 상기 결정된 어플리케이션을 실행시켜 사용자의 음성에 대응되는 정보를 제공할 수 있다.When the communication unit 140 of the refrigerator 1 receives the information transmitted from the second server SV2, the controller 110 executes the determined application according to the information transmitted from the second server SV2, and then executes the determined application. Information corresponding to voice may be provided.
예를 들면, 컨트롤러(110)는 음악서버로부터 전송된 다음 곡에 대한 정보가 수신되면, 음악 어플리케이션을 실행시킨다. 음악 어플리케이션은 음악 서버로부터 전송된 다음 곡에 대한 정보에 따라 현재 재생 중이던 곡의 재생을 중지하고 다음 곡을 재생시킬 수 있다. 냉장고(1)의 디스플레이(120)에는 음악 어플리케이션의 UI가 표시되어 다음 곡의 재생과 관련된 정보가 표시될 수 있고, 냉장고(1)의 스피커(181)를 통해 현재 재생 중인 곡의 출력이 중지되고 다음 곡이 출력될 수 있다.For example, the controller 110 executes a music application when the information about the next song transmitted from the music server is received. The music application may stop playing the currently playing song and play the next song according to the information about the next song transmitted from the music server. The display 120 of the refrigerator 1 may display a UI of a music application to display information related to playing the next song, and the output of the song currently being played through the speaker 181 of the refrigerator 1 is stopped. The next song can be output.
또는 컨트롤러(110)는 레시피 서버로부터 전송된 애플 파이의 조리 방법에 대한 정보가 수신되면, 레시피 어플리케이션을 실행시킨다. 냉장고(1)의 디스플레이(120)에는 레시피 어플리케이션의 UI가 표시되어 애플 파이의 조리방법이 표시될 수 있고, 냉장고(1)의 스피커(181)를 통해 애플 파이의 레시피를 읽어 주는 음성이 출력될 수 있다.Alternatively, when the controller 110 receives the information on the method of cooking the apple pie transmitted from the recipe server, the controller 110 executes the recipe application. The display 120 of the refrigerator 1 may display a UI of a recipe application to display an apple pie cooking method, and a voice for reading the recipe of the apple pie through the speaker 181 of the refrigerator 1 may be output. Can be.
도 9에 도시된 것처럼, 제1서버(SV1)와 제2서버(SV2) 간의 통신을 통해 사용자의 음성과 관련된 정보가 수신될 수도 있고, 도 10에 도시된 것처럼 냉장고(1)와 제2서버(SV2) 간의 통신을 통해 사용자의 음성과 관련된 정보가 수신될 수도 있다.As illustrated in FIG. 9, information related to a voice of a user may be received through communication between the first server SV1 and the second server SV2, and the refrigerator 1 and the second server may be received as illustrated in FIG. 10. Information related to the voice of the user may be received through communication between the SV2s.
도 11A 내지 도 14는 일 실시예에 의한 냉장고를 통해 사용자가 식품을 구매하는 방법을 도시한다.11A to 14 illustrate a method of purchasing food by a user through a refrigerator according to one embodiment.
도 11A에 도시된 것처럼, 마이크로폰(182)을 통해 웨이크 워드와 함께 특정 식품을 주문하기 위한 음성이 입력될 수 있다(900). 컨트롤러(110)는 웨이크 워드가 인식되면 음성 인식 기능을 실행시켜 사용자의 음성을 분석하고, 사용자의 음성에 포함된 식품의 리스트(300)를 관련 어플리케이션(예를 들면 마트 어플리케이션)으로부터 제공받아 카드 UI 형태로 디스플레이(120)에 표시한다(901).As shown in FIG. 11A, a voice for ordering a particular food item with a wake word may be input through the microphone 182 (900). When the wake word is recognized, the controller 110 executes a voice recognition function to analyze the user's voice, and receives a list 300 of foods included in the user's voice from a related application (for example, a mart application). In operation 901, the display 120 displays the display 120 in the form of a display.
냉장고(1)는 도 9에 도시된 방법으로 제1서버(SV1)와의 통신을 통해 사용자의 음성을 분석하여 사용자의 의도를 파악하고, 제2서버(SV2)로부터 전송되는 사용자의 의도와 관련된 정보(예로, 식품의 리스트)를 제1서버(SV1)를 통해 수신할 수 있다. 그리고, 수신된 정보를 식품 리스트를 표시하는 어플리케이션의 입력 값으로 이용하여, 도 11A에 도시된 것처럼 식품 리스트(300)를 카드 UI 형태로 표시할 수 있다. 여기서, 사용자의 음성 분석 결과는, 예로, 식품명이 될 수 있다. 식품명은, 식품의 정확한 명칭 뿐만 아니라 식품을 지칭하는 관용어 또는 속어, 식품명의 일부, 식품명과 유사한 명칭을 포함할 수 있다. 또한, 식품명은 냉장고(1)의 사용자가 주로 발화하거나 또는 등록한 별칭이 될 수도 있다.In the method illustrated in FIG. 9, the refrigerator 1 analyzes a user's voice through communication with the first server SV1 to determine the user's intention, and information related to the user's intention transmitted from the second server SV2. (Eg, a list of foods) may be received through the first server SV1. Then, using the received information as an input value of the application for displaying a food list, as shown in Figure 11A can display the food list 300 in the form of a card UI. Here, the voice analysis result of the user may be, for example, a food name. The food name may include not only the exact name of the food, but also a idiom or slang that refers to the food, a portion of the food name, and a name similar to the food name. In addition, the food name may be an alias registered or uttered mainly by the user of the refrigerator 1.
식품 리스트(300)는 음성 인식 UI(250)의 하단에 카드 UI 형태로 표시될 수 있다. 식품 리스트(300)는 식품을 나타내는 대표 이미지(314)와, 제조사, 식품명, 용량, 수량 및 가격 등이 포함된 식품 정보(316)와, 다른 식품과 해당 식품을 구별하기 위해 식별 표지(312), 예를 들면 번호 등으로 구성될 수 있다.The food list 300 may be displayed in the form of a card UI at the bottom of the speech recognition UI 250. The food list 300 includes a representative image 314 representing a food, food information 316 including a manufacturer, a food name, a dose, a quantity, a price, and the like, and an identification mark 312 to distinguish the food from other foods. , For example, a number.
식별 표지의 경우, 복수의 식품을 각각 구분하기 위한 표지이면 되므로, 도시된 것처럼, 번호로 표시될 수도 있고, 문자로 표시될 수도 있다.In the case of the identification label, a label for distinguishing each of the plurality of foods may be used, and as shown, may be indicated by a number or may be indicated by letters.
그리고, 식품 리스트(300)에 포함된 식품보다 더 많은 식품을 확인하길 원하는 경우 선택할 수 있는 탭(318)이 식품 리스트(300)의 하단에 표시될 수 있다. 탭(318)은 탭(318)의 기능을 나타내는 문자(*마트에서 더 많은 식품 보기)로 표시될 수 있다. 사용자가 탭(318)을 터치하면, 식품 정보를 제공하는 마트 어플리케이션이 실행되어 디스플레이(120)에 표시될 수 있다.In addition, when a user wants to check more foods than the foods included in the food list 300, a selectable tab 318 may be displayed at the bottom of the food list 300. Tab 318 may be represented by a letter indicating the function of tab 318 (see more food at the mart). When the user touches the tab 318, a mart application that provides food information may be executed and displayed on the display 120.
컨트롤러(110)는 식품 리스트(300)와 함께 식품 리스트(300)에 포함된 식품 중 어떤 식품을 선택할지 여부에 대해 확인을 요청하는 음성을 스피커(181)를 통해 출력할 수 있고, 음성 인식 UI(250)의 제3영역(260)에 스피커(181)를 통해 음성이 출력되고 있음을 나타내는 마이크 이미지 등을 표시할 수 있다. 또한, 스피커(181)를 통해 출력되는 음성은 음성 인식 UI의 제1영역(250)에 텍스트로도 표시될 수 있다.The controller 110 may output, through the speaker 181, a voice requesting confirmation regarding which food from among the foods included in the food list 300 is selected together with the food list 300, and a voice recognition UI. A microphone image indicating that voice is being output through the speaker 181 may be displayed in the third region 260 of the 250. In addition, the voice output through the speaker 181 may also be displayed as text in the first area 250 of the voice recognition UI.
다양한 실시예로, 컨트롤러(110)는 마이크로폰(182)를 통해 식품명을 포함하는 제1음성을 인식할 수 있다. 예로, 컨트롤러(110)는 입력된 제1음성을 디지털 음성 신호로 변조할 수 있다. 그리고, 컨트롤러(110)는 인공 지능 알고리즘을 이용하여 학습된 학습 네트워크 모델을 통해 디지털 음성 신호를 인식하여 제1음성에 대응하는 식품명을 획득할 수 있다. 이때, 제1음성에 포함된 식품명 및 인식하여 획득된 식품명은 서로 동일할 수도 있고, 서로 다를 수도 있다. 예로, 제1음성에 포함된 식품명이 관용어, 별칭 또는 식품명의 일부인 경우, 인식하여 획득된 식품명은 전체 명칭, 판매 명칭 또는 상표 명칭이 될 수도 있다.In various embodiments, the controller 110 may recognize the first voice including the food name through the microphone 182. For example, the controller 110 may modulate the input first voice into a digital voice signal. The controller 110 may acquire a food name corresponding to the first voice by recognizing a digital voice signal through a learning network model trained using an artificial intelligence algorithm. In this case, the food name included in the first voice and the food name acquired by recognizing may be the same as or different from each other. For example, when the food name included in the first voice is an idiom, alias or part of a food name, the food name recognized and acquired may be a full name, a sales name, or a brand name.
제1음성을 인식하는 학습 네트워크 모델은 저장부(130)에 저장 중이거나, 또는 냉장고(1)로부터 제1음성 데이터를 수신하여 상기 제1음성 데이터를 인식하는 제1서버(SV1)에 저장 중일 수 있다. The learning network model that recognizes the first voice is being stored in the storage 130 or in the first server SV1 that receives the first voice data from the refrigerator 1 and recognizes the first voice data. Can be.
일 예로, 학습 네트워크 모델이 제1서버(SV1)에 저장 중인 경우, 컨트롤러(110)는 디지털 음성 신호로 변조된 제1음성을 제1서버(SV1)로 전송할 수 있다. 제1서버(SV1)는 제1음성을 입력 값으로서, 인공 지능 알고리즘을 이용하여 학습된 학습 네트워크 모델에 적용하여 제1음성에 대응하는 식품명을 인식(또는, 추정, 추론, 예측, 파악)할 수 있다. 인식 결과로서, 제1서버(SV1)는 제1음성에 대응하는 식품명을 컨트롤러(110)로 전송할 수 있다. 다른 일 예로, 학습 네트워크 모델이 저장부(130)에 저장 중인 경우, 컨트롤러(110)는 디지털 음성 신호로 변조된 제1음성을 저장부(130)에 저장 중인 학습 네트워크 모델에 적용하여 제1음성에 대응하는 식품명을 인식할 수 있다. For example, when the learning network model is being stored in the first server SV1, the controller 110 may transmit a first voice modulated by a digital voice signal to the first server SV1. The first server SV1 may input (eg, estimate, infer, predict, or grasp) a food name corresponding to the first voice by applying the first voice as an input value to a learning network model trained using an artificial intelligence algorithm. Can be. As a result of the recognition, the first server SV1 may transmit the food name corresponding to the first voice to the controller 110. As another example, when the learning network model is being stored in the storage unit 130, the controller 110 applies the first voice modulated by the digital voice signal to the learning network model stored in the storage unit 130 to generate the first voice. It can recognize the food name corresponding to the.
학습 네트워크 모델을 이용하여 식품명이 획득되면, 컨트롤러(110)는 획득된 식품명과 관련된 식품 정보(316)와 상기 식품 정보(316)를 다른 식품과 구별하기 위한 식별 표지(312)를 포함하는 식품 리스트(300)를 디스플레이(120)에 표시할 수 있다. When a food name is obtained using the learning network model, the controller 110 includes a food list including food information 316 related to the obtained food name and an identification mark 312 for distinguishing the food information 316 from other foods. 300 may be displayed on the display 120.
다음으로, 컨트롤러(110)는 마이크로폰(182)을 통해 식품 리스트의 식별 표지(312)를 지칭하는 제2음성을 인식할 수 있다. 예로, 컨트롤러(110)는 입력된 제2음성을 디지털 음성 신호로 변조할 수 있다. 그리고, 컨트롤러(110)는 인공 지능 알고리즘을 이용하여 학습된 학습 네트워크 모델을 통해 디지털 음성 신호를 인식하여 제2음성에 대응하는 식별 표지를 획득할 수 있다. 이 경우, 제2음성을 인식하는 학습 네트워크 모델은 저장부(130)에 저장 중이거나, 또는 음성 데이터를 분석하는 제1서버(SV1)에 저장 중일 수 있다.Next, the controller 110 may recognize the second voice that refers to the identification mark 312 of the food list through the microphone 182. For example, the controller 110 may modulate the input second voice into a digital voice signal. In addition, the controller 110 may acquire the identification mark corresponding to the second voice by recognizing the digital voice signal through the learning network model trained using the artificial intelligence algorithm. In this case, the learning network model for recognizing the second voice may be stored in the storage 130 or in the first server SV1 analyzing the voice data.
일 예로, 학습 네트워크 모델이 제1서버(SV1)에 저장 중인 경우, 컨트롤러(110)는 디지털 음성 신호로 변조된 제2음성을 제1서버(SV1)로 전송할 수 있다. 제1서버(SV1)는 제2음성을 입력 값으로서 인공 지능 알고리즘을 이용하여 학습된 학습 네트워크 모델에 적용하여 제2음성에 대응하는 식별 표지를 인식(또는, 추정, 추론, 예측, 파악)할 수 있다. 제1서버(SV1)는 제2음성에 대응하는 식별 표지를 컨트롤러(110)로 전송할 수 있다. 다른 일 예로, 학습 네트워크 모델이 저장부(130)에 저장 중인 경우, 컨트롤러(110)는 디지털 음성 신호로 변조된 제2음성을 저장부(130)에 저장 중인 학습 네트워크 모델에 적용하여 제2음성에 대응하는 식별 표지를 인식할 수 있다.For example, when the learning network model is being stored in the first server SV1, the controller 110 may transmit a second voice modulated by a digital voice signal to the first server SV1. The first server SV1 applies the second voice as an input value to the learning network model trained using an artificial intelligence algorithm to recognize (or estimate, infer, predict, or identify) an identification mark corresponding to the second voice. Can be. The first server SV1 may transmit an identification mark corresponding to the second voice to the controller 110. As another example, when the learning network model is being stored in the storage unit 130, the controller 110 applies the second voice modulated by the digital voice signal to the learning network model stored in the storage unit 130 to generate the second voice. Recognize an identification mark corresponding to.
학습 네트워크 모델을 이용하여 식별 표지가 인식되면, 컨트롤러(110)는 식별 표지(312)가 나타내는 적어도 하나의 식품의 구매 정보를 디스플레이(120)에 표시할 수 있다.When the identification mark is recognized using the learning network model, the controller 110 may display on the display 120 purchase information of at least one food indicated by the identification mark 312.
도 11B는 다른 실시예에 따른 냉장고를 통해 사용자가 식품을 구매하는 방법을 도시한다.11B illustrates a method for a user to purchase food through a refrigerator according to another embodiment.
도 11B에 도시된 것처럼, 마이크로폰(182)을 통해 특정 식품을 주문하기 위한 음성이 입력될 수 있다(950).As shown in FIG. 11B, voice may be input 950 for ordering a particular food through microphone 182.
컨트롤러(110)는 식품명을 포함하는 제1음성을 인식할 수 있다. 전술한 바와 같이, 일 예로, 컨트롤러(110)는 마이크로폰(182)을 통해 입력된 제1음성을 인공 지능 알고리즘을 이용하여 학습된 학습 네트워크 모델에 적용하여 제1음성을 인식할 수 있다.The controller 110 may recognize the first voice including the food name. As described above, as an example, the controller 110 may recognize the first voice by applying the first voice input through the microphone 182 to a learning network model trained using an artificial intelligence algorithm.
제1음성이 인식되면, 컨트롤러(110)는 제1음성에 대응하는 식품명과 관련된 식품(951-1)이 저장실(20)에 존재하는지 여부를 식별할 수 있다(951). 식품명과 관련된 식품은, 식품명을 명칭의 적어도 일부로 가지는 식품이거나, 상기 식품명과 유사 또는 대체 가능한 식품일 수 있다.When the first voice is recognized, the controller 110 may identify whether the food 951-1 associated with the food name corresponding to the first voice exists in the storage compartment 20 (951). The food associated with the food name may be a food having the food name as at least part of the name, or a food similar or replaceable with the food name.
예로, 냉장고(1)는 저장실(20)에 존재하는 식품들의 식품명을 포함하는 보관 정보 리스트를 저장부(130)에 저장할 수도 있다. 보관 정보 리스트의 식품명들은, 예로, 사용자가 냉장고(1)의 저장실(20)에 식품을 보관 시에 사용자 입력에 의하여 생성될 수 있다. 구체적으로, 사용자가 음성 또는 텍스트로 입력한 정보가 식품명으로서 저장될 수도 있고, 또는, 사용자가 식품의 식별 정보(예로, 바코드)를 태깅함에 따라, 식별 정보에 포함된 식품명이 저장될 수도 있다. 또는, 식품명들은, 냉장고(1)에 구비된 카메라를 이용하여 촬영된 저장실(10)의 영상 인식 결과로서 생성될 수도 있다. 예로, 냉장고(1)는 카메라를 통하여 촬영된 영상을 인공 지능 알고리즘을 이용하여 학습된 학습 네트워크 모델에 적용하여 식품명을 인식하고, 인식된 식품명을 저장할 수도 있다.For example, the refrigerator 1 may store the storage information list including the food names of the foods existing in the storage room 20 in the storage unit 130. For example, the food names of the storage information list may be generated by a user input when the user stores the food in the storage compartment 20 of the refrigerator 1. Specifically, the information input by the user by voice or text may be stored as the food name, or the food name included in the identification information may be stored as the user tags the food identification information (eg, a barcode). Alternatively, the food names may be generated as a result of image recognition of the storage room 10 photographed using a camera provided in the refrigerator 1. For example, the refrigerator 1 may recognize a food name and store the recognized food name by applying an image photographed through a camera to a learning network model trained using an artificial intelligence algorithm.
냉장고(1)는 제1음성에 대응하는 식품명이 보관 정보 리스트에 존재하는지를 검색하여, 식품명과 관련된 식품이 저장실(20)에 존재하는지 여부를 식별할 수 있다.The refrigerator 1 may search whether a food name corresponding to the first voice exists in the storage information list, and identify whether a food associated with the food name exists in the storage compartment 20.
제1음성에 대응하는 식품명과 관련된 식품(951-1)이 저장실(20)에 존재하는지 여부를 식별한 결과, 식품명과 관련된 식품(951-1)이 저장실(20)에 존재하면, 컨트롤러(110)는 식품(951-1)의 존재를 나타내는 정보가 표시되도록 디스플레이(120)를 제어할 수 있다(952). 식품의 존재를 나타내는 정보는, 예로, 식품을 촬영한 동영상 또는 이미지(952-1), 식품이 존재를 나타내는 알림 텍스트(예로,'찾으시는 것과 유사한 식품이 냉장고에 있습니다')(952-2) 또는 식품의 존재를 나타내는 알림 사운드 중 적어도 하나를 포함할 수 있다.As a result of identifying whether the food 951-1 associated with the food name corresponding to the first voice exists in the storage compartment 20, if the food 951-1 associated with the food name exists in the storage compartment 20, the controller 110 ) May control the display 120 to display information indicating the presence of food 951-1 (952). Information indicating the presence of food may be, for example, a video or image of the food (952-1), a notification text indicating the presence of food (e.g., 'there is a food similar to what you are looking for') 952-2, or It may include at least one of the notification sound indicating the presence of food.
한편, 사용자가 식품을 추가 주문을 원할 수도 있다. 예로, 식품(951-1)의 존재를 나타내는 정보가 표시된 디스플레이(120)에는 식품을 추가 주문할 수 있는 UI(미도시)가 함께 표시될 수 있다. 이 경우, UI(미도시)를 선택하는 사용자 입력에 응답하여, 컨트롤러(110)는 도 11A에서 도시된 것처럼 식품 리스트(300)가 표시되도록 디스플레이(120)를 제어할 수 있다.On the other hand, the user may want to order food additionally. For example, the display 120 displaying information indicating the presence of the foods 951-1 may be displayed together with a UI (not shown) for further ordering of foods. In this case, in response to a user input of selecting a UI (not shown), the controller 110 may control the display 120 to display the food list 300 as shown in FIG. 11A.
도 11C는 또 다른 실시예에 따른 냉장고를 통해 사용자가 식품을 구매하는 방법을 도시한다.11C illustrates a method of purchasing food by a user through a refrigerator according to another embodiment.
도 11C에 도시된 것처럼, 마이크로폰(182)을 통해 특정 식품을 주문하기 위한 음성이 입력될 수 있다(960).As shown in FIG. 11C, voice may be input 960 for ordering a particular food through microphone 182.
컨트롤러(110)는 식품명을 포함하는 제1음성을 인식할 수 있다. 전술한 바와 같이, 일 예로, 컨트롤러(110)는 마이크로폰(182)을 통해 입력된 제1음성을 인공 지능 알고리즘을 이용하여 학습된 학습 네트워크 모델에 적용하여 제1음성을 인식할 수 있다.The controller 110 may recognize the first voice including the food name. As described above, as an example, the controller 110 may recognize the first voice by applying the first voice input through the microphone 182 to a learning network model trained using an artificial intelligence algorithm.
제1음성이 인식되면, 컨트롤러(110)는 제1음성에 대응하는 식품명과 관련된 식품이 저장실(20)에 존재하는지 여부를 식별할 수 있다(961). 예로, 컨트롤러(110)는 냉장고(1)에 구비된 카메라를 이용하여 촬영된 저장실(20)의 영상에 기초하여, 식품명과 관련된 식품이 저장실(20)에 존재하는지 여부를 식별할 수 있다. 또는, 냉장고(1)의 저장부(130)에는 저장실(20)에 존재하는 식품들에 대한 보관 정보 리스트가 존재할 수 있다. 이 경우, 컨트롤러(110)는 보관 식품 리스트에 식품명이 존재하는지를 검색하여, 식품명과 관련된 식품이 저장실(20)에 존재하는지 여부를 식별할 수 있다.When the first voice is recognized, the controller 110 may identify whether food associated with the food name corresponding to the first voice exists in the storage compartment 20 (961). For example, the controller 110 may identify whether a food associated with a food name exists in the storage compartment 20 based on an image of the storage compartment 20 photographed using a camera provided in the refrigerator 1. Alternatively, a storage information list for foods existing in the storage compartment 20 may exist in the storage 130 of the refrigerator 1. In this case, the controller 110 may search whether the food name exists in the list of stored foods and identify whether the food associated with the food name exists in the storage compartment 20.
제1음성에 대응하는 식품명과 관련된 식품이 저장실(20)에 존재하는지 여부를 식별한 결과, 식품명과 관련된 식품이 저장실(20)에 존재하지 않으면, 컨트롤러(110)는 식품의 구매를 위하여, 식품명에 대응하는 명칭을 갖는 식품 정보와, 식품 정보를 식별할 수 있는 표지를 포함하는 식품 리스트(962-1)를 디스플레이(120)에 표시할 수 있다(962). 식품 리스트(962-1)는, 예로, 음성 인식 UI의 하단에 카드 UI 형태로 표시될 수 있다.As a result of identifying whether a food associated with a food name corresponding to the first voice exists in the storage compartment 20, and if a food associated with the food name does not exist in the storage compartment 20, the controller 110 may purchase a food name to purchase the food. The display 120 may display a food list 962-1 including food information having a name corresponding to and a label for identifying the food information (962). For example, the food list 962-1 may be displayed in a card UI form at the bottom of the voice recognition UI.
도 11D는 또 다른 실시예에 따른 냉장고를 통해 사용자가 식품을 구매하는 방법을 도시한다.11D illustrates a method for a user to purchase food through a refrigerator according to another embodiment.
도 11D에 도시된 것처럼, 마이크로폰(182)을 통해 특정 식품을 주문하기 위한 음성이 입력될 수 있다(970).As shown in FIG. 11D, voice may be input 970 to order a particular food through microphone 182.
컨트롤러(110)는 식품명을 포함하는 제1음성을 인식할 수 있다. 전술한 바와 같이, 일 예로, 컨트롤러(110)는 마이크로폰(182)을 통해 입력된 제1음성을 인공 지능 알고리즘을 이용하여 학습된 학습 네트워크 모델에 적용하여 제1음성을 인식할 수 있다. 또한, 컨트롤러(110)는 마이크로폰(182)을 통해 입력된 제1음성을 인공 지능 알고리즘을 이용하여 학습된 학습 네트워크 모델에 적용하여 제1음성을 발화한 사용자를 인식하여, 제1음성을 발화한 사용자 정보를 획득할 수 있다.The controller 110 may recognize the first voice including the food name. As described above, as an example, the controller 110 may recognize the first voice by applying the first voice input through the microphone 182 to a learning network model trained using an artificial intelligence algorithm. In addition, the controller 110 recognizes a user who uttered the first voice by applying the first voice input through the microphone 182 to the learning network model trained using an artificial intelligence algorithm, and utters the first voice. User information can be obtained.
일 예로, 학습 네트워크 모델이 제1서버(SV1)에 저장 중인 경우, 컨트롤러(110)는 디지털 음성 신호로 변조된 제1음성을 제1서버(SV1)로 전송할 수 있다. 제1서버(SV1)는 제1음성을 입력 값으로서 인공 지능 알고리즘을 이용하여 학습된 학습 네트워크 모델에 적용하여 제1음성을 발화한 사용자를 인식(또는, 추정, 추론, 예측, 파악)할 수 있다. 제1서버(SV1)는 제1음성을 발화한 사용자 정보를 컨트롤러(110)로 전송할 수 있다. For example, when the learning network model is being stored in the first server SV1, the controller 110 may transmit a first voice modulated by a digital voice signal to the first server SV1. The first server SV1 may recognize (or estimate, infer, predict, or grasp) a user who spoke the first voice by applying the first voice as an input value to a learning network model trained using an artificial intelligence algorithm. have. The first server SV1 may transmit the user information that uttered the first voice to the controller 110.
다른 일 예로, 학습 네트워크 모델이 저장부(130)에 저장 중인 경우, 컨트롤러(110)는 디지털 음성 신호로 변조된 제1음성을 저장부(130)에 저장 중인 학습 네트워크 모델에 적용하여 제1음성을 발화한 사용자를 인식할 수 있다.As another example, when the learning network model is being stored in the storage unit 130, the controller 110 applies the first voice modulated by the digital voice signal to the learning network model stored in the storage unit 130 to generate the first voice. It can recognize the user who uttered.
학습 네트워크 모델의 적용 결과로써, 식품명 및 사용자 정보가 획득되면, 컨트롤러(110)는 식품명과 관련하여 제1음성을 발화한 사용자가 선호하는 식품 정보를 획득할 수 있다(971). 예로, 냉장고(1)를 사용하는 사용자가 다수인 경우, 동일한 식품명이라도 식품의 제조사, 식품의 종류 또는 식품의 용량, 식품의 판매처에 따라 사용자 별로 선호하는 식품이 다를 수 있다. 이에 따라, 냉장고(1)의 저장부(130)는 동일한 식품명에 대하여 사용자 별 선호하는 식품 정보가 등록된 사용자 별 식품 정보 리스트(971-1)가 저장될 수 있다. 사용자 별 식품 정보는 사용자들 각각이 구매한 구매 이력, 직접 사용자가 등록한 입력 이력, 식품명에 대응하는 식별 표지들 중에서 선택된 식별 표지에 대응하는 식품 정보 이력 등에 기초하여 결정될 수 있다. 또한, 사용자 별 식품 정보 리스트는 사용자 별 선호하는 우선순위에 따라 식품 정보가 저장될 수도 있다. 예로, 사용자의 구매 이력이 많은 순서에 따라 우선순위가 결정된 식품 정보가 저장될 수 있다.As a result of the application of the learning network model, when the food name and the user information are obtained, the controller 110 may obtain food information preferred by the user who spoke the first voice in relation to the food name (971). For example, when there are a plurality of users who use the refrigerator 1, the same food name may have different preferred foods for each user depending on the manufacturer of the food, the type of food or the capacity of the food, and the place of sale of the food. Accordingly, the storage unit 130 of the refrigerator 1 may store a food information list 971-1 for each user, in which preferred food information for each user is registered for the same food name. The food information for each user may be determined based on a purchase history purchased by each user, an input history registered directly by the user, a food information history corresponding to an identification mark selected from identification labels corresponding to the food name, and the like. In addition, the food information list for each user may be stored in the food information according to the preferred priority for each user. For example, food information whose priority is determined according to the order of the purchase history of the user may be stored.
이 경우, 컨트롤러(110)는 저장부(130)에 저장된 식품 정보 리스트에 기초하여 특정 사용자가 선호하는 식품 정보를 획득할 수 있다(971). 또는, 컨트롤러(110)는 식품명 및 사용자 정보를 인공 지능 알고리즘을 이용하여 학습된 학습 네트워크 모델에 적용하여, 특정 사용자가 선호하는 식품 정보들을 획득할 수 있다. 이 경우, 학습 네트워크 모델은, 전술한 구매 이력, 입력 이력 및 선택된 식별 표지에 대응하는 식품 정보 이력 등을 이용하여 학습된 학습 네트워크 모델일 수 있다.In this case, the controller 110 may acquire food information preferred by a specific user based on the food information list stored in the storage 130 (971). Alternatively, the controller 110 may apply food name and user information to a learning network model learned using an artificial intelligence algorithm to obtain food information preferred by a specific user. In this case, the learning network model may be a learning network model trained using the above-described purchase history, input history, and food information history corresponding to the selected identification mark.
식품명 및 제1음성을 발화한 사용자가 선호하는 식품 정보가 획득되면, 컨트롤러(110)는 사용자가 선호하는 식품 정보와, 사용자가 선호하는 다른 식품 정보를 구별하기 위한 식별 표지를 포함하는 식품 리스트(972-1)를 디스플레이(120)에 표시할 수 있다. 이 때, 식품 리스트(972-1)에는 사용자가 선호하는 순위에 따라 사용자가 선호하는 식품 정보들이 정렬될 수 있다.When the food name and food information preferred by the user who uttered the first voice are obtained, the controller 110 may include a food list including an identification mark for distinguishing the food information that the user prefers from other food information that the user prefers. 972-1) may be displayed on the display 120. In this case, the food list 972-1 may sort the food information preferred by the user according to the user's preferred ranking.
도 12에 도시된 것처럼, 식품 리스트에 포함된 식품 중 어떤 식품을 선택할지 여부에 대한 확인을 요청하는 음성에 대응하여, 사용자는 특정 식품을 선택하는 음성을 발화할 수 있다(902). 예를 들어, 사용자는 식품들을 구분하기 위한 식별 표지를 음성으로 발화할 수 있다.As illustrated in FIG. 12, in response to a voice requesting confirmation of which food from among foods included in the food list, a user may utter a voice for selecting a specific food (902). For example, the user may utter the identification label to distinguish foods.
사용자는 식품 리스트 중 첫 번째 식품을 선택하기 위해, 1번 또는 첫 번째 것이라고 발화하여 식별 표지를 선택할 수 있다(903, 904).The user may utter the first or first one to select an identification label to select the first food in the food list (903, 904).
컨트롤러(110)는 음성 인식 기능을 통해 사용자의 음성을 분석할 수 있다. 이 경우, 도 10에 도시된 방법처럼 컨트롤러(110)는 제1서버(SV1)로 사용자의 음성 데이터를 전송하고, 제1서버(SV1)로부터 음성 데이터를 분석한 정보를 수신하여 사용자의 의도를 파악할 수 있다. 또는 냉장고(1)의 컨트롤러(110) 자체에서 음성 인식 기능을 이용하여 사용자의 음성을 분석하고 사용자의 의도를 파악할 수도 있을 것이다.The controller 110 may analyze the user's voice through a voice recognition function. In this case, as shown in FIG. 10, the controller 110 transmits the voice data of the user to the first server SV1 and receives information analyzed by the first server SV1 to analyze the intention of the user. I can figure it out. Alternatively, the controller 110 of the refrigerator 1 may analyze the user's voice and determine the user's intention using the voice recognition function.
컨트롤러(110)는 사용자가 발화한 식별 표지에 대응되는 식품명을 검색하고(905), 검색된 식품을 표시할 수 있다. 도 13에 도시된 것처럼, 컨트롤러(110)는 마트 어플리케이션을 실행시켜 선택된 식품을 구매하기 위한 구매 정보를 포함하는 UI를 디스플레이(120)에 표시할 수 있다(906).The controller 110 may search for a food name corresponding to the identification mark uttered by the user (905) and display the searched food. As shown in FIG. 13, the controller 110 may display a UI including purchase information for purchasing selected foods by executing a mart application on the display 120 (906).
이 경우, 도 11에 도시된 방법처럼, 컨트롤러(110)는 마트 어플리케이션으로 사용자의 음성 데이터를 분석한 정보를 출력하고, 제2서버(SV2)로부터 식품에 대한 정보를 수신하면, 마트 어플리케이션을 실행시켜 도 13에 도시된 것과 같은 UI를 디스플레이(120)에 표시할 수 있다.In this case, as shown in FIG. 11, the controller 110 outputs information analyzing the voice data of the user to the mart application, and executes the mart application when receiving information on food from the second server SV2. The UI as shown in FIG. 13 may be displayed on the display 120.
도 13을 참조하면, 사용자에 의해 선택된 식품의 정보를 구체적으로 나타내는 식품 확인 UI(350)가 도시된다. 식품 확인 UI는 식품을 나타내는 대표 이미지 영역(354)과, 제조사, 식품명, 용량, 수량 및 가격 등이 포함된 식품 정보 영역(356)과, 식품의 수량 조절을 위한 수량 조절 영역(358)과, 식품을 장바구니에 담기 위한 장바구니 탭, 식품을 바로 구매하기 위한 바로 구매 탭, 식품을 선물하기 위한 선물 탭, 선택된 식품을 북마크하기 위한 탭 등의 식품의 구매 정보를 포함하는 식품 구매 영역(360)을 포함할 수 있다. 도 13에 도시된 식품 구매 UI에 포함된 영역의 개수나 배치 내용 등은 일 예일 뿐 다른 개수나 배치 또는 다른 내용을 포함할 수도 있다.Referring to FIG. 13, a food confirmation UI 350 specifically showing information of a food selected by a user is shown. The food confirmation UI includes a representative image area 354 representing a food, a food information area 356 including a manufacturer, a food name, a capacity, a quantity, a price, and the like, a quantity control area 358 for controlling the quantity of food, A food purchase area 360 including food purchase information such as a shopping cart tab for putting food in a shopping cart, a direct purchase tab for purchasing food directly, a gift tab for presenting food, and a tab for bookmarking selected foods It may include. The number or arrangement of regions included in the food purchase UI illustrated in FIG. 13 is merely an example and may include other numbers, arrangements or other contents.
도 14에 도시된 것처럼, 사용자는 식품 확인 UI에 표시된 식품을 장바구니에 담기 위해 <장바구니에 넣어줘>라고 말하거나(907), 식품 확인 UI에 표시된 식품을 바로 구매하기 위해 <구매해줘>라고 말할 수 있다(912).As shown in FIG. 14, the user may say <put in the shopping cart> to put the food displayed in the food confirmation UI in the shopping cart (907), or say <buy it> to immediately purchase the food displayed in the food confirmation UI. May be 912.
<장바구니에 넣어줘>라는 사용자의 발화에 대응하여 식품을 장바구니에 담는 기능이 정상적으로 실행되면(908에서 예), 컨트롤러(110)는 도 14에 도시된 것처럼, 음성 인식 UI를 디스플레이(120)에 표시하여, <선택하신 식품을 장바구니에 추가합니다>라는 텍스트를 음성 인식 UI에 표시할 수 있다(909). 또한, 컨트롤러(110)는 TTS기능을 이용하여 음성 인식 UI에 표시된 상기 텍스트를 스피커(181)를 통해 음성으로 출력할 수 있다. 음성 인식 UI는 마트 어플리케이션 화면 상에 카드 UI 타입으로 표시될 수 있다.When the function of putting the food into the shopping cart in response to the utterance of the user `` put in the shopping cart '' is normally executed (YES in 908), the controller 110 displays the voice recognition UI on the display 120 as shown in FIG. 14. In operation 909, the text “Add the selected food to the shopping cart” may be displayed on the voice recognition UI. In addition, the controller 110 may output the text displayed on the voice recognition UI as a voice through the speaker 181 using the TTS function. The voice recognition UI may be displayed as a card UI type on the mart application screen.
마트 어플리케이션은 식품이 장바구니에 정상적으로 추가되었음을 나타내는 텍스트 및 음성이 출력되면, 디스플레이(120)에 장바구니 화면을 표시할 수 있다(911).When the text and voice indicating that the food is normally added to the shopping cart is output, the mart application may display a shopping cart screen on the display 120 (911).
<장바구니에 넣어줘>라는 사용자의 발화에 대응하여 식품을 장바구니에 담는 기능에 오류가 발생하면(908에서 아니오), 컨트롤러(110)는 도 14에 도시된 것처럼, 음성 인식 UI를 디스플레이(120)에 표시하여, <장바구니 추가 시 오류가 발생했습니다. 내용을 확인하시고 다시 시도해주세요>라는 텍스트를 음성 인식 UI에 표시할 수 있다(910). 또한, 컨트롤러(110)는 TTS기능을 이용하여 음성 인식 UI에 표시된 상기 텍스트를 스피커(181)를 통해 음성으로 출력할 수 있다. 이 경우, 사용자는 식품을 다시 장바구니에 추가하기 위해 다시 <장바구니에 넣어줘>라고 말할 수 있다.If an error occurs in the function of putting food into the shopping cart in response to the user's utterance of <put in the shopping cart> (No at 908), the controller 110 displays the voice recognition UI as shown in FIG. , An error occurred when adding the shopping cart. Check the content and try again> may be displayed on the speech recognition UI (910). In addition, the controller 110 may output the text displayed on the voice recognition UI as a voice through the speaker 181 using the TTS function. In this case, the user may say "put it in the shopping cart" again to add the food to the shopping cart.
<구매해줘>라는 사용자의 발화에 대응하여 식품을 바로 구매하는 기능이 정상적으로 실행되면(913에서 예), 컨트롤러(110)는 도 14에 도시된 것처럼, 음성 인식 UI를 디스플레이(120)에 표시하여, <선택하신 식품의 구매 페이지로 이동합니다>라는 텍스트를 음성 인식 UI에 표시할 수 있다(914). 또한, 컨트롤러(110)는 TTS기능을 이용하여 음성 인식 UI에 표시된 상기 텍스트를 스피커(181)를 통해 음성으로 출력할 수 있다. 음성 인식 UI는 마트 어플리케이션 화면 상에 카드 UI 타입으로 표시될 수 있다.If the function of immediately purchasing food in response to a user's utterance of <buy it> is normally executed (YES in 913), the controller 110 displays a voice recognition UI on the display 120 as shown in FIG. 14. In operation 914, the text <Go to the purchase page of the selected food> may be displayed on the voice recognition UI. In addition, the controller 110 may output the text displayed on the voice recognition UI as a voice through the speaker 181 using the TTS function. The voice recognition UI may be displayed as a card UI type on the mart application screen.
마트 어플리케이션은 식품 바로 구매하기 기능이 정상적으로 실행되어 식품의 구매 페이지로 이동한다는 텍스트 및 음성이 출력되면, 디스플레이(120)에 식품 구매 화면을 표시할 수 있다(915).In operation 915, the mart application may display a food purchase screen on the display 120 when a text and a voice indicating that the function of directly purchasing a food is normally executed to move to a purchase page of the food are output.
<구매해줘>라는 사용자의 발화에 대응하여 식품을 바로 구매하는 기능에 오류가 발생하면(913에서 아니오), 컨트롤러(110)는 도 14에 도시된 것처럼, 음성 인식 UI를 디스플레이(120)에 표시하여, <구매 페이지 이동 시 오류가 발생했습니다. 내용을 확인하시고 다시 시도해주세요>라는 텍스트를 음성 인식 UI에 표시할 수 있다(916). 또한, 컨트롤러(110)는 TTS기능을 이용하여 음성 인식 UI에 표시된 상기 텍스트를 스피커(181)를 통해 음성으로 출력할 수 있다. 이 경우, 사용자는 식품을 다시 구매하기 위해 <구매하기>라고 다시 말할 수 있다.If an error occurs in the function of immediately purchasing food in response to a user's utterance of <buy it> (NO in 913), the controller 110 displays a voice recognition UI on the display 120, as shown in FIG. An error occurred when moving the purchase page. Check the contents and try again> may be displayed on the speech recognition UI (916). In addition, the controller 110 may output the text displayed on the voice recognition UI as a voice through the speaker 181 using the TTS function. In this case, the user may say <purchase> again to purchase the food again.
한편, 도 12에 도시된 것처럼, 사용자는 식품 리스트에 포함된 식품을 선택하고 싶지 않거나, 식품 구매 과정을 취소하고 싶을 경우, <취소>라고 말할 수 있다(917).Meanwhile, as illustrated in FIG. 12, when the user does not want to select a food included in the food list or wants to cancel the food purchase process, the user may say <Cancel>.
컨트롤러(110)는 <취소>라는 사용자의 발화에 대응하여 음성 인식 UI를 디스플레이(120)에 표시하여, <식품 검색이 취소되었습니다 >라는 텍스트를 음성 인식 UI에 표시할 수 있다(918). 또한, 컨트롤러(110)는 TTS기능을 이용하여 음성 인식 UI에 표시된 상기 텍스트를 스피커(181)를 통해 음성으로 출력할 수 있다. 음성 인식 UI는 마트 어플리케이션 화면 상에 카드 UI 타입으로 표시될 수 있다.The controller 110 may display the speech recognition UI on the display 120 in response to the user's speech called <cancel>, and display the text <food search canceled> on the speech recognition UI (918). In addition, the controller 110 may output the text displayed on the voice recognition UI as a voice through the speaker 181 using the TTS function. The voice recognition UI may be displayed as a card UI type on the mart application screen.
또한, 도 12에 도시된 것처럼, 사용자는 식별 표지가 아닌 식품명을 말할 수 있다(919). 식품 리스트에 포함된 식품들 중에 동일한 식품명의 식품들이 존재하거나, 사용자가 잘못된 식품명을 말한 경우, 사용자가 선택한 식품이 식별될 수 없는 경우가 발생할 수 있다. 이런 경우 컨트롤러(110)는 도 12에 도시된 것처럼, 사용자의 발화에 대응하여 음성 인식 UI를 디스플레이(120)에 표시하여, <번호를 말씀해 주세요 >라는 텍스트를 음성 인식 UI에 표시할 수 있다(920). 또한, 컨트롤러(110)는 TTS기능을 이용하여 음성 인식 UI에 표시된 상기 텍스트를 스피커(181)를 통해 음성으로 출력할 수 있다.In addition, as illustrated in FIG. 12, the user may say a food name that is not an identification mark (919). If foods of the same food name exist among the foods included in the food list, or if the user says the wrong food name, the food selected by the user may not be identified. In this case, as shown in FIG. 12, the controller 110 may display the voice recognition UI on the display 120 in response to the user's speech, and display the text <Please tell the number> on the voice recognition UI ( 920). In addition, the controller 110 may output the text displayed on the voice recognition UI as a voice through the speaker 181 using the TTS function.
전술한 것처럼, 컨트롤러(110)는 사용자의 발화에 대응하여, 관련 어플리케이션을 바로 실행하지 않고, 카드 UI 형태로 정보를 제공한 다음, 카드 UI를 통해 제공되는 정보 중 특정 정보가 선택되면 관련 어플리케이션을 실행시킬 수 있다.As described above, the controller 110 provides information in the form of a card UI without immediately executing the related application in response to a user's utterance, and then selects a related application when specific information is selected from the information provided through the card UI. Can be run.
도 15 및 도 16은 사용자의 음성 명령에 대응하여 일 실시예에 의한 냉장고가 명령을 수행하는 방법을 도시한다.15 and 16 illustrate a method in which a refrigerator performs a command in response to a voice command of a user.
사용자가 음성 명령의 수행 대상을 특정하여 음성을 발화하면, 냉장고(1)의 컨트롤러(110)는 도 15에 도시된 것처럼 음성 명령에 대응하는 명령을 수행할 수 있다.When the user utters a voice by specifying a target of the voice command, the controller 110 of the refrigerator 1 may perform a command corresponding to the voice command as illustrated in FIG. 15.
도 15에 도시된 것처럼, <음악 멈춰>라는 음성이 마이크로폰(182)을 통해 입력되면(1300), 냉장고(1)의 컨트롤러(110)는 음성 인식 기능을 통해 입력된 음성을 분석하여 사용자의 의도를 파악한다. 냉장고(1)의 컨트롤러(110)는 음성 인식 기능을 이용하여 사용자의 음성을 분석할 수도 있고, 제1서버(SV1)로 음성 데이터를 전송하여 음성 데이터의 분석 정보를 제1서버(SV1)로부터 수신할 수도 있다.As shown in FIG. 15, when a voice of <Stop Music> is input through the microphone 182 (1300), the controller 110 of the refrigerator 1 analyzes the input voice through a voice recognition function to intention of the user. Figure out. The controller 110 of the refrigerator 1 may analyze a user's voice by using a voice recognition function, and transmit voice data to the first server SV1 to obtain analysis information of the voice data from the first server SV1. May be received.
음악을 멈추라는 사용자의 의도가 파악되면, 냉장고(1)의 컨트롤러(110)는 현재 음악 어플리케이션이 실행 중인지 즉, 음악이 재생되고 있는지 결정한다(1301). 음악이 재생 중이면, 컨트롤러(110)는 바로 음악의 재생을 중지시킨다(1302).When the user's intention to stop the music is determined, the controller 110 of the refrigerator 1 determines whether a music application is currently running, that is, whether music is being played (1301). If the music is playing, the controller 110 immediately stops playing the music (1302).
음악이 재생되고 있지 않으면, 컨트롤러(110)는 도 15에 도시된 것처럼, 음성 인식 UI를 디스플레이(120)에 표시하여, <음악이 재생되고 있지 않습니다>라는 텍스트를 음성 인식 UI에 표시할 수 있다(1303). 또한, 컨트롤러(110)는 TTS기능을 이용하여 음성 인식 UI에 표시된 상기 텍스트를 스피커(181)를 통해 음성으로 출력할 수 있다.If music is not being played, the controller 110 may display the voice recognition UI on the display 120 as shown in FIG. 15, and display the text <Music not being played> on the voice recognition UI. (1303). In addition, the controller 110 may output the text displayed on the voice recognition UI as a voice through the speaker 181 using the TTS function.
도 15에 도시된 예와 달리, 대상이 특정되지 않은 음성명령이 마이크로폰(182)을 통해 입력될 수 있다. 즉, 도 16에 도시된 것처럼, 명령의 대상이 생략된, <멈춰>라는 음성이 마이크로폰(182)을 통해 입력될 수 있다(1300).Unlike the example shown in FIG. 15, a voice command for which an object is not specified may be input through the microphone 182. That is, as shown in FIG. 16, a voice of <stop>, in which an object of a command is omitted, may be input through the microphone 182 (1300).
명령의 대상이 생략된 <멈춰>라는 음성이 마이크로폰(182)을 통해 입력되면, 냉장고(1)의 컨트롤러(110)는 음성 인식 기능을 통해 입력된 음성을 분석하여 사용자의 의도를 파악한다. 냉장고(1)의 컨트롤러(110)는 음성 인식 기능을 이용하여 사용자의 음성을 분석할 수도 있고, 제1서버(SV1)로 음성 데이터를 전송하여 음성 데이터의 분석 정보를 제1서버(SV1)로부터 수신할 수도 있다.When a voice of <Stop>, in which the object of the command is omitted, is input through the microphone 182, the controller 110 of the refrigerator 1 analyzes the input voice through a voice recognition function to determine the user's intention. The controller 110 of the refrigerator 1 may analyze a user's voice by using a voice recognition function, and transmit voice data to the first server SV1 to obtain analysis information of the voice data from the first server SV1. May be received.
컨트롤러(110)는 마이크로폰(182)을 통해 입력된 음성에 명령의 대상이 포함되어 있지 않은 경우, 디스플레이(120)에 표시된 현재 실행 중인 어플리케이션에 대해 음성 명령을 수행할 수 있는지 결정한다(1310).When the voice input through the microphone 182 does not include the target of the command, the controller 110 determines whether the voice command can be performed on the currently running application displayed on the display 120 (1310).
컨트롤러(110)는 디스플레이(120)에 표시된 현재 실행 중인 어플리케이션에 대해 음성 명령을 수행할 수 있는 경우, 음성 명령을 디스플레이(120)에 표시된 어플리케이션에 대해 수행한다(1320).When the controller 110 can perform a voice command on the currently running application displayed on the display 120, the controller 110 performs a voice command on the application displayed on the display 120 (1320).
예를 들어, 현재 레시피 어플리케이션이 디스플레이(120)에 표시되어 있고, 레시피를 읽어주는 음성이 스피커(181)를 통해 출력되고 있는 경우, 컨트롤러(110)는 레시피 어플리케이션의 레시피를 읽어주는 기능을 바로 정지시킬 수 있다.For example, if a recipe application is currently displayed on the display 120 and a voice reading a recipe is output through the speaker 181, the controller 110 immediately stops the function of reading a recipe application. You can.
다시 말해, 명령의 대상이 생략된 음성 명령이 입력된 경우, 컨트롤러(110)는 디스플레이(120)에 표시되어 현재 실행 중인 어플리케이션에 대해 가장 우선적으로 명령의 수행 가능 여부를 결정한다.In other words, when a voice command in which the command object is omitted is input, the controller 110 is displayed on the display 120 to determine whether the command can be executed first with respect to the currently running application.
컨트롤러(110)는 디스플레이(120)에 표시되어 현재 실행 중인 어플리케이션에 대해 음성 명령을 수행할 수 없는 경우, 음성 인식 UI를 디스플레이(120)에 표시하여 음성 명령을 수행할 수 없음을 알린다(1330).When the controller 110 is unable to perform a voice command on the currently running application displayed on the display 120, the controller 110 displays a voice recognition UI on the display 120 to inform that the voice command cannot be performed (1330). .
즉, 컨트롤러(110)는 도 16에 도시된 것처럼, 음성 인식 UI를 디스플레이(120)에 표시하여, <레시피를 읽고 있지 않습니다>라는 텍스트를 음성 인식 UI에 표시할 수 있다. 또한, 컨트롤러(110)는 TTS기능을 이용하여 음성 인식 UI에 표시된 상기 텍스트를 스피커(181)를 통해 음성으로 출력할 수 있다.That is, as illustrated in FIG. 16, the controller 110 may display the voice recognition UI on the display 120 to display the text <not reading the recipe> on the voice recognition UI. In addition, the controller 110 may output the text displayed on the voice recognition UI as a voice through the speaker 181 using the TTS function.
컨트롤러(110)는 음성 인식 UI를 통해 디스플레이(120)에 표시된 어플리케이션에 대해 음성 명령을 수행할 수 없음을 알리면, 입력된 음성 명령과 관련된 어플리케이션에 대해 미리 정해진 우선순위가 존재하는지 결정한다(1340). 컨트롤러(110)는 미리 정해진 우선순위가 있는 경우, 그 우선 순위에 따라 어플리케이션에 대해 음성 명령을 수행한다(1350).If the controller 110 notifies that the voice command cannot be performed for the application displayed on the display 120 through the voice recognition UI, the controller 110 determines whether a predetermined priority exists for the application related to the input voice command (1340). . If there is a predetermined priority, the controller 110 performs a voice command for the application according to the priority (1350).
예를 들어, 컨트롤러(110)는 우선순위에 따라 가장 높은 순위에 랭크된 어플리케이션에 대해 음성 명령을 수행하고, 만약 가장 높은 순위에 랭크된 어플리케이션에 대해 음성 명령을 수행할 수 없으면 차 순위에 랭크된 어플리케이션에 대해 음성 명령을 수행한다.For example, the controller 110 performs a voice command for the application ranked in the highest rank according to the priority, and if it is unable to perform the voice command for the application ranked in the highest rank, it is ranked in the next rank. Perform voice commands for the application.
<멈춰>라는 음성 명령과 관련된 어플리케이션의 우선순위에서 음악 어플리케이션이 가장 높은 순위에 랭크되어 있는 경우, 컨트롤러(110)는 음악 어플리케이션에 의해 재생 중인 음악의 재생을 중지시킨다. 음악이 재생 중이지 않으면, 컨트롤러(110)는 차 순위에 랭크된 어플리케이션에 대해 음성 명령을 수행할 수 있는지 결정한다. 컨트롤러(110)는 이런 식으로 우선 순위에 랭크된 어플리케이션들에 대해 음성 명령을 수행할 수 있다.When the music application is ranked highest in the priority of the application related to the voice command &quot; Stop &quot;, the controller 110 stops playing the music being played by the music application. If the music is not playing, the controller 110 determines whether it is possible to perform a voice command for the application ranked in the next rank. The controller 110 may perform a voice command for the applications ranked in the priority in this way.
입력된 음성 명령과 관련된 어플리케이션에 대해 미리 정해진 우선순위가 존재하지 않으면, 컨트롤러(110)는 다른 어플리케이션에 대해 음성 명령을 수행할 지 여부에 대한 확인을 요청할 수 있다(1360).If a predetermined priority does not exist for the application related to the input voice command, the controller 110 may request confirmation of whether to perform the voice command for another application (1360).
전술한 것처럼, 현재 디스플레이(120)에 레시피 어플리케이션이 표시되어 있으나 레시피를 읽어주는 기능이 실행 중이지 않으면, 컨트롤러(110)는 다른 어플리케이션에 대해 음성 명령을 수행할 수 있는지 결정한다.As described above, if a recipe application is currently displayed on the display 120 but the function of reading a recipe is not executed, the controller 110 determines whether a voice command can be performed for another application.
컨트롤러(110)는 현재 라디오 어플리케이션이 백그라운드에서 실행 중인 경우, 도 16에 도시된 것처럼, 라디오 어플리케이션을 음성 명령의 수행 대상으로 결정하고, 라디오 어플리케이션에 대해 음성 명령을 수행하기 전에 음성 인식 UI를 디스플레이(120)에 표시하여 음성 명령의 수행 여부에 대한 확인을 요청한다.When the radio application is currently running in the background, the controller 110 determines the radio application as a target of a voice command as shown in FIG. 16, and displays a voice recognition UI before performing the voice command for the radio application. And request confirmation of whether or not the voice command is performed.
즉, 컨트롤러(110)는 도 16에 도시된 것처럼, 음성 인식 UI를 디스플레이(120)에 표시하여, <라디오를 중지할까요>라는 텍스트를 음성 인식 UI에 표시할 수 있다. 또한, 컨트롤러(110)는 TTS기능을 이용하여 음성 인식 UI에 표시된 상기 텍스트를 스피커(181)를 통해 음성으로 출력할 수 있다.That is, as shown in FIG. 16, the controller 110 may display the voice recognition UI on the display 120 and display the text <Shall I stop the radio> on the voice recognition UI. In addition, the controller 110 may output the text displayed on the voice recognition UI as a voice through the speaker 181 using the TTS function.
컨트롤러(110)는 확인 요청에 대한 답변이 마이크로폰(182)을 통해 입력되면, 입력된 답변에 따라 명령을 수행한다(1370).When the answer to the confirmation request is input through the microphone 182, the controller 110 performs a command according to the input answer (1370).
예를 들어, 컨트롤러(110)는 <라디오를 중지할까요?>라는 확인 요청에 대해, 긍정하는 음성(예를 들면 <그래>)이 입력되면 라디오 어플리케이션의 실행을 중지시킨다.For example, the controller 110 stops the execution of the radio application when an affirmative voice (eg <yes>) is input to the confirmation request &quot; Stop radio? &Quot;.
전술한 것처럼, 음성 명령에 명령의 수행 대상이 생략되어 있어도, 개시된 실시예에 따른 냉장고(1)는 도 16에 도시된 방법에 따라 사용자의 의도에 부합하는 명령을 수행할 수 있다.As described above, even if the object to be executed in the command is omitted in the voice command, the refrigerator 1 according to the disclosed embodiment may perform a command corresponding to the intention of the user according to the method shown in FIG. 16.
도 17 내지 도 20은 일 실시예에 의한 냉장고에서 사용자를 식별하여 식별된 사용자에 대응되는 정보를 제공하는 방법을 제공한다.17 to 20 provide a method of identifying a user in a refrigerator according to one embodiment and providing information corresponding to the identified user.
도 17 내지 도 19에 도시된 것처럼, 사용자는 특정 사용자를 지칭하여, 그 사용자와 관련된 정보의 제공을 요구할 수 있다.As illustrated in FIGS. 17 to 19, a user may refer to a specific user and request the provision of information related to the user.
도 17에 도시된 것처럼, <어머니의 이번 달 달력 보여줘>라는 음성이 마이크로폰(182)을 통해 입력되면(2000), 냉장고(1)의 컨트롤러(110)는 입력된 음성을 음성 인식 기능을 통해 분석하여 사용자의 의도를 파악한다.As shown in FIG. 17, when a voice of “show mother's calendar this month” is input through the microphone 182 (2000), the controller 110 of the refrigerator 1 analyzes the input voice through a voice recognition function. Understand your intentions.
냉장고(1)의 컨트롤러(110)는 음성 인식 기능을 이용하여 사용자의 음성을 분석할 수도 있고, 제1서버(SV1)로 음성 데이터를 전송하여 음성 데이터의 분석 정보를 제1서버(SV1)로부터 수신할 수도 있다.The controller 110 of the refrigerator 1 may analyze a user's voice by using a voice recognition function, and transmit voice data to the first server SV1 to obtain analysis information of the voice data from the first server SV1. May be received.
각각의 사용자에 특화된 정보를 제공하는 어플리케이션의 일 예로 달력 어플리케이션을 언급하였으나, 이에 한정되지 않고, 각각의 사용자에 특화된 컨텐츠를 음성으로 출력해주는 음성 출력 설정 어플리케이션(도 5에 모닝 브리프라는 타이틀로 명명되어 있음)의 경우에도 도 17 내지 도 20에 따른 방법에 따라 사용자에 특화된 정보를 제공할 수 있다.As an example of an application for providing information specific to each user, a calendar application is mentioned. However, the present invention is not limited thereto, and a voice output setting application (eg, morning briefing in FIG. Yes) may provide the user-specific information according to the method according to Figs.
냉장고(1)의 컨트롤러(110)는 음성에 포함된 특정 사용자의 이름이 인식 가능하여 음성에 포함된 사용자의 의도가 파악되면, 음성에 따른 명령을 수행한다. 즉, 컨트롤러(110)는 사용자의 의도가, 복수의 사용자 중 어머니의 달력, 어머니의 달력 중 이번 달 달력을 보여주길 원하는 것으로 결정되면, 도 18에 도시된 것처럼, 달력 어플리케이션을 실행시켜 어머니의 이번 달 달력(290)을 디스플레이(120)에 표시한다(2030).When the controller 110 of the refrigerator 1 recognizes the name of a specific user included in the voice and the intention of the user included in the voice is determined, the controller 110 performs a command according to the voice. That is, if it is determined that the user's intention is to show the mother's calendar among the plurality of users and the calendar of this month among the mother's calendars, as shown in FIG. The moon calendar 290 is displayed on the display 120 (2030).
도 18에 도시된 것처럼, 달력 어플리케이션이 제공하는 달력에는 날짜와 요일이 표시된 달력부분(291)과 오늘 일정이 표시된 일정부분(292)이 포함될 수 있다. 도 18에 도시된 달력의 구성은 일 예일 뿐 다른 구성 및 배치를 가질 수 있음은 물론이다.As illustrated in FIG. 18, a calendar provided by a calendar application may include a calendar portion 291 in which a date and a day are displayed, and a calendar portion 292 in which a today's schedule is displayed. The configuration of the calendar shown in FIG. 18 is merely an example and may have different configurations and arrangements.
냉장고(1)의 컨트롤러(110)는 음성에 포함된 특정 사용자의 이름을 인식할 수 없으면, 미리 저장된 사용자 중에서 특정 사용자를 선택하는 과정을 수행한다(2020).If the controller 110 of the refrigerator 1 cannot recognize the name of a specific user included in the voice, the controller 110 performs a process of selecting a specific user from among prestored users (2020).
냉장고(1)의 컨트롤러(110)는 음성에 포함된 특정 사용자의 이름을 인식할 수 없으면, 도 19에 도시된 것처럼, 음성 인식 UI를 디스플레이(120)에 표시하여, <프로필을 선택해주세요>라는 텍스트를 음성 인식 UI에 표시할 수 있다(2021). 또한, 컨트롤러(110)는 TTS기능을 이용하여 음성 인식 UI에 표시된 상기 텍스트를 스피커(181)를 통해 음성으로 출력할 수 있다. 컨트롤러(110)는 음성 인식 UI와 함께, 냉장고(1)에 미리 등록된 사용자의 프로필 리스트를 표시할 수 있다.If the controller 110 of the refrigerator 1 cannot recognize the name of a specific user included in the voice, as shown in FIG. 19, the controller 110 displays the voice recognition UI on the display 120 and selects a profile. The text may be displayed on the voice recognition UI (2021). In addition, the controller 110 may output the text displayed on the voice recognition UI as a voice through the speaker 181 using the TTS function. The controller 110 may display a profile list of a user registered in advance in the refrigerator 1 together with the voice recognition UI.
프로필 리스트는 등록된 사용자 명과 각 사용자 명을 식별하기 위한 식별 표지의 표시를 포함한다. 식별 표지는 도 19에 도시된 것처럼, 번호로 표시될 수 있으나 이에 한정되는 것은 아니다. 식별 표지의 경우, 복수의 사용자를 각각 구분하기 위한 표지이면 되므로, 도시된 것처럼, 번호로 표시될 수도 있고, 문자로 표시될 수도 있다.The profile list includes registered user names and an indication of an identification mark to identify each user name. The identification mark may be indicated by a number, as shown in FIG. 19, but is not limited thereto. In the case of the identification mark, it may be a mark for distinguishing a plurality of users, respectively, and as shown, may be indicated by a number or may be indicated by a letter.
도 19에 도시된 것처럼, 프로필 리스트에 포함된 사용자 중 어떤 사용자를 선택할지 여부에 대한 확인을 요청하는 음성에 대응하여, 사용자는 특정 사용자를 선택하는 음성을 발화할 수 있다(2022). 예를 들어, 사용자는 식별 표지를 음성으로 발화할 수 있다.As illustrated in FIG. 19, in response to a voice requesting confirmation of which user among users included in the profile list, the user may utter a voice for selecting a specific user (2022). For example, the user may speak the identification mark negatively.
사용자는 프로필 리스트 중 두 번째 사용자를 선택하기 위해, 둘 또는 두 번째라고 발화하여 식별 표지를 선택할 수 있다(2023, 2024).The user may select an identification mark by uttering a second or second to select a second user in the profile list (2023, 2024).
컨트롤러(110)는 음성 인식 기능을 통해 사용자의 음성을 분석할 수 있다. 이 경우, 도 10에 도시된 방법처럼 컨트롤러(110)는 제1서버(SV1)로 사용자의 음성 데이터를 전송하고, 제1서버(SV1)로부터 음성 데이터를 분석한 정보를 수신하여 사용자의 의도를 파악할 수 있다. 또는 냉장고(1)의 컨트롤러(110) 자체에서 음성 인식 기능을 이용하여 사용자의 음성을 분석하고 사용자의 의도를 파악할 수도 있을 것이다.The controller 110 may analyze the user's voice through a voice recognition function. In this case, as shown in FIG. 10, the controller 110 transmits the voice data of the user to the first server SV1 and receives information analyzed by the first server SV1 to analyze the intention of the user. I can figure it out. Alternatively, the controller 110 of the refrigerator 1 may analyze the user's voice and determine the user's intention using the voice recognition function.
컨트롤러(110)는 사용자가 발화한 식별 표지에 대응되는 사용자명을 결정하고, 결정된 사용자의 달력을 디스플레이(120)에 표시할 수 있다. 즉, 컨트롤러(110)는 사용자가 발화한 둘 또는 두 번째라는 식별 표지에 대응되는 사용자로 어머니를 결정하고, 도 18에 도시된 것처럼, 어머니의 이번 달 달력을 디스플레이(120)에 표시한다(2030).The controller 110 may determine a user name corresponding to the identification mark uttered by the user, and display the determined user's calendar on the display 120. That is, the controller 110 determines the mother as the user corresponding to the identification mark of the second or the second uttered by the user, and displays the mother's current month's calendar on the display 120 as shown in FIG. 18 (2030). ).
또한, 사용자는 식별 표지가 아닌 사용자 명을 말할 수 있다(2025).In addition, the user may say a user name that is not an identification mark (2025).
사용자가 잘못된 사용자 명을 말하거나, 사용자 명과 관련 없는 다른 표현을 발화한 경우, 사용자가 선택한 프로필이 식별될 수 없는 경우가 발생할 수 있다. 이런 경우 컨트롤러(110)는 도 19에 도시된 것처럼, 사용자의 발화에 대응하여 음성 인식 UI를 디스플레이(120)에 표시하여, <프로필 번호를 말씀해 주세요 >라는 텍스트를 음성 인식 UI에 표시할 수 있다(2026). 또한, 컨트롤러(110)는 TTS기능을 이용하여 음성 인식 UI에 표시된 상기 텍스트를 스피커(181)를 통해 음성으로 출력할 수 있다.When the user speaks the wrong user name or utters another expression that is not related to the user name, a case may occur in which the profile selected by the user cannot be identified. In this case, as illustrated in FIG. 19, the controller 110 may display the voice recognition UI on the display 120 in response to the user's speech, and display the text <Please tell the profile number> on the voice recognition UI. (2026). In addition, the controller 110 may output the text displayed on the voice recognition UI as a voice through the speaker 181 using the TTS function.
컨트롤러(110)는 프로필을 선택해달라는 요구를 이미 두 번 이상 한 경우(2027), 도 19에 도시된 것처럼, 음성 인식 UI를 디스플레이(120)에 표시하여, <정확한 정보를 얻을 수 없습니다>라는 텍스트를 음성 인식 UI에 표시할 수 있다(2028). 또한, 컨트롤러(110)는 TTS기능을 이용하여 음성 인식 UI에 표시된 상기 텍스트를 스피커(181)를 통해 음성으로 출력할 수 있다.If the controller 110 has already requested the user to select a profile more than once (2027), as shown in FIG. 19, the controller 110 displays the voice recognition UI on the display 120 to display the text &quot; Correct information cannot be obtained. &Quot; May be displayed on the voice recognition UI (2028). In addition, the controller 110 may output the text displayed on the voice recognition UI as a voice through the speaker 181 using the TTS function.
도면에는 도시되지 않았으나, 사용자는 프로필 리스트에 포함된 사용자를 선택하고 싶지 않거나, 달력 표시 자체를 취소하고 싶을 경우, <취소>라고 말할 수 있다. 컨트롤러(110)는 <취소>라는 사용자의 발화에 대응하여 음성 인식 UI를 디스플레이(120)에 표시하여, <취소되었습니다>라는 텍스트를 음성 인식 UI에 표시할 수 있다. 또한, 컨트롤러(110)는 TTS기능을 이용하여 음성 인식 UI에 표시된 상기 텍스트를 스피커(181)를 통해 음성으로 출력할 수 있다.Although not shown in the drawing, when the user does not want to select a user included in the profile list or wants to cancel the calendar display itself, the user may say <cancel>. The controller 110 may display the speech recognition UI on the display 120 in response to the user's speech called <cancel>, and display the text <canceled> on the speech recognition UI. In addition, the controller 110 may output the text displayed on the voice recognition UI as a voice through the speaker 181 using the TTS function.
한편, 도 20에 도시된 것처럼, 사용자는 특정 사용자를 지칭하지 않고 사용자마다 다르게 저장되어 있는 정보의 제공을 요구할 수 있다.On the other hand, as shown in Figure 20, a user may request the provision of information stored differently for each user without referring to a specific user.
도 20에 도시된 것처럼, <이번 달 달력 보여줘>라는 음성이 마이크로폰(182)을 통해 입력되면(2040), 냉장고(1)의 컨트롤러(110)는 입력된 음성을 음성 인식 기능을 통해 분석하여 사용자의 의도를 파악한다. 냉장고(1)의 컨트롤러(110)는 음성 인식 기능을 이용하여 사용자의 음성을 분석할 수도 있고, 제1서버(SV1)로 음성 데이터를 전송하여 음성 데이터의 분석 정보를 제1서버(SV1)로부터 수신할 수도 있다.As shown in FIG. 20, when the voice of <Show this month's calendar> is input through the microphone 182 (2040), the controller 110 of the refrigerator 1 analyzes the input voice through a voice recognition function. To grasp the intentions. The controller 110 of the refrigerator 1 may analyze a user's voice by using a voice recognition function, and transmit voice data to the first server SV1 to obtain analysis information of the voice data from the first server SV1. May be received.
냉장고(1)의 컨트롤러(110)는 음성 데이터에 특정 사용자를 나타내는 표현이 포함되어 있지 않으면, 음성 데이터를 미리 저장된 사용자들의 음성 데이터와 비교하여 매칭되는 음성 데이터가 있는지 결정한다(2041).If the voice data does not include a representation indicating a specific user, the controller 110 of the refrigerator 1 compares the voice data with voice data of the pre-stored users and determines whether there is a matching voice data (2041).
냉장고(1)의 컨트롤러(110)는 마이크로폰(182)을 통해 입력된 음성 데이터의 진폭, 파형, 주파수 또는 주기 등과 같은 파라미터를 미리 저장된 음성 데이터들의 파라미터와 비교하여, 미리 정해진 음성 데이터들 중 마이크로폰(182)을 통해 입력된 음성 데이터와 일치한다고 볼 수 있는 음성 데이터를 결정한다.The controller 110 of the refrigerator 1 compares a parameter such as amplitude, waveform, frequency, or period of the voice data input through the microphone 182 with a parameter of pre-stored voice data, and selects a microphone ( In operation 182, voice data that may be considered to match the input voice data may be determined.
컨트롤러(110)는 미리 저장된 음성 데이터들 중 마이크로폰(182)을 통해 입력된 음성 데이터와 매칭된다고 볼 수 있는 음성 데이터가 있다고 결정되면, 결정된 음성 데이터가 나타내는 사용자의 달력을 디스플레이(120)에 표시할 수 있다(2042). 예를 들어, 미리 저장된 음성 데이터 중 매칭된 음성 데이터가 어머니의 것으로 결정되면, 컨트롤러(110)는 어머니의 이번 달 달력을 디스플레이(120)에 표시할 수 있다.When the controller 110 determines that there is voice data that can be considered to match voice data input through the microphone 182 among the pre-stored voice data, the controller 110 may display the user's calendar indicated by the determined voice data on the display 120. May be 2042. For example, if the matched voice data among the pre-stored voice data is determined to be the mother's, the controller 110 may display the mother's current month's calendar on the display 120.
컨트롤러(110)는 매칭된다고 볼 수 있는 음성 데이터가 없다고 결정되면(2041에서 아니오), 도 19에 도시된 것처럼, 음성 인식 UI를 디스플레이(120)에 표시하여, <프로필을 선택해주세요>라는 텍스트를 음성 인식 UI에 표시할 수 있다(2021). 또한, 컨트롤러(110)는 TTS기능을 이용하여 음성 인식 UI에 표시된 상기 텍스트를 스피커(181)를 통해 음성으로 출력할 수 있다. 컨트롤러(110)는 음성 인식 UI와 함께, 냉장고(1)에 미리 등록된 사용자의 프로필 리스트를 표시할 수 있다.If the controller 110 determines that there is no voice data that can be considered to be matched (NO in 2041), as shown in FIG. 19, the controller 110 displays the voice recognition UI on the display 120 to display the text <Please select a profile>. It may be displayed on the voice recognition UI (2021). In addition, the controller 110 may output the text displayed on the voice recognition UI as a voice through the speaker 181 using the TTS function. The controller 110 may display a profile list of a user registered in advance in the refrigerator 1 together with the voice recognition UI.
도 19에 도시된 것처럼, 프로필 리스트에 포함된 사용자 중 어떤 사용자를 선택할지 여부에 대한 확인을 요청하는 음성에 대응하여, 사용자는 특정 사용자를 선택하는 음성을 발화할 수 있다(2022). 예를 들어, 사용자는 식별 표지를 음성으로 발화할 수 있다.As illustrated in FIG. 19, in response to a voice requesting confirmation of which user among users included in the profile list, the user may utter a voice for selecting a specific user (2022). For example, the user may speak the identification mark negatively.
사용자는 프로필 리스트 중 두 번째 사용자를 선택하기 위해, 둘 또는 두 번째라고 발화하여 식별 표지를 선택할 수 있다(2023, 2024).The user may select an identification mark by uttering a second or second to select a second user in the profile list (2023, 2024).
컨트롤러(110)는 사용자가 발화한 식별 표지에 대응되는 사용자명을 결정하고, 결정된 사용자의 달력을 디스플레이(120)에 표시할 수 있다. 즉, 컨트롤러(110)는 사용자가 발화한 둘 또는 두 번째라는 식별 표지에 대응되는 사용자로 어머니를 결정하고, 도 18에 도시된 것처럼, 어머니의 이번 달 달력을 디스플레이(120)에 표시한다(2030).The controller 110 may determine a user name corresponding to the identification mark uttered by the user, and display the determined user's calendar on the display 120. That is, the controller 110 determines the mother as the user corresponding to the identification mark of the second or the second uttered by the user, and displays the mother's current month's calendar on the display 120 as shown in FIG. 18 (2030). ).
또한, 사용자는 식별 표지가 아닌 사용자 명을 말할 수 있다(2025). 사용자가 잘못된 사용자 명을 말하거나, 사용자 명과 관련 없는 다른 표현을 발화한 경우, 사용자가 선택한 프로필이 식별될 수 없는 경우가 발생할 수 있다. 이런 경우 컨트롤러(110)는 도 19에 도시된 것처럼, 사용자의 발화에 대응하여 음성 인식 UI를 디스플레이(120)에 표시하여, <프로필 번호를 말씀해 주세요 >라는 텍스트를 음성 인식 UI에 표시할 수 있다(2026). 또한, 컨트롤러(110)는 TTS기능을 이용하여 음성 인식 UI에 표시된 상기 텍스트를 스피커(181)를 통해 음성으로 출력할 수 있다.In addition, the user may say a user name that is not an identification mark (2025). When the user speaks the wrong user name or utters another expression that is not related to the user name, a case may occur in which the profile selected by the user cannot be identified. In this case, as illustrated in FIG. 19, the controller 110 may display the voice recognition UI on the display 120 in response to the user's speech, and display the text <Please tell the profile number> on the voice recognition UI. (2026). In addition, the controller 110 may output the text displayed on the voice recognition UI as a voice through the speaker 181 using the TTS function.
컨트롤러(110)는 프로필을 선택해달라는 요구를 이미 두 번 이상 한 경우(2027), 도 19에 도시된 것처럼, 음성 인식 UI를 디스플레이(120)에 표시하여, <정확한 정보를 얻을 수 없습니다>라는 텍스트를 음성 인식 UI에 표시할 수 있다(2028). 또한, 컨트롤러(110)는 TTS기능을 이용하여 음성 인식 UI에 표시된 상기 텍스트를 스피커(181)를 통해 음성으로 출력할 수 있다.If the controller 110 has already requested the user to select a profile more than once (2027), as shown in FIG. 19, the controller 110 displays the voice recognition UI on the display 120 to display the text &quot; Correct information cannot be obtained. &Quot; May be displayed on the voice recognition UI (2028). In addition, the controller 110 may output the text displayed on the voice recognition UI as a voice through the speaker 181 using the TTS function.
전술한 것처럼, 개시된 실시예에 따른 냉장고(1)는, 사용자가 특정 사용자를 지칭하지 않고 사용자마다 다르게 저장되어 있는 정보의 제공을 요구할지라도, 도 20에 도시된 방법에 따라 사용자를 식별하여 식별된 사용자에 적합한 정보를 제공할 수 있다.As described above, the refrigerator 1 according to the disclosed embodiment identifies and identifies the user according to the method shown in FIG. 20 even if the user does not refer to a specific user but requires the provision of information stored differently for each user. It can provide information suitable for the user.
도 21A는 일 실시예에 의한 데이터 학습 및 인식을 위한 제어부의 블록도이다.21A is a block diagram of a controller for data learning and recognition according to an embodiment.
도 21A를 참조하면, 제어부(2100)는 데이터 학습부(2110) 및 데이터 인식부(2120)를 포함할 수 있다. 제어부(2100)는 냉장고(1)의 컨트롤러(110)가 될 수 있다. 또는, 제어부(2100)는 제1서버(SV1)의 제어부(미도시)가 될 수도 있다.Referring to FIG. 21A, the controller 2100 may include a data learner 2110 and a data recognizer 2120. The controller 2100 may be the controller 110 of the refrigerator 1. Alternatively, the controller 2100 may be a controller (not shown) of the first server SV1.
데이터 학습부(2110)는 음성 데이터를 인식하기 위한 기준을 갖도록 학습 네트워크 모델을 학습시킬 수 있다. 예로, 데이터 학습부(2110)는 제1음성에 대응하는 식품명, 또는 제2음성에 대응하는 식별표지를 인식하기 위한 기준을 갖도록 학습 네트워크 모델을 학습시킬 수 있다. 또는, 데이터 학습부(2110)는 영상을 인식하기 위한 기준을 갖도록 학습 네트워크 모델을 학습시킬 수 있다. 예로, 데이터 학습부(2110)는 냉장고(1)의 저장실을 촬영한 영상으로부터 저장실에 보관된 식품을 인식하기 위한 기준을 갖도록 학습 네트워크 모델을 학습시킬 수 있다.The data learner 2110 may train the learning network model to have a criterion for recognizing voice data. For example, the data learner 2110 may train the learning network model to have a criterion for recognizing a food name corresponding to the first voice or an identification mark corresponding to the second voice. Alternatively, the data learner 2110 may train the learning network model to have a reference for recognizing an image. For example, the data learner 2110 may train the learning network model to have a criterion for recognizing food stored in the storage room from an image of the storage room of the refrigerator 1.
데이터 학습부(2110)는 인공 지능 알고리즘에 기초한 지도 학습 방식 또는 비지도 학습 방식에 따라 학습용 데이터를 이용하여 학습 네트워크 모델(또는, 데이터 인식 모델)을 학습시킬 수 있다.The data learner 2110 may train a learning network model (or a data recognition model) using learning data according to a supervised learning method or an unsupervised learning method based on an artificial intelligence algorithm.
일 실시예로, 데이터 학습부(2110)는 학습용 데이터로서, 음성 데이터 및 음성 데이터에 대응하는 텍스트(예로, 식품명, 식별표지)를 이용하여 학습 네트워크 모델을 학습시킬 수 있다. 또는, 데이터 학습부(2110)는 학습용 데이터로서, 음성 데이터 및 상기 음성 데이터를 발화한 사용자 정보를 이용하여 학습 네트워크 모델을 학습시킬 수 있다. 또는, 데이터 학습부(2110)는 학습용 데이터로서, 영상 데이터 및 영상 데이터에 대응하는 텍스트(예로, 식품명)를 이용하여 학습 네트워크 모델을 학습시킬 수 있다.In an embodiment, the data learner 2110 may train the learning network model using the voice data and the text corresponding to the voice data (for example, a food name and an identification mark) as the training data. Alternatively, the data learner 2110 may train the learning network model using the voice data and the user information that uttered the voice data as the training data. Alternatively, the data learner 2110 may train the learning network model using image data and text (eg, a food name) corresponding to the image data as learning data.
데이터 인식부(2120)는 학습된 학습 네트워크 모델에 인식용 데이터로서 음성 데이터를 적용하여 음성 데이터를 인식할 수 있다. 예로, 데이터 인식부(2120)는 학습 네트워크 모델에 인식용 데이터로서 제1음성 또는 제2음성과 관련된 음성 데이터를 적용하여, 음성 데이터에 대응하는 식품명 또는 식별표지를 인식할 수 있다. 한편, 학습 네트워크 모델(또는, 데이터 인식 모델)의 인식 결과는 학습 네트워크 모델을 갱신하는데 다시 이용될 수도 있다. 또는, 데이터 인식부(2120)는 학습 네트워크 모델에 인식용 데이터로서 음성 데이터를 적용하여 음성 데이터를 발화한 사용자를 인식할 수 있다.The data recognizer 2120 may recognize the voice data by applying the voice data as the recognition data to the learned learning network model. For example, the data recognizer 2120 may recognize food names or identification marks corresponding to the voice data by applying voice data related to the first voice or the second voice as recognition data to the learning network model. On the other hand, the recognition result of the learning network model (or data recognition model) may be used again to update the learning network model. Alternatively, the data recognizer 2120 may recognize the user who spoke the voice data by applying the voice data as the recognition data to the learning network model.
또는, 데이터 인식부(2120)는 학습된 학습 네트워크 모델에 인식용 데이터로서 저장실(20)을 촬영한 영상 데이터를 적용하여 영상 데이터를 인식할 수도 있다. 예로, 데이터 인식부(2120)는 학습 네트워크 모델에 인식용 데이터로서 영상 데이터를 적용하여, 영상 데이터에 대응하는 식품명을 인식할 수 있다. Alternatively, the data recognizing unit 2120 may recognize the image data by applying the image data of the storage room 20 as the recognition data to the learned learning network model. For example, the data recognizing unit 2120 may apply image data as recognition data to the learning network model to recognize a food name corresponding to the image data.
데이터 학습부(2110) 및 데이터 인식부(2120) 중 적어도 하나는, 적어도 하나의 하드웨어 칩 형태로 제작되어 전자 장치에 탑재될 수 있다. 예를 들어, 데이터 학습부(2110) 및 데이터 인식부(2120) 중 적어도 하나는 인공 지능(AI; artificial intelligence)을 위한 전용 하드웨어 칩 형태로 제작될 수도 있고, 또는 기존의 범용 프로세서(예: CPU 또는 application processor) 또는 그래픽 전용 프로세서(예: GPU)의 일부로 제작되어 전술한 각종 전자 장치에 탑재될 수도 있다. 이 때, 인공 지능을 위한 전용 하드웨어 칩은 확률 연산에 특화된 전용 프로세서로서, 기존의 범용 프로세서보다 병렬처리 성능이 높아 기계 학습과 같은 인공 지능 분야의 연산 작업을 빠르게 처리할 수 있다.At least one of the data learner 2110 and the data recognizer 2120 may be manufactured in the form of at least one hardware chip and mounted on the electronic device. For example, at least one of the data learner 2110 and the data recognizer 2120 may be manufactured in the form of a dedicated hardware chip for artificial intelligence (AI), or an existing general purpose processor (eg, a CPU). Alternatively, the electronic device may be manufactured as a part of an application processor or a graphics dedicated processor (eg, a GPU) and mounted on the aforementioned various electronic devices. In this case, a dedicated hardware chip for artificial intelligence is a dedicated processor specialized for probability calculation, and has higher parallelism performance than a conventional general-purpose processor, so that a computational task in artificial intelligence such as machine learning can be processed quickly.
이 경우, 데이터 학습부(2110) 및 데이터 인식부(2120)는 하나의 전자 장치에 탑재될 수도 있으며, 또는 별개의 전자 장치들에 각각 탑재될 수도 있다. 예를 들어, 데이터 학습부(2110) 및 데이터 인식부(2120) 중 하나는 냉장고(1)에 포함되고, 나머지 하나는 서버(SV1)에 포함될 수 있다. 또한, 데이터 학습부(2110) 및 데이터 인식부(2120)는 유선 또는 무선으로 통하여, 데이터 학습부(2110)가 구축한 학습 네트워크 모델의 적어도 일부를 데이터 인식부(2120)로 제공할 수도 있고, 데이터 인식부(2120)로 입력된 데이터가 추가 학습 데이터로서 데이터 학습부(2110)로 제공될 수도 있다.In this case, the data learner 2110 and the data recognizer 2120 may be mounted on one electronic device or may be mounted on separate electronic devices, respectively. For example, one of the data learner 2110 and the data recognizer 2120 may be included in the refrigerator 1, and the other may be included in the server SV1. In addition, the data learner 2110 and the data recognizer 2120 may provide at least a part of the learning network model constructed by the data learner 2110 to the data recognizer 2120 through wired or wirelessly. Data input to the data recognizer 2120 may be provided to the data learner 2110 as additional learning data.
한편, 데이터 학습부(2110) 및 데이터 인식부(2120) 중 적어도 하나는 소프트웨어 모듈로 구현될 수 있다. 데이터 학습부(2110) 및 데이터 인식부(2120) 중 적어도 하나가 소프트웨어 모듈(또는, 인스터력션(instruction) 포함하는 프로그램 모듈)로 구현되는 경우, 소프트웨어 모듈은 컴퓨터로 읽을 수 있는 판독 가능한 비일시적 판독 가능 기록매체(non-transitory computer readable media)에 저장될 수 있다. 또한, 이 경우, 적어도 하나의 소프트웨어 모듈은 OS(Operating System)에 의해 제공되거나, 소정의 애플리케이션에 의해 제공될 수 있다. 또는, 적어도 하나의 소프트웨어 모듈 중 일부는 OS(Operating System)에 의해 제공되고, 나머지 일부는 소정의 애플리케이션에 의해 제공될 수 있다. Meanwhile, at least one of the data learner 2110 and the data recognizer 2120 may be implemented as a software module. When at least one of the data learner 2110 and the data recognizer 2120 is implemented as a software module (or a program module including instructions), the software module may be a computer readable non-transitory computer. It may be stored in a non-transitory computer readable media. In this case, at least one software module may be provided by an operating system (OS) or by a predetermined application. Alternatively, some of the at least one software module may be provided by an operating system (OS), and others may be provided by a predetermined application.
도 21B는 일 실시예에 의한 데이터 학습부(2110) 및 데이터 인식부(2120)의 상세 블록도이다.21B is a detailed block diagram of the data learner 2110 and the data recognizer 2120, according to an exemplary embodiment.
도 21B의 (a)는 일 실시예에 따른 데이터 학습부(2110)의 블록도이다.FIG. 21B is a block diagram of the data learner 2110, according to an exemplary embodiment.
도 21B의 (a)를 참조하면, 일 실시예에 따른 데이터 학습부(2110)는 데이터 획득부(2110-1), 전처리부(2110-2), 학습 데이터 선택부(2110-3), 모델 학습부(2110-4) 및 모델 평가부(2110-5)를 포함할 수 있다. 일부 실시예에 따른 데이터 학습부(2110)는 데이터 획득부(2110-1) 및 모델 학습부(2110-4)를 필수적으로 포함하고, 전처리부(2110-2), 학습 데이터 선택부(2110-3) 및 모델 평가부(2110-5) 중 적어도 하나를 선택적으로 더 포함하거나, 모두 포함하지 않을 수도 있다.Referring to (a) of FIG. 21B, the data learner 2110 may include a data acquirer 2110-1, a preprocessor 2110-2, a training data selector 2110-3, and a model. The learning unit 2110-4 and the model evaluating unit 2110-5 may be included. The data learner 2110 according to some exemplary embodiments may include a data acquirer 2110-1 and a model learner 2110-4, and include a preprocessor 2110-2 and a training data selector 2110-. 3) and at least one of the model evaluator 2110-5 may optionally be further included or not included at all.
데이터 획득부(2110-1)는 음성 데이터 또는 영상 데이터를 인식하기 위한 기준을 학습하기 위하여 필요한 데이터를 획득할 수 있다. The data acquirer 2110-1 may acquire data necessary for learning a criterion for recognizing voice data or image data.
예를 들어, 데이터 획득부(2110-1)는 음성 데이터 또는 영상 데이터를 획득할 수 있다. 데이터 획득부(2110-1)는 냉장고(1)로부터 음성 데이터 또는 영상 데이터를 획득할 수 있다. 또는, 데이터 획득부(2110-1)는 냉장고(1)와 통신 연결된 제3 기기(예로, 휴대 단말 또는 서버)로부터 음성 데이터 또는 영상 데이터를 획득할 수 있다. 또는, 데이터 획득부(2110-1)는 학습용 데이터를 저장 또는 관리하는 장치 또는 데이터 베이스로부터 음성 데이터 또는 영상 데이터를 획득할 수 있다.For example, the data acquirer 2110-1 may acquire audio data or video data. The data acquirer 2110-1 may acquire audio data or image data from the refrigerator 1. Alternatively, the data acquisition unit 2110-1 may acquire audio data or video data from a third device (eg, a mobile terminal or a server) connected to the refrigerator 1. Alternatively, the data acquirer 2110-1 may acquire audio data or image data from a device or database storing or managing learning data.
전처리부(2110-2)는 음성 데이터 또는 영상 데이터를 전처리할 수 있다. 전처리부(2110-2)는 후술할 모델 학습부(2110-4)가 상황 판단을 위한 학습을 위하여 획득된 데이터를 이용할 수 있도록, 획득된 음성 데이터 또는 영상 데이터를 영상을 기 설정된 포맷으로 가공할 수 있다. The preprocessor 2110-2 may preprocess audio data or video data. The preprocessor 2110-2 may process the acquired audio data or the image data into a preset format so that the model learner 2110-4 to be described later can use the acquired data for learning for situation determination. Can be.
예를 들어, 전처리부(2110-2)는 데이터 획득부(2110-1)에서 획득한 음성 데이터 또는 영상 데이터에 대해, 의미 있는 데이터를 선별할 수 있도록 노이즈를 제거하거나, 소정의 형태로 가공할 수 있다. 또는, 전처리부(2110-2)는 획득한 데이터의 형태를 학습에 적절한 데이터의 형태로 가공할 수 있다. For example, the preprocessor 2110-2 may remove noise or process the audio data or the image data acquired by the data acquirer 2110-1 so as to select meaningful data or to process a predetermined form. Can be. Alternatively, the preprocessor 2110-2 may process the acquired data in the form of data suitable for learning.
학습 데이터 선택부(2110-3)는 전처리된 데이터 중에서 학습에 필요한 음성 데이터 또는 영상 데이터를 기 설정된 기준에 따라 또는 랜덤하게 선택할 수 있다. 선택된 학습용 데이터는 모델 학습부(2110-4)로 제공될 수 있다. 기 설정된 기준은, 예로, 데이터의 속성, 데이터의 생성 시간, 데이터의 생성 장소, 데이터의 생성 장치, 데이터의 신뢰도, 데이터의 크기 중 적어도 하나를 포함할 수 있다.The training data selector 2110-3 may select voice data or video data required for learning from the preprocessed data according to a preset criterion or randomly. The selected training data may be provided to the model learner 2110-4. The preset criterion may include, for example, at least one of a property of data, a time for generating data, a place for generating data, a device for generating data, reliability of data, and a size of data.
또한, 학습 데이터 선택부(2110-3)는 후술할 모델 학습부(2110-4)에 의한 학습에 의해 기 설정된 기준에 따라 학습용 데이터를 선택할 수도 있다.In addition, the training data selector 2110-3 may select the training data according to a preset criterion by the training by the model learner 2110-4 to be described later.
모델 학습부(2110-4)는 학습용 데이터에 기초하여 음성 데이터 또는 영상 데이터를 인식하기 위한 기준을 갖도록 학습 네트워크 모델을 학습시킬 수 있다. 예로, 모델 학습부(2110-4)는 음성 데이터에 대응하는 식품명 또는 식별표지를 인식하기 위한 기준을 갖도록 학습 네트워크 모델을 학습시킬 수 있다. 예로, 모델 학습부(2110-4)는 냉장고(1)의 저장실을 촬영한 영상 데이터로부터 저장실에 보관된 식품을 인식하기 위한 기준을 갖도록 학습 네트워크 모델을 학습시킬 수 있다.The model learner 2110-4 may train the learning network model to have a criterion for recognizing the voice data or the image data based on the training data. For example, the model learner 2110-4 may train the learning network model to have a criterion for recognizing a food name or an identification mark corresponding to the voice data. For example, the model learner 2110-4 may train the learning network model to have a criterion for recognizing food stored in the storage room from image data photographing the storage room of the refrigerator 1.
이 경우, 학습 네트워크 모델은 미리 구축된 모델일 수 있다. 예를 들어, 학습 네트워크 모델은 기본 학습용 데이터(예를 들어, 샘플 영상 데이터 또는 음성 데이터 등)을 입력 받아 미리 구축된 모델일 수 있다. In this case, the learning network model may be a pre-built model. For example, the learning network model may be a model built in advance by receiving basic learning data (for example, sample image data or audio data).
모델 학습부(2110-4)의 학습 결과로서, 학습 네트워크 모델은 음성에 대응하는 식품명 또는 식별 표지를 인식(또는, 결정, 추정, 추론, 예측)하도록 설정될 수 있다. 또는, 학습 네트워크 모델은 음성을 발화한 사용자를 인식(또는, 결정, 추정, 추론, 예측)하도록 설정될 수 있다. 또는, 학습 네트워크 모델은 영상 데이터로부터 저장실에 보관된 식품을 인식(또는, 결정, 추정, 추론, 예측)하도록 설정될 수 있다.As a learning result of the model learner 2110-4, the learning network model may be set to recognize (or determine, estimate, infer, predict) a food name or an identification mark corresponding to the voice. Alternatively, the learning network model may be set to recognize (or determine, estimate, reason, predict) the user who spoke the voice. Alternatively, the learning network model may be set to recognize (or determine, estimate, infer, predict) the food stored in the storage room from the image data.
학습 네트워크 모델은, 예를 들어, 신경망(Neural Network)을 기반으로 하는 모델일 수 있다. 학습 네트워크 모델은 인간의 뇌 구조를 컴퓨터 상에서 모의하도록 설계될 수 있다. 학습 네트워크 모델은 인간의 신경망의 뉴런(neuron)을 모의하는, 가중치를 가지는 복수의 네트워크 노드들을 포함할 수 있다. 복수의 네트워크 노드들은 시냅스(synapse)를 통하여 신호를 주고 받는 뉴런의 시냅틱(synaptic) 활동을 모의하도록 각각 연결 관계를 형성할 수 있다. 학습 네트워크 모델은, 일 예로, 신경망 모델, 또는 신경망 모델에서 발전한 딥 러닝 모델을 포함할 수 있다. 딥 러닝 모델에서 복수의 네트워크 노드들은 서로 다른 깊이(또는, 레이어)에 위치하면서 컨볼루션(convolution) 연결 관계에 따라 데이터를 주고 받을 수 있다. 예컨대, DNN(Deep Neural Network), RNN(Recurrent Neural Network), BRDNN(Bidirectional Recurrent Deep Neural Network)과 같은 모델이 학습 네트워크 모델로서 사용될 수 있으나, 이에 한정되지 않는다.The learning network model may be, for example, a model based on a neural network. The learning network model can be designed to simulate the human brain structure on a computer. The learning network model may include a plurality of weighted network nodes that simulate neurons in a human neural network. A plurality of network nodes may form a connection relationship to simulate the synaptic activity of neurons that send and receive signals through synapses. The learning network model may include, for example, a neural network model or a deep learning model developed from the neural network model. In the deep learning model, a plurality of network nodes may be located at different depths (or layers) and exchange data according to a convolutional connection relationship. For example, models such as Deep Neural Network (DNN), Recurrent Neural Network (RNN), and Bidirectional Recurrent Deep Neural Network (BRDNN) may be used as the learning network model, but are not limited thereto.
다양한 실시예에 따르면, 모델 학습부(2110-4)는 미리 구축된 학습 네트워크 모델이 복수 개가 존재하는 경우, 입력된 학습용 데이터와 기본 학습용 데이터의 관련성이 큰 학습 네트워크 모델을 학습할 학습 네트워크 모델로 결정할 수 있다. 또한, 모델 학습부(2110-4)는, 예를 들어, 오류 역전파법(error back-propagation) 또는 경사 하강법(gradient descent)을 포함하는 학습 알고리즘 등을 이용하여 학습 네트워크 모델을 학습시킬 수 있다. 또한, 모델 학습부(2110-4)는, 예를 들어, 학습용 데이터를 입력 값으로 하는 지도 학습(supervised learning)을 통하여, 학습 네트워크 모델을 학습시킬 수 있다. 또는, 모델 학습부(2110-4)는, 별다른 지도 없이 스스로 학습함으로써, 기준을 발견하는 비지도 학습(unsupervised learning)을 통하여, 학습 네트워크 모델을 학습시킬 수 있다. 또한, 모델 학습부(2110-4)는, 예를 들어, 학습에 따른 결과가 올바른지에 대한 피드백을 이용하는 강화 학습(reinforcement learning)을 통하여, 학습 네트워크 모델을 학습시킬 수 있다.According to various embodiments of the present disclosure, when there are a plurality of pre-built learning network models, the model learning unit 2110-4 may be a learning network model for learning a learning network model having a large correlation between input learning data and basic learning data. You can decide. In addition, the model learner 2110-4 may train the learning network model using, for example, a learning algorithm including an error back-propagation method or a gradient descent method. . In addition, the model learner 2110-4 may train the learning network model through, for example, supervised learning using learning data as an input value. Alternatively, the model learner 2110-4 may train the learning network model through unsupervised learning that finds a criterion by learning by itself without any guidance. In addition, the model learner 2110-4 may train the learning network model through, for example, reinforcement learning using feedback on whether the result of learning is correct.
학습 네트워크 모델이 학습되면, 모델 학습부(2110-4)는 학습된 학습 네트워크 모델을 저장할 수 있다. 이 경우, 모델 학습부(2110-4)는 학습된 학습 네트워크 모델을 냉장고(1)의 저장부(130)에 저장할 수 있다. 또는, 모델 학습부(2110-4)는 학습된 학습 네트워크 모델을 냉장고(1)와 유선 또는 무선 네트워크로 연결되는 서버(SV1) 또는 서버(SV2)의 메모리에 저장할 수도 있다.When the learning network model is trained, the model learner 2110-4 may store the learned learning network model. In this case, the model learner 2110-4 may store the learned learning network model in the storage 130 of the refrigerator 1. Alternatively, the model learner 2110-4 may store the learned learning network model in a memory of the server SV1 or the server SV2 connected to the refrigerator 1 through a wired or wireless network.
이 경우, 학습된 학습 네트워크 모델이 저장되는 저장부(130)는, 예를 들면, 냉장고(10)의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 함께 저장할 수도 있다. 또한, 메모리는 소프트웨어 및/또는 프로그램을 저장할 수도 있다. 프로그램은, 예를 들면, 커널, 미들웨어, 어플리케이션 프로그래밍 인터페이스(API) 및/또는 어플리케이션 프로그램(또는 "어플리케이션") 등을 포함할 수 있다.In this case, the storage unit 130 in which the learned learning network model is stored may store, for example, instructions or data related to at least one other component of the refrigerator 10. The memory may also store software and / or programs. The program may include, for example, a kernel, middleware, an application programming interface (API) and / or an application program (or “application”), and the like.
모델 평가부(2110-5)는 학습 네트워크 모델에 평가 데이터를 입력하고, 평가 데이터로부터 출력되는 인식 결과가 소정 기준을 만족하지 못하는 경우, 모델 학습부(2110-4)로 하여금 다시 학습하도록 할 수 있다. 이 경우, 평가 데이터는 학습 네트워크 모델을 평가하기 위한 기 설정된 데이터일 수 있다. The model evaluator 2110-5 may input the evaluation data into the learning network model, and cause the model learner 2110-4 to relearn if the recognition result output from the evaluation data does not satisfy a predetermined criterion. have. In this case, the evaluation data may be preset data for evaluating the learning network model.
예를 들어, 모델 평가부(2110-5)는 평가 데이터에 대한 학습된 학습 네트워크 모델의 인식 결과 중에서, 인식 결과가 정확하지 않은 평가 데이터의 개수 또는 비율이 미리 설정된 임계치를 초과하는 경우 소정 기준을 만족하지 못한 것으로 평가할 수 있다. 예컨대, 소정 기준이 비율 2%로 정의되는 경우, 학습된 학습 네트워크 모델이 총 1000개의 평가 데이터 중의 20개를 초과하는 평가 데이터에 대하여 잘못된 인식 결과를 출력하는 경우, 모델 평가부(2110-5)는 학습된 학습 네트워크 모델이 적합하지 않은 것으로 평가할 수 있다.For example, the model evaluator 2110-5 may determine a predetermined criterion when the number or ratio of the evaluation data that is not accurate among the recognition results of the learned learning network model for the evaluation data exceeds a preset threshold. It can be evaluated as not satisfied. For example, when a predetermined criterion is defined at a ratio of 2%, the model evaluation unit 2110-5 when the learned learning network model outputs an incorrect recognition result for more than 20 evaluation data out of a total of 1000 evaluation data. Can be judged that the learned learning network model is not suitable.
한편, 학습된 학습 네트워크 모델이 복수 개가 존재하는 경우, 모델 평가부(2110-5)는 각각의 학습된 학습 네트워크 모델에 대하여 소정 기준을 만족하는지를 평가하고, 소정 기준을 만족하는 모델을 최종 학습 네트워크 모델로서 결정할 수 있다. 이 경우, 소정 기준을 만족하는 모델이 복수 개인 경우, 모델 평가부(2110-5)는 평가 점수가 높은 순으로 미리 설정된 어느 하나 또는 소정 개수의 모델을 최종 학습 네트워크 모델로서 결정할 수 있다.On the other hand, when there are a plurality of learned learning network models, the model evaluator 2110-5 evaluates whether a predetermined criterion is satisfied for each learned learning network model, and the model that satisfies the predetermined criterion is a final learning network. Can be determined as a model. In this case, when there are a plurality of models satisfying a predetermined criterion, the model evaluator 2110-5 may determine any one or a predetermined number of models which are preset in the order of the highest evaluation score as the final learning network model.
한편, 데이터 학습부(2110) 내의 데이터 획득부(2110-1), 전처리부(2110-2), 학습 데이터 선택부(2110-3), 모델 학습부(2110-4) 및 모델 평가부(2110-5) 중 적어도 하나는, 적어도 하나의 하드웨어 칩 형태로 제작되어 전자 장치에 탑재될 수 있다. 예를 들어, 데이터 획득부(2110-1), 전처리부(2110-2), 학습 데이터 선택부(2110-3), 모델 학습부(2110-4) 및 모델 평가부(2110-5) 중 적어도 하나는 인공 지능(AI; artificial intelligence)을 위한 전용 하드웨어 칩 형태로 제작될 수도 있고, 또는 기존의 범용 프로세서(예: CPU 또는 application processor) 또는 그래픽 전용 프로세서(예: GPU)의 일부로 제작되어 전술한 각종 전자 장치에 탑재될 수도 있다.Meanwhile, the data acquisition unit 2110-1, the preprocessor 2110-2, the training data selector 2110-3, the model learner 2110-4, and the model evaluator 2110 in the data learner 2110. At least one of -5) may be manufactured in the form of at least one hardware chip and mounted on the electronic device. For example, at least one of the data acquirer 2110-1, the preprocessor 2110-2, the training data selector 2110-3, the model learner 2110-4, and the model evaluator 2110-5. One may be manufactured in the form of a dedicated hardware chip for artificial intelligence (AI), or may be manufactured as a part of an existing general purpose processor (eg, a CPU or application processor) or a graphics dedicated processor (eg, a GPU). It may be mounted on various electronic devices.
또한, 데이터 획득부(2110-1), 전처리부(2110-2), 학습 데이터 선택부(2110-3), 모델 학습부(2110-4) 및 모델 평가부(2110-5)는 하나의 전자 장치에 탑재될 수도 있으며, 또는 별개의 전자 장치들에 각각 탑재될 수도 있다. 예를 들어, 데이터 획득부(2110-1), 전처리부(2110-2), 학습 데이터 선택부(2110-3), 모델 학습부(2110-4) 및 모델 평가부(2110-5) 중 일부는 냉장고(1)에 포함되고, 나머지 일부는 서버(SV1) 또는 서버(SV2)에 포함될 수 있다.In addition, the data obtaining unit 2110-1, the preprocessor 2110-2, the training data selecting unit 2110-3, the model learning unit 2110-4, and the model evaluating unit 2110-5 are electronic components. It may be mounted on the device, or may be mounted on separate electronic devices, respectively. For example, some of the data acquirer 2110-1, the preprocessor 2110-2, the training data selector 2110-3, the model learner 2110-4, and the model evaluator 2110-5. May be included in the refrigerator 1 and the remaining part may be included in the server SV1 or the server SV2.
또한, 데이터 획득부(2110-1), 전처리부(2110-2), 학습 데이터 선택부(2110-3), 모델 학습부(2110-4) 및 모델 평가부(2110-5) 중 적어도 하나는 소프트웨어 모듈로 구현될 수 있다. 데이터 획득부(2110-1), 전처리부(2110-2), 학습 데이터 선택부(2110-3), 모델 학습부(2110-4) 및 모델 평가부(2110-5) 중 적어도 하나가 소프트웨어 모듈(또는, 인스터력션(instruction) 포함하는 프로그램 모듈)로 구현되는 경우, 소프트웨어 모듈은 컴퓨터로 읽을 수 있는 판독 가능한 비일시적 판독 가능 기록매체(non-transitory computer readable media)에 저장될 수 있다. 또한, 이 경우, 적어도 하나의 소프트웨어 모듈은 OS(Operating System)에 의해 제공되거나, 소정의 애플리케이션에 의해 제공될 수 있다. 또는, 적어도 하나의 소프트웨어 모듈 중 일부는 OS(Operating System)에 의해 제공되고, 나머지 일부는 소정의 애플리케이션에 의해 제공될 수 있다.In addition, at least one of the data acquirer 2110-1, the preprocessor 2110-2, the training data selector 2110-3, the model learner 2110-4, and the model evaluator 2110-5 is provided. It may be implemented as a software module. At least one of the data acquirer 2110-1, the preprocessor 2110-2, the training data selector 2110-3, the model learner 2110-4, and the model evaluator 2110-5 is a software module. (Or a program module including instructions), the software module may be stored in a computer readable non-transitory computer readable media. In this case, at least one software module may be provided by an operating system (OS) or by a predetermined application. Alternatively, some of the at least one software module may be provided by an operating system (OS), and others may be provided by a predetermined application.
도 21B의 (b)는 일 실시예에 따른 데이터 인식부(2120)의 블록도이다.(B) of FIG. 21B is a block diagram of the data recognition unit 2120 according to an embodiment.
도 21B의 (b)를 참조하면, 일부 실시예에 따른 데이터 인식부(2120)는 데이터 획득부(2120-1), 전처리부(2120-2), 인식 데이터 선택부(2120-3), 인식 결과 제공부(2120-4) 및 모델 갱신부(2120-5)를 포함할 수 있다. 일부 실시예에 따른, 데이터 인식부(2120)는 데이터 획득부(2120-1) 및 인식 결과 제공부(2120-4)를 필수적으로 포함하고, 전처리부(2120-2), 인식 데이터 선택부(2120-3) 및 모델 갱신부(2120-5) 중 적어도 하나를 선택적으로 더 포함할 수 있다.Referring to (b) of FIG. 21B, the data recognizer 2120 according to some embodiments may include a data acquirer 2120-1, a preprocessor 2120-2, a recognition data selector 2120-3, and a recognizer. The result providing unit 2120-4 and the model updating unit 2120-5 may be included. According to some embodiments, the data recognizer 2120 essentially includes a data acquirer 2120-1 and a recognition result provider 2120-4, and includes a preprocessor 2120-2 and a recognition data selector ( 2120-3) and the model updater 2120-5 may optionally be further included.
데이터 인식부(2120)는 음성 데이터를 인식용 데이터로서 학습된 학습 네트워크 모델에 적용하여, 음성 데이터에 대응하는 식품명, 식품 표지를 인식하거나 또는 음성 데이터를 발화한 사용자를 인식할 수 있다. 또는, 데이터 인식부(2120)는 영상 데이터를 인식용 데이터로서 학습된 학습 네트워크 모델에 적용하여, 냉장고(1)의 저장실(20)에 보관된 식품을 인식할 수 있다.The data recognizer 2120 may apply the voice data to the learned learning network model as the recognition data, and may recognize a food name corresponding to the voice data, a food label, or a user who utters the voice data. Alternatively, the data recognizing unit 2120 may recognize the food stored in the storage room 20 of the refrigerator 1 by applying the image data to the learned learning network model as the recognition data.
먼저, 데이터 획득부(2120-1)는 음성 데이터로부터 식품명, 식품 표지 또는 음성을 발화한 사용자를 인식하기 위해 필요한 음성 데이터를 획득할 수 있다. 또는, 데이터 획득부(2120-1)는 영상 데이터로부터 식품을 인식하기 위해 필요한 영상 데이터를 획득할 수 있다.First, the data acquirer 2120-1 may acquire voice data necessary for recognizing a user who spoke a food name, a food label, or a voice from the voice data. Alternatively, the data acquirer 2120-1 may acquire image data necessary for recognizing food from the image data.
예를 들어, 데이터 획득부(2120-1)는 사용자에 의하여 직접 입력되거나 또는 사용자가 선택된 데이터 등을 획득하거나, 냉장고(1)의 다양한 센서들을 이용하여 감지되는 다양한 센싱 정보들을 획득할 수 있다. 또한, 데이터 획득부(2120-1)는 냉장고(1)와 통신하는 외부 장치(예로, 휴대 단말 또는 서버)로부터 데이터를 획득할 수도 있다.  For example, the data acquirer 2120-1 may acquire various sensing information that is directly input by the user or data selected by the user, or sensed using various sensors of the refrigerator 1. In addition, the data acquisition unit 2120-1 may acquire data from an external device (eg, a mobile terminal or a server) that communicates with the refrigerator 1.
전처리부(2120-2)는 음성 데이터 또는 영상 데이터를 전처리할 수 있다. 전처리부(2120-2)는 후술할 인식 결과 제공부(2120-4)가 상황 판단을 위한 데이터를 이용할 수 있도록, 획득된 음성 데이터 또는 영상 데이터를 영상을 기 설정된 포맷으로 가공할 수 있다. The preprocessor 2120-2 may preprocess audio data or video data. The preprocessor 2120-2 may process the acquired audio data or the image data into a predetermined format so that the recognition result providing unit 2120-4 to be described later can use the data for situation determination.
예를 들어, 전처리부(2120-2)는 데이터 획득부(2120-1)에서 획득한 음성 데이터 또는 영상 데이터에 대해, 의미 있는 데이터를 선별할 수 있도록 노이즈를 제거하거나, 소정의 형태로 가공할 수 있다. 또는, 전처리부(2120-2)는 획득한 데이터의 형태를 학습에 적절한 데이터의 형태로 가공할 수 있다. For example, the preprocessor 2120-2 may remove noise or process the audio data or the image data acquired by the data acquirer 2120-1 so that meaningful data can be selected or processed into a predetermined form. Can be. Alternatively, the preprocessor 2120-2 may process the acquired data into a form of data suitable for learning.
인식 데이터 선택부(2120-3)는 전처리된 데이터 중에서 인식에 필요한 음성 데이터 또는 영상 데이터를 기 설정된 기준에 따라 또는 랜덤하게 선택할 수 있다. 선택된 인식용 데이터는 모델 학습부(2110-4)로 제공될 수 있다. 기 설정된 기준은, 예로, 데이터의 속성, 데이터의 생성 시간, 데이터의 생성 장소, 데이터의 생성 장치, 데이터의 신뢰도, 데이터의 크기 중 적어도 하나를 포함할 수 있다.The recognition data selector 2120-3 may select voice data or image data required for recognition from the preprocessed data according to a preset criterion or randomly. The selected recognition data may be provided to the model learner 2110-4. The preset criterion may include, for example, at least one of a property of data, a time for generating data, a place for generating data, a device for generating data, reliability of data, and a size of data.
인식 결과 제공부(2120-4)는 선택된 인식용 데이터를 학습 네트워크 모델에 적용하여 인식할 수 있다. 예로, 인식 결과 제공부(2120-4)는 선택된 음성 데이터를 학습 네트워크 모델에 적용하여 음성에 대응하는 식품명 또는 식별 표지를 인식할 수 있다. 또는, 인식 결과 제공부(2120-4)는 선택된 음성 데이터를 학습 네트워크 모델에 적용하여 음성을 발화한 사용자를 인식할 수 있다. 또는, 인식 결과 제공부(2120-4)는 선택된 영상 데이터를 학습 네트워크 모델에 적용하여 영상 데이터에 대응하는 식품을 인식할 수 있다.The recognition result providing unit 2120-4 may apply the selected recognition data to the learning network model to recognize the recognition network. For example, the recognition result providing unit 2120-4 may apply the selected voice data to the learning network model to recognize a food name or an identification mark corresponding to the voice. Alternatively, the recognition result providing unit 2120-4 may recognize the user who spoke the voice by applying the selected voice data to the learning network model. Alternatively, the recognition result providing unit 2120-4 may recognize the food corresponding to the image data by applying the selected image data to the learning network model.
모델 갱신부(2120-5)는 인식 결과 제공부(2120-4)에 의해 제공되는 인식 결과에 대한 평가에 기초하여, 학습 네트워크 모델이 갱신되도록 할 수 있다. 예를 들어, 모델 갱신부(2120-5)는 인식 결과 제공부(2120-4)에 의해 제공되는 식품명, 식별 표지 또는 사용자 정보를 다시 모델 학습부(2110-4)에게 제공함으로써, 모델 학습부(2110-4)가 학습 네트워크 모델을 갱신하도록 할 수 있다. The model updater 2120-5 may cause the learning network model to be updated based on the evaluation of the recognition result provided by the recognition result provider 2120-4. For example, the model updater 2120-5 provides the model learner 2110-4 by providing the food name, the identification mark, or the user information provided by the recognition result provider 2120-4 to the model learner 2110-4. 2110-4 may update the learning network model.
한편, 데이터 인식부(2120) 내의 데이터 획득부(2120-1), 전처리부(2120-2), 인식 데이터 선택부(2120-3), 인식 결과 제공부(2120-4) 및 모델 갱신부(2120-5) 중 적어도 하나는, 적어도 하나의 하드웨어 칩 형태로 제작되어 전자 장치에 탑재될 수 있다. 예를 들어, 데이터 획득부(2120-1), 전처리부(2120-2), 인식 데이터 선택부(2120-3), 인식 결과 제공부(2120-4) 및 모델 갱신부(2120-5) 중 적어도 하나는 인공 지능(AI; artificial intelligence)을 위한 전용 하드웨어 칩 형태로 제작될 수도 있고, 또는 기존의 범용 프로세서(예: CPU 또는 application processor) 또는 그래픽 전용 프로세서(예: GPU)의 일부로 제작되어 전술한 각종 전자 장치에 탑재될 수도 있다.Meanwhile, the data acquisition unit 2120-1, the preprocessor 2120-2, the recognition data selection unit 2120-3, the recognition result providing unit 2120-4, and the model updater 2 in the data recognition unit 2120 At least one of 2120-5 may be manufactured in the form of at least one hardware chip and mounted on the electronic device. For example, among the data acquirer 2120-1, the preprocessor 2120-2, the recognition data selector 2120-3, the recognition result provider 2120-4, and the model updater 2120-5. At least one may be fabricated in the form of a dedicated hardware chip for artificial intelligence (AI), or may be fabricated as part of an existing general purpose processor (e.g., CPU or application processor) or graphics dedicated processor (e.g., GPU). It may be mounted on various electronic devices.
또한, 데이터 획득부(2120-1), 전처리부(2120-2), 인식 데이터 선택부(2120-3), 인식 결과 제공부(2120-4) 및 모델 갱신부(2120-5)는 하나의 전자 장치에 탑재될 수도 있으며, 또는 별개의 전자 장치들에 각각 탑재될 수도 있다. 예를 들어, 데이터 획득부(2120-1), 전처리부(2120-2), 인식 데이터 선택부(2120-3), 인식 결과 제공부(2120-4) 및 모델 갱신부(2120-5) 중 일부는 전자 장치에 포함되고, 나머지 일부는 서버에 포함될 수 있다.In addition, the data acquisition unit 2120-1, the preprocessor 2120-2, the recognition data selection unit 2120-3, the recognition result providing unit 2120-4, and the model updater 2120-5 It may be mounted on an electronic device, or may be mounted on separate electronic devices, respectively. For example, among the data acquirer 2120-1, the preprocessor 2120-2, the recognition data selector 2120-3, the recognition result provider 2120-4, and the model updater 2120-5. Some may be included in the electronic device, and others may be included in the server.
또한, 데이터 획득부(2120-1), 전처리부(2120-2), 인식 데이터 선택부(2120-3), 인식 결과 제공부(2120-4) 및 모델 갱신부(2120-5) 중 적어도 하나는 소프트웨어 모듈로 구현될 수 있다. 데이터 획득부(2120-1), 전처리부(2120-2), 인식 데이터 선택부(2120-3), 인식 결과 제공부(2120-4) 및 모델 갱신부(2120-5) 중 적어도 하나가 소프트웨어 모듈(또는, 인스터력션(instruction) 포함하는 프로그램 모듈)로 구현되는 경우, 소프트웨어 모듈은 컴퓨터로 읽을 수 있는 판독 가능한 비일시적 판독 가능 기록매체(non-transitory computer readable media)에 저장될 수 있다. 또한, 이 경우, 적어도 하나의 소프트웨어 모듈은 OS(Operating System)에 의해 제공되거나, 소정의 애플리케이션에 의해 제공될 수 있다. 또는, 적어도 하나의 소프트웨어 모듈 중 일부는 OS(Operating System)에 의해 제공되고, 나머지 일부는 소정의 애플리케이션에 의해 제공될 수 있다.In addition, at least one of the data acquirer 2120-1, the preprocessor 2120-2, the recognition data selector 2120-3, the recognition result provider 2120-4, and the model updater 2120-5. May be implemented as a software module. At least one of the data acquisition unit 2120-1, the preprocessor 2120-2, the recognition data selection unit 2120-3, the recognition result providing unit 2120-4, and the model updater 2120-5 is software. When implemented as a module (or a program module including instructions), the software module may be stored on a computer readable non-transitory computer readable media. In this case, at least one software module may be provided by an operating system (OS) or by a predetermined application. Alternatively, some of the at least one software module may be provided by an operating system (OS), and others may be provided by a predetermined application.
도 22는, 본 개시의 일 실시예에 의한 정보를 표시하는 냉장고(1)의 흐름도이다.22 is a flowchart of a refrigerator 1 displaying information according to an embodiment of the present disclosure.
냉장고(1)는 마이크로폰(182)을 통해 식품명을 포함하는 제1음성이 입력되는지를 판단할 수 있다(2201).The refrigerator 1 may determine whether a first voice including a food name is input through the microphone 182 (2201).
판단 결과, 제1음성이 식별되면, 냉장고(1)는 제1음성의 인식에 기초하여, 식품명에 대응하는 식품 정보와 식품 정보를 식별할 수 있는 식별 표지를 포함하는 식품 리스트를 냉장고(1)에 전면에 위치한 디스플레이(120)에 표시할 수 있다(2202).As a result of the determination, when the first voice is identified, the refrigerator 1 displays the food list including food information corresponding to the food name and an identification mark for identifying the food information, based on the recognition of the first voice. In operation 2202, the display 120 may display the same.
예를 들어, 제1음성이 식별되면, 냉장고(1)는 인공 지능 알고리즘에 따라 학습된 학습 네트워크 모델을 이용하여 제1음성을 인식함으로써 식품명을 획득하고, 식품명에 대응하는 식품 정보를 포함하는 식품 리스트를 디스플레이(120)에 표시할 수 있다. 이 경우, 학습 네트워크 모델은 복수의 음성들 및 상기 복수의 음성들 각각에 대응하는 복수의 단어들을 이용하여 학습된 학습 네트워크 모델일 수 있다.For example, when the first voice is identified, the refrigerator 1 acquires a food name by recognizing the first voice by using a learning network model trained according to an artificial intelligence algorithm, and includes food information corresponding to the food name. The list may be displayed on the display 120. In this case, the learning network model may be a learning network model trained using a plurality of voices and a plurality of words corresponding to each of the plurality of voices.
다른 예로, 제1음성이 식별되면, 냉장고(1)는 인공 지능 알고리즘에 따라 학습된 네트워크 모델을 이용하여 제1음성을 인식함으로써 식품명 및 제1음성을 발화한 사용자 정보를 획득하고, 상기 식품명에 대응하되 상기 사용자 정보와 관련된 식품 정보(예로, 사용자가 선호하는 식품 정보)를 포함하는 식품 리스트를 디스플레이(120)에 표시할 수 있다. 이 경우, 학습 네트워크 모델은, 복수의 음성들 및 상기 복수의 음성들 각각에 대응하는 사용자 정보들을 이용하여 학습된 학습 네트워크 모델일 수 있다.As another example, when the first voice is identified, the refrigerator 1 acquires a food name and user information uttering the first voice by recognizing the first voice by using a network model trained according to an artificial intelligence algorithm. The display 120 may display a food list corresponding to the food information including food information related to the user information (for example, food information preferred by the user). In this case, the learning network model may be a learning network model trained using a plurality of voices and user information corresponding to each of the plurality of voices.
또 다른 예로, 제1음성이 식별되면, 인식된 식품명과 관련된 식품이 냉장고(1)의 저장실(20)에 존재하는지 여부를 식별할 수 있다. 그리고, 식품이 저장실(20)에 존재하지 않으면, 냉장고(1)는 식품명에 대응하는 식품 정보를 포함하는 식품 리스트를 디스플레이에 표시할 수 있다. 반면에, 식품이 저장실(20)에 존재하면, 냉장고(1)는 인식된 식품명과 관련된 식품이 냉장고(1)의 저장실에 존재하는 것을 나타내는 정보를 디스플레이(120)에 표시할 수 있다.As another example, when the first voice is identified, it may be identified whether a food associated with the recognized food name exists in the storage compartment 20 of the refrigerator 1. If the food is not present in the storage compartment 20, the refrigerator 1 may display a food list including food information corresponding to the food name on the display. On the other hand, if food is present in the storage compartment 20, the refrigerator 1 may display on the display 120 information indicating that the food associated with the recognized food name exists in the storage compartment of the refrigerator 1.
다음으로, 냉장고(1)는 마이크로폰(182)을 통해 식별 표지를 지칭하는 제2음성이 입력되는지를 판단할 수 있다(2203).Next, the refrigerator 1 may determine whether a second voice indicating an identification mark is input through the microphone 182 (2203).
판단 결과, 제2음성이 식별되면, 냉장고(1)는 제2음성의 인식에 기초하여, 식별 표지에 대응하는 적어도 하나의 식품의 구매 정보를 냉장고(1)의 전면에 위치한 디스플레이(120)에 표시할 수 있다(2204).As a result of the determination, when the second voice is identified, the refrigerator 1 transmits purchase information of at least one food item corresponding to the identification mark to the display 120 located in front of the refrigerator 1 based on the recognition of the second voice. It may be displayed (2204).
얘를 들어, 제2음성이 식별되면, 냉장고(1)는 인공 지능 알고리즘에 따라 학습된 학습 네트워크 모델을 이용하여 제2음성을 인식함으로써 식별 표지를 획득하고, 식별 표지에 대응하는 식품의 구매 정보를 디스플레이에 표시할 수 있다. For example, when the second voice is identified, the refrigerator 1 acquires an identification mark by recognizing the second voice using a learning network model trained according to an artificial intelligence algorithm, and purchases food information corresponding to the identification mark. Can be displayed on the display.
도 23은, 본 개시의 일 실시예에 의한 네트워크 시스템의 흐름도이다.23 is a flowchart of a network system according to an embodiment of the present disclosure.
도 23에서, 네트워크 시스템은 제1 구성 요소(2301) 및 제2 구성 요소(2302)를 포함할 수 있다. 여기서, 제1 구성 요소(2301)은 냉장고(1)이고, 제2 구성 요소(2302)는 데이터 인식 모델이 저장된 서버(SV1) 또는 적어도 하나의 서버를 포함하는 클라우드가 될 수 있다. 또는, 제1 구성 요소(2301)는 범용 프로세서이고, 제2 구성 요소(2302)는 인공 지능 전용 프로세서가 될 수 있다. 또는, 제1 구성 요소(2301)는 적어도 하나의 어플리케이션이 될 수 있고, 제2 구성 요소(2302)는 운영 체제(operating system, OS)가 될 수 있다. 즉, 제2 구성 요소(2302)는 제1 구성 요소(2301)보다 더 집적화되거나, 전용화되거나, 딜레이(delay)가 작거나, 성능이 우세하거나 또는 많은 리소스를 가진 구성 요소로서, 데이터 인식 모델의 생성, 갱신 또는 적용 시에 요구되는 많은 연산을 제1 구성 요소(2301)보다 신속하고 효과적으로 처리할 수 있는 구성 요소가 될 수 있다.In FIG. 23, the network system may include a first component 2301 and a second component 2302. Here, the first component 2301 is the refrigerator 1, and the second component 2302 may be a server SV1 in which a data recognition model is stored or a cloud including at least one server. Alternatively, the first component 2301 may be a general purpose processor, and the second component 2302 may be an artificial intelligence dedicated processor. Alternatively, the first component 2301 may be at least one application, and the second component 2302 may be an operating system (OS). That is, the second component 2302 is a component that is more integrated, dedicated, has a smaller delay, has a higher performance, or has more resources than the first component 2301. It can be a component that can process many operations required at the time of generation, update or application of the faster than the first component 2301.
한편, 제1 구성 요소(2301) 및 제2 구성 요소(2302) 간에 데이터를 송/수신하기 위한 인터페이스가 정의될 수 있다. Meanwhile, an interface for transmitting / receiving data between the first component 2301 and the second component 2302 may be defined.
예로, 데이터 인식 모델에 적용할 인식용 데이터를 인자 값(또는, 매개 값 또는 전달 값)으로 갖는 API(application program interface)가 정의될 수 있다. API는 어느 하나의 프로토콜(예로, 냉장고(1)에서 정의된 프로토콜)에서 다른 프로토콜(예로, 서버(SV1)에서 정의된 프로토콜)의 어떤 처리를 위해 호출할 수 있는 서브 루틴 또는 함수의 집합으로 정의될 수 있다. 즉, API를 통하여 어느 하나의 프로토콜에서 다른 프로토콜의 동작이 수행될 수 있는 환경이 제공될 수 있다.For example, an application program interface (API) having recognition data to be applied to the data recognition model as an argument value (or, a parameter value or a transfer value) may be defined. An API is defined as a set of subroutines or functions that can be called for any processing of one protocol (e.g., a protocol defined in the refrigerator 1) to another protocol (e.g., a protocol defined in the server SV1). Can be. That is, an environment in which an operation of another protocol may be performed in one protocol through an API may be provided.
도 23에서, 제1 구성 요소(2301)는 마이크로폰(182)을 통해 식품명을 포함하는 사용자의 제1음성을 입력 받을 수 있다(2310).In FIG. 23, the first component 2301 may receive a first voice of a user including a food name through the microphone 182 (2310).
제1 구성 요소(2301)는 입력된 아날로그 음성 신호를 디지털 신호인 음성 데이터로 변조하여 제2 구성 요소(2302)로 전송할 수 있다. 이 때, 제1 구성 요소(2301)는 음성 데이터를 약속된 통신 포맷에 따라 변경하여 제2 구성 요소(2302)에게 전송할 수 있다(2311).The first component 2301 may modulate the input analog voice signal into voice data which is a digital signal and transmit the same to the second component 2302. In this case, the first component 2301 may change the voice data according to the promised communication format and transmit the voice data to the second component 2302 (2311).
제2 구성 요소(2302)는 수신된 음성 데이터를 인식할 수 있다(2312). 예로, 제2 구성 요소(2302)는 수신된 음성 데이터를 학습된 학습 네트워크 모델에 적용하여 음성 데이터를 인식하고, 인식 결과로서 인식 정보를 획득할 수 있다. 예로, 제2 구성 요소(2302)는 음성 데이터로부터 식품명 및 음성을 발화한 사용자 정보를 획득할 수 있다. 제2 구성 요소(2302)는 획득된 인식 정보를 제1 구성 요소(2301)로 전송할 수 있다(2313). The second component 2302 may recognize the received voice data (2312). For example, the second component 2302 may apply the received voice data to the learned learning network model to recognize the voice data and obtain recognition information as a recognition result. For example, the second component 2302 may obtain the food name and the user information that spoke the voice from the voice data. The second component 2302 may transmit the obtained recognition information to the first component 2301 (2313).
제1 구성 요소(2301)는 수신된 인식 정보에 기초하여, 음성 데이터가 요청한 정보를 획득할 수 있다(2314). 예로, 제1 구성 요소(2301)는 음성 데이터가 요청한 정보로서, 식품명에 대응하는 식품 정보를 제1 구성 요소(2301)의 저장부로부터 획득할 수도 있고, 제3 구성 요소(2303)로부터 획득할 수도 있다. 제3 구성 요소(2303)는, 예로, 제1 구성 요소(2301)와 통신 연결 중인 서버가 될 수도 있다. 예로, 상기 서버는 전술한 도 9 및 도 10에서, 음성 데이터가 요청한 정보를 전송하는 서버(SV2)가 될 수 있다.The first component 2301 may obtain information requested by the voice data, based on the received recognition information (2314). For example, the first component 2301 may obtain food information corresponding to the food name from the storage of the first component 2301 or the third component 2303 as information requested by the voice data. It may be. The third component 2303 may be, for example, a server in communication connection with the first component 2301. For example, the server may be a server SV2 transmitting information requested by voice data in FIGS. 9 and 10.
한편, 동작 2312에서, 제2 구성 요소(2302)는 인식한 인식 정보를 제1 구성 요소(2301)를 거치지 않고, 제3 구성 요소(2303)로 직접 전송할 수도 있다(2323). 이 경우, 제3 구성 요소(2303)는 수신된 인식 정보에 기초하여 음성 데이터가 요청한 정보를 획득하고, 획득된 음성 데이터가 요청한 정보를 제1 구성 요소(2301)로 전송할 수 있다(2324). 제1 구성 요소(2301)는 제3 구성 요소(2303)부터 음성 데이터가 요청한 정보를 획득할 수 있다.In operation 2312, the second component 2302 may directly transmit the recognized recognition information to the third component 2303 without passing through the first component 2301 (2323). In this case, the third component 2303 may acquire the information requested by the voice data based on the received recognition information, and transmit the information requested by the acquired voice data to the first component 2301 (2324). The first component 2301 may obtain information requested by the voice data from the third component 2303.
동작 2314 또는 동작 2324와 같이 음성 데이터가 요청한 정보가 획득되면, 제1 구성 요소(2301)는 음성 데이터가 요청한 정보로서, 식품명에 대응하는 식품 정보와, 상기 식품 정보를 식별할 수 있는 식별 표지를 포함하는 식품 리스트를 표시할 수 있다(2315).When the information requested by the voice data is obtained in operation 2314 or 2324, the first component 2301 may include food information corresponding to a food name and an identification mark for identifying the food information as the information requested by the voice data. The list of foods to be included may be displayed (2315).
한편, 식별 표지를 포함하는 식품 리스트를 확인하고, 일 식별 표지를 지칭하는 사용자의 제2 음성이 인식되면, 제1 구성 요소(2301)는 식별 표지에 대응하는 적어도 하나의 식품의 구매 정보를 표시할 수 있다.On the other hand, when the food list including the identification mark is checked, and when a second voice of the user referring to the one identification mark is recognized, the first component 2301 displays purchase information of at least one food corresponding to the identification mark. can do.
도 24는, 본 개시의 다른 일 실시예에 의한 냉장고를 통해 사용자가 식품을 구매하는 방법을 도시한다.24 is a view illustrating a method of purchasing food by a user through a refrigerator according to another embodiment of the present disclosure.
도 24에 도시된 것처럼, 마이크로폰(182)을 통해 특정 식품을 주문하기 위한 제1음성이 입력될 수 있다(980).As illustrated in FIG. 24, a first voice for ordering a specific food may be input through the microphone 182 (980).
컨트롤러(110)는 식품명을 포함하는 제1음성을 인식할 수 있다. 인식 결과로서, 컨트롤러(110)는 인식된 식품명 및 제1음성을 발화한 사용자 정보를 획득할 수 있다.The controller 110 may recognize the first voice including the food name. As a result of the recognition, the controller 110 may obtain user information that uttered the recognized food name and the first voice.
식품명 및 사용자 정보가 획득되면, 컨트롤러(110)는 식품명과 관련하여 제1음성을 발화한 사용자가 선호하는 식품 정보를 획득할 수 있다(981).When the food name and the user information are obtained, the controller 110 may obtain food information preferred by the user who spoke the first voice in relation to the food name (981).
획득된 식품 정보에 기초하여, 컨트롤러(110)는 사용자가 선호하는 복수의 식품 정보들과 상기 복수의 식품 정보들을 구별하기 위한 식별 표지를 포함하는 식품 리스트를 디스플레이(120)에 표시할 수 있다(982).Based on the obtained food information, the controller 110 may display on the display 120 a food list including an identification mark for distinguishing the plurality of food information and the plurality of food information that the user prefers ( 982).
다음으로, 마이크로폰(182)을 통해 식품 리스트에 포함된 식별 표지들 중 특정 식별 표지를 지칭하는 제2음성이 입력될 수 있다(983).Next, via the microphone 182, a second voice indicating a specific identification mark among the identification marks included in the food list may be input (983).
컨트롤러(110)는 식별 표지를 포함하는 제2음성을 인식할 수 있다. 인식 결과로서, 컨트롤러(110)는 상기 식별 표지에 대응되는 식품의 구매 정보를 디스플레이(120)에 표시할 수 있다(984).The controller 110 may recognize the second voice including the identification mark. As a result of the recognition, the controller 110 may display the purchase information of the food corresponding to the identification mark on the display 120 (984).
다음으로, 마이크로폰(182)을 통해 식품을 구매를 요청하는 제3음성이 입력될 수 있다(985). 식품의 구매를 요청하는 제3음성은, 예로, <바로 구매>라고 사용자가 발화하는 음성이 될 수 있다.Next, a third voice for requesting purchase of food through the microphone 182 may be input (985). The third voice requesting the purchase of food may be, for example, a voice spoken by the user as &quot; purchase immediately &quot;.
컨트롤러(110)는 제3음성을 인식할 수 있다. 그리고, 컨트롤러(110)는 제3음성의 인식 결과로서 식품을 구매하기 위한 UI(예로, 결재를 위한 UI 등)를 디스플레이(120)에 표시할 수 있다. 이러한 상황에서, 컨트롤러(110)는 구매 상황을 알리는 메시지가 외부 장치(986-1)로 전송되도록 통신부(140)를 제어할 수 있다(986). 구매 상황을 알리는 메시지는, 예로, 식품의 구매 전에 구매 여부의 확인을 요청하는 메시지, 식품의 구매를 위한 패스워드의 입력을 요청하는 메시지 또는, 식품의 구매 후에 구매 결과를 알리는 메시지 등을 포함할 수 있다.The controller 110 may recognize the third voice. The controller 110 may display, on the display 120, a UI (for example, a UI for payment) for purchasing food as a result of recognizing the third voice. In this situation, the controller 110 may control the communication unit 140 to transmit a message informing the purchase situation to the external device 986-1 (986). The message indicating the purchase status may include, for example, a message requesting confirmation of whether to purchase the food before purchasing the food, a message requesting input of a password for purchasing the food, or a message indicating a purchase result after the purchase of the food. have.
예로, 컨트롤러(110)는 제1음성 내지 제3음성 중 적어도 하나를 인식하여 음성을 발화한 사용자 정보를 획득할 수 있다. 컨트롤러(110)는 획득된 사용자 정보를 이용하여, 사용자 정보에 대응하는 사용자의 장치로 구매 상황을 알리는 메시지를 전송할 수 있다. 또한, 냉장고(1)의 저장실(20)에 사용자가 요청한 식품이 존재하는 경우, 컨트롤러(110)는 상기 보관 중인 식품에 대한 정보를 알리는 메시지를 사용자의 장치로 전송할 수도 있다. 한편, 컨트롤러(110)는 음성을 발화한 사용자의 보호자의 장치로 메시지를 전송할 수도 있다. 예로, 식품을 주문한 사람이 자녀인 경우, 컨트롤러(110)는 자녀의 부모의 장치로 전술한 구매 상황을 알리는 메시지를 전송할 수 있다. For example, the controller 110 may acquire at least one of the first voice to the third voice to obtain user information uttering the voice. The controller 110 may transmit a message informing the purchase situation to the user's device corresponding to the user information by using the obtained user information. In addition, when the food requested by the user exists in the storage compartment 20 of the refrigerator 1, the controller 110 may transmit a message informing the information about the stored food to the user's device. On the other hand, the controller 110 may transmit a message to the device of the guardian of the user who spoke the voice. For example, if the person who ordered the food is a child, the controller 110 may transmit a message informing the above-described purchase situation to the parent device of the child.
메시지를 수신한 외부 장치(986-1)는 수신된 메시지에 응답하여, 구매 상황을 텍스트로 표시하거나, 음성으로 제공하거나, 영상으로 표시하거나, 햅틱으로 표시하거나, 빛을 발광하여 알릴 수 있으나, 구매 상황을 알리는 방식은 전술한 예에 제한되지는 않는다.In response to the received message, the external device 986-1 receiving the message may display the purchase status as text, provide a voice, display an image, display haptic or emit light. The manner of notifying the purchase situation is not limited to the above example.
다양한 실시예로, 컨트롤러(110)는 냉장고(1)를 통해 식품을 구매하는 상황이 발생되면, 냉장고(1)와 사전에 설정되었거나, 통신 중인 외부 장치(986-1)로 구매 상황을 알리는 메시지를 전송할 수도 있다. 또는, 컨트롤러(110)는 기 설정된 기준을 만족하는 외부 장치(986-1)로 구매 상황을 알리는 메시지를 전송할 수도 있다. 이 때, 기 설정된 기준을 만족하는 외부 장치(986-1)는 일정 장소(예로, 거실, 안방 등)에 위치하거나, 냉장고(1)와 통신하는 신호 세기가 일정 값 이상이거나, 냉장고(1)와의 거리가 일정 거리 이하인 외부 장치가 대상이 될 수 있다. 또한, 기 설정된 기준은 특정 통신 방식에 따라 냉장고(1)와 통신 연결된 외부 장치(986-1)가 대상이 될 수도 있다. 특정 통신 방식은, 예로, 근거리 통신 방식(예로, 와이파이, 블루투스, 지그비 등) 또는 다이렉트 통신 방식을 포함할 수 있다. 냉장고(1)가 근거리 통신 방식에 따라 외부 장치(986-1)와 통신 중인 경우, 컨트롤러(110)는 근거리 통신 방식에 따라 설립된 통신 채널을 통하여 구매 상황을 알리는 푸시(push) 메시지를 외부 장치(986-1)로 전송할 수 있다.According to various embodiments of the present disclosure, when a situation in which food is purchased through the refrigerator 1 occurs, the controller 110 may notify a purchase situation to an external device 986-1 that is previously set or communicates with the refrigerator 1. Can also be transmitted. Alternatively, the controller 110 may transmit a message informing the purchase situation to the external device 986-1 that satisfies the preset criteria. At this time, the external device 986-1 that satisfies the preset criteria is located at a predetermined place (for example, a living room, a room, etc.), the signal strength communicating with the refrigerator 1 is greater than or equal to a predetermined value, or the refrigerator 1 The target device may be an external device having a distance from the predetermined distance. In addition, the preset reference may be an external device 986-1 connected to the refrigerator 1 according to a specific communication method. The specific communication method may include, for example, a short range communication method (eg, Wi-Fi, Bluetooth, Zigbee, etc.) or a direct communication method. When the refrigerator 1 is communicating with the external device 986-1 according to the short range communication method, the controller 110 sends a push message indicating a purchase status through a communication channel established according to the short range communication method. (986-1).
본 개시에서 사용된 용어 "모듈"은, 예를 들면, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 이상의 조합으로 구성된 유닛(unit)을 포함하며, 예를 들면, 로직(logic), 논리 블록(logical block), 부품(component), 또는 회로(circuit) 등의 용어와 상호 호환적으로 사용(interchangeably use)될 수 있다. "모듈"은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. "모듈"은 기계적으로 또는 전자적으로 구현될 수 있으며, 예를 들면, 어떤 동작들을 수행하는, 알려졌거나 앞으로 개발될, ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays) 또는 프로그램 가능 논리 장치(programmable-logic device)를 포함할 수 있다.The term "module" as used in the present disclosure includes, for example, a unit composed of a combination of one or more of hardware, software, or firmware, for example, a logic, a logical block. The terms "block", "component", or "circuit" may be used interchangeably. The module may be an integrally formed part or a minimum unit or part of performing one or more functions. "Modules" may be implemented mechanically or electronically, for example, application-specific integrated circuit (ASIC) chips, field-programmable gate arrays (FPGAs) or programs that perform some operations, known or will be developed in the future. It may include a programmable-logic device.
상기에서 설명된 방법들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기의 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The methods described above may be embodied in the form of program instructions that may be executed by various computer means and may be recorded in a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on the media may be those specially designed and constructed for the purposes of the present invention, or they may be of the kind well-known and available to those having skill in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks. Magneto-optical media, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.
또한, 개시된 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)으로 제공될 수 있다. In addition, the method according to the disclosed embodiments may be provided as a computer program product.
컴퓨터 프로그램 제품은 S/W 프로그램, S/W 프로그램이 저장된 컴퓨터로 읽을 수 있는 저장 매체 또는 판매자 및 구매자 간에 거래되는 식품을 포함할 수 있다. The computer program product may include a S / W program, a computer readable storage medium on which the S / W program is stored, or a food product traded between a seller and a buyer.
예를 들어, 컴퓨터 프로그램 제품은 냉장고(1), 서버(SV1), 서버(SV2) 또는 상기 장치들의 제조사의 제조사, 또는 어플리케이션 스토어를 통해 전자적으로 배포되는 S/W 프로그램 형태의 식품(예, 다운로더블 앱)을 포함할 수 있다. 전자적 배포를 위하여, S/W 프로그램의 적어도 일부는 저장 매체에 저장되거나, 임시적으로 생성될 수 있다. 이 경우, 저장 매체는 제조사 또는 어플리케이션 스토어의 서버, 또는 중계 서버의 저장매체가 될 수 있다.For example, a computer program product may be a food product (eg, a downloader) in the form of a S / W program distributed electronically through a refrigerator 1, a server SV1, a server SV2 or a manufacturer of the device, or an application store. A loadable app). For electronic distribution, at least a part of the S / W program may be stored in a storage medium or temporarily generated. In this case, the storage medium may be a server of a manufacturer or an application store or a storage medium of a relay server.
이상에서는 개시된 발명의 일 실시예에 대하여 도시하고 설명하였지만, 개시된 발명은 상술한 특정의 실시예에 한정되지 아니하며 청구범위에서 청구하는 요지를 벗어남 없이 개시된 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의하여 다양한 변형실시가 가능함은 물론이고 이러한 변형실시들은 개시된 발명으로부터 개별적으로 이해될 수 없다.Although one embodiment of the disclosed invention has been illustrated and described above, the disclosed invention is not limited to the specific embodiments described above, and those skilled in the art without departing from the scope of the claims. Various modifications are possible as well as such variations are not individually understood from the disclosed invention.

Claims (25)

  1. 식품을 저장하는 저장실;A storage room for storing food;
    상기 저장실 내부의 온도를 감지하는 온도 감지부;A temperature sensor for sensing a temperature inside the storage compartment;
    상기 저장실로 냉기를 공급하는 냉각부;Cooling unit for supplying cold air to the storage compartment;
    음성을 입력 받는 마이크로폰;A microphone for receiving a voice;
    정보를 표시하는 디스플레이; A display for displaying information;
    상기 온도 감지부, 상기 마이크로폰 및 상기 디스플레이와 전기적으로 연결되는 적어도 하나의 프로세서; 및At least one processor electrically connected to the temperature sensing unit, the microphone, and the display; And
    상기 적어도 하나의 프로세서와 전기적으로 연결되는 메모리를 포함하되,A memory electrically connected to the at least one processor;
    상기 메모리는, 상기 프로세서가, The memory, the processor,
    상기 마이크로폰을 통해 식품명을 포함하는 제1음성이 인식되면, 상기 식품명에 대응하는 식품 정보와, 상기 식품 정보를 식별할 수 있는 식별 표지를 포함하는 식품 리스트를 상기 디스플레이에 표시하고, 상기 마이크로폰을 통해 상기 식별 표지를 지칭하는 제2음성이 인식되면, 상기 식별 표지에 대응하는 식품의 구매 정보를 상기 디스플레이에 표시하도록 설정된 적어도 하나의 인스트럭션들을 저장하는,When the first voice including a food name is recognized through the microphone, a food list including food information corresponding to the food name and an identification mark for identifying the food information is displayed on the display, and through the microphone. When the second voice referring to the identification mark is recognized, storing at least one instruction set to display purchase information of the food corresponding to the identification mark on the display;
    냉장고.Refrigerator.
  2. 제1항에 있어서,The method of claim 1,
    상기 메모리는, 상기 프로세서가,The memory, the processor,
    상기 마이크로폰을 통해 상기 식품명을 포함하는 제1음성이 입력되면, 인공 지능 알고리즘에 따라 학습된 학습 네트워크 모델을 이용하여 상기 제1음성을 인식함으로써 상기 식품명을 획득하고, 상기 식품명에 대응하는 상기 식품 정보를 포함하는 상기 식품 리스트를 상기 디스플레이에 표시하도록 설정된 적어도 하나의 인스트럭션들을 저장하고,When the first voice including the food name is input through the microphone, the food name is obtained by recognizing the first voice using a learning network model trained according to an artificial intelligence algorithm, and the food information corresponding to the food name. Store at least one instruction configured to display the food list on the display;
    상기 학습 네트워크 모델은,The learning network model,
    복수의 음성들 및 상기 복수의 음성들 각각에 대응하는 복수의 단어들을 이용하여 학습된,Learned using a plurality of voices and a plurality of words corresponding to each of the plurality of voices,
    냉장고.Refrigerator.
  3. 제1항에 있어서,The method of claim 1,
    상기 메모리는, 상기 프로세서가,The memory, the processor,
    상기 마이크로폰을 통해 상기 식품명을 포함하는 제1음성이 입력되면, 인공 지능 알고리즘을 따라 학습된 학습 네트워크 모델을 이용하여 상기 제1음성을 인식함으로써 상기 식품명 및 상기 제1음성을 발화한 사용자 정보를 획득하고, 상기 식품명에 대응하되 상기 사용자 정보와 관련된 상기 식품 정보를 포함하는 상기 식품 리스트를 상기 디스플레이에 표시하도록 설정된 적어도 하나의 인스트럭션들을 저장하고,When the first voice including the food name is input through the microphone, the food name and the user information that utter the first voice are obtained by recognizing the first voice using a learning network model trained according to an artificial intelligence algorithm. Store at least one instruction corresponding to the food name and configured to display the food list on the display, the food list including the food information associated with the user information;
    상기 학습 네트워크 모델은,The learning network model,
    복수의 음성들 및 상기 복수의 음성들 각각에 대응하는 사용자 정보들을 이용하여 학습된,Learned using a plurality of voices and user information corresponding to each of the plurality of voices,
    냉장고.Refrigerator.
  4. 제1항에 있어서,The method of claim 1,
    상기 메모리는, 상기 프로세서가,The memory, the processor,
    상기 제1음성이 인식되면, 상기 저장실에 상기 식품명과 관련된 식품이 상기 저장실에 존재하는지 여부를 식별하고, 상기 식품이 상기 저장실에 존재하면, 상기 식품이 상기 저장실에 존재하는 것을 나타내는 정보를 상기 디스플레이에 표시하도록 설정된 적어도 하나의 인스트럭션들을 저장하는,If the first voice is recognized, the storage compartment identifies whether a food associated with the food name exists in the storage compartment, and if the food is present in the storage compartment, displays information indicating that the food exists in the storage compartment. Storing at least one instruction set to display in
    냉장고.Refrigerator.
  5. 제1항에 있어서,The method of claim 1,
    상기 메모리는, 상기 프로세서가,The memory, the processor,
    상기 제1음성이 인식되면, 상기 저장실에 상기 식품명과 관련된 식품이 상기 저장실에 존재하는지 여부를 식별하고, 상기 식품이 상기 저장실에 존재하지 않으면, 상기 식품명에 대응하는 상기 식품 정보를 포함하는 상기 식품 리스트를 상기 디스플레이에 표시하도록 설정된 적어도 하나의 인스트럭션들을 저장하는,If the first voice is recognized, identifying whether a food associated with the food name exists in the storage compartment in the storage compartment, and if the food does not exist in the storage compartment, the food including the food information corresponding to the food name Storing at least one instruction set to display a list on the display,
    냉장고.Refrigerator.
  6. 제1항에 있어서,The method of claim 1,
    상기 메모리는, 상기 프로세서가, The memory, the processor,
    상기 제1음성이 인식되면, 상기 디스플레이에 표시된 어플리케이션의 사용자 인터페이스 상에 상기 식품 리스트를 카드 타입의 사용자 인터페이스 형태로 중첩하여 표시하도록 설정된 적어도 하나의 인스트럭션들을 저장하는,When the first voice is recognized, storing at least one instruction configured to display the food list in the form of a user interface of a card type on the user interface of the application displayed on the display.
    냉장고.Refrigerator.
  7. 제1항에 있어서,The method of claim 1,
    상기 메모리는, 상기 프로세서가,The memory, the processor,
    상기 제2음성이 인식되면, 상기 제2음성에 포함된 표지가 나타내는 식품 정보를 제공하는 어플리케이션을 실행하여 상기 어플리케이션이 제공하는 상기 식품의 구매 정보를 디스플레이에 표시하도록 설정된 적어도 하나의 인스트럭션들을 저장하는,When the second voice is recognized, executing an application for providing food information indicated by a label included in the second voice to store at least one instruction set to display purchase information of the food provided by the application on a display; ,
    냉장고.Refrigerator.
  8. 제1항에 있어서,The method of claim 1,
    통신부;를 더 포함하고,It further comprises a communication unit;
    상기 메모리는, 상기 프로세서가,The memory, the processor,
    상기 제1음성이 인식되면, 상기 제1음성의 데이터를 상기 통신부를 통해 서버로 전송하고, 상기 통신부에서 상기 서버로부터 전송되는 상기 식품 리스트에 대한 정보를 수신하면, 상기 식품 리스트를 상기 디스플레이에 표시하도록 설정된 적어도 하나의 인스트럭션들을 저장하는,When the first voice is recognized, the first voice data is transmitted to the server through the communication unit, and when the communication unit receives information about the food list transmitted from the server, the food list is displayed on the display. Storing at least one instruction set to:
    냉장고.Refrigerator.
  9. 제1항에 있어서,The method of claim 1,
    통신부;를 더 포함하고,It further comprises a communication unit;
    상기 메모리는, 상기 프로세서가,The memory, the processor,
    상기 제2음성이 인식되면, 상기 제2음성의 데이터를 상기 통신부를 통해 서버로 전송하고, 상기 통신부에서 상기 서버로부터 전송되는 상기 식품의 구매 정보를 수신하면, 상기 식품의 구매 정보를 상기 디스플레이에 표시하도록 설정된 적어도 하나의 인스트럭션들을 저장하는,When the second voice is recognized, the second voice data is transmitted to the server through the communication unit, and when the communication unit receives the purchase information of the food transmitted from the server, the purchase information of the food is displayed on the display. Storing at least one instruction set to display,
    냉장고.Refrigerator.
  10. 제1항에 있어서,The method of claim 1,
    통신부;를 더 포함하고,It further comprises a communication unit;
    상기 메모리는, 상기 프로세서가,The memory, the processor,
    상기 제1음성이 인식되면, 상기 제1음성의 데이터를 상기 통신부를 통해 서버로 전송하고, 상기 서버로부터 전송되는 상기 제1음성에 대한 분석 정보를 상기 통신부에서 수신하면, 상기 분석 정보에 따른 작업 수행과 관련된 어플리케이션에 상기 분석 정보에 따른 지시를 전달하여, 상기 어플리케이션이 상기 식품 리스트를 표시하도록 설정된 적어도 하나의 인스트럭션들을 저장하는,When the first voice is recognized, the data of the first voice is transmitted to the server through the communication unit, and when the communication unit receives analysis information on the first voice transmitted from the server, the operation according to the analysis information. Transmitting an instruction according to the analysis information to an application related to the execution, wherein the application stores at least one instruction configured to display the food list;
    냉장고.Refrigerator.
  11. 제1항에 있어서,The method of claim 1,
    통신부;를 더 포함하고,It further comprises a communication unit;
    상기 메모리는, 상기 프로세서가,The memory, the processor,
    상기 제2음성이 인식되면, 상기 제2음성의 데이터를 상기 통신부를 통해 서버로 전송하고, 상기 서버로부터 전송되는 상기 제2음성에 대한 분석 정보를 상기 통신부에서 수신하면, 상기 분석 정보에 따른 작업 수행과 관련된 어플리케이션에 상기 분석 정보에 따른 지시를 전달하여, 상기 어플리케이션이 상기 식품의 구매 정보를 표시하도록 설정된 적어도 하나의 인스트럭션들을 저장하는,When the second voice is recognized, the second voice data is transmitted to the server through the communication unit, and when the communication unit receives analysis information on the second voice transmitted from the server, the operation according to the analysis information. Transmitting an instruction according to the analysis information to an application related to performance, so that the application stores at least one instruction set to display purchase information of the food;
    냉장고.Refrigerator.
  12. 제1항에 있어서,The method of claim 1,
    스피커;를 더 포함하고,It further includes a speaker;
    상기 메모리는, 상기 프로세서가,The memory, the processor,
    상기 제1음성이 인식되어 상기 식품 리스트가 디스플레이에 표시되면, 상기 리스트가 표시되었음을 나타내는 음성을 상기 스피커를 통하여 출력하고, 제2음성이 인식되어 상기 식품의 구매 정보가 상기 디스플레이에 표시되면, 상기 식품의 구매 정보가 표시되었음을 나타내는 음성을 상기 스피커를 통하여 출력하도록 설정된 적어도 하나의 인스트럭션들을 저장하는,When the first voice is recognized and the food list is displayed on the display, a voice indicating that the list is displayed is output through the speaker, and when the second voice is recognized and the purchase information of the food is displayed on the display, Storing at least one instruction set to output a voice through the speaker indicating that purchase information of the food is displayed;
    냉장고.Refrigerator.
  13. 식품을 저장하는 저장실;A storage room for storing food;
    상기 저장실 내부의 온도를 감지하는 온도 감지부;A temperature sensor for sensing a temperature inside the storage compartment;
    상기 저장실로 냉기를 공급하는 냉각부;Cooling unit for supplying cold air to the storage compartment;
    음성을 입력 받는 마이크로폰;A microphone for receiving a voice;
    정보를 표시하는 디스플레이;A display for displaying information;
    상기 온도 감지부, 상기 마이크로폰 및 상기 디스플레이와 전기적으로 연결되는 적어도 하나의 프로세서; 및At least one processor electrically connected to the temperature sensing unit, the microphone, and the display; And
    상기 적어도 하나의 프로세서와 전기적으로 연결되는 메모리를 포함하되,A memory electrically connected to the at least one processor;
    상기 메모리는, 상기 프로세서가,The memory, the processor,
    상기 마이크로폰을 통하여 음성이 입력되면, 상기 디스플레이에 표시된 어플리케이션에 대해 상기 입력된 음성이 나타내는 명령을 수행하고, 상기 어플리케이션에 대해 상기 입력된 음성이 나타내는 명령을 수행할 수 없으면, 상기 명령과 관련된 어플리케이션들에 대한 미리 정해진 우선순위에 따라, 다른 어플리케이션에 대해 상기 명령을 수행하도록 설정된 적어도 하나의 인스트럭션들을 저장하는,If a voice is input through the microphone, the command indicated by the input voice is performed for the application displayed on the display, and if the command indicated by the input voice cannot be performed for the application, applications related to the command. Storing at least one instruction set to execute the command for another application according to a predetermined priority for
    냉장고.Refrigerator.
  14. 제13항에 있어서,The method of claim 13,
    스피커;를 더 포함하고,It further includes a speaker;
    상기 메모리는, 상기 프로세서가,The memory, the processor,
    상기 어플리케이션에 대해 상기 입력된 음성이 나타내는 명령을 수행할 수 없으면, 상기 어플리케이션에 대해 상기 명령을 수행할 수 없음을 나타내는 음성을 상기 스피커를 통해 출력하도록 설정된 적어도 하나의 인스트럭션들을 저장하는,Storing at least one instruction set to output a voice through the speaker indicating that the command cannot be performed for the application if the command indicated by the input voice cannot be performed for the application;
    냉장고.Refrigerator.
  15. 제13항에 있어서,The method of claim 13,
    스피커;를 더 포함하고,It further includes a speaker;
    상기 메모리는, 상기 프로세서가,The memory, the processor,
    상기 우선순위가 없는 경우, 다른 어플리케이션에 대해 상기 명령을 수행할지 여부에 대한 확인을 요청하는 음성을 상기 스피커를 통해 출력하도록 설정된 적어도 하나의 인스트럭션들을 저장하는,If there is no priority, storing at least one instruction set to output a voice through the speaker requesting confirmation as to whether to perform the command for another application,
    냉장고.Refrigerator.
  16. 제15항에 있어서,The method of claim 15,
    상기 메모리는, 상기 프로세서가,The memory, the processor,
    상기 확인 요청에 대한 답변이 입력되면, 입력된 답변이 나타내는 어플리케이션에 대해 상기 음성이 나타내는 명령을 수행하도록 설정된 적어도 하나의 인스트럭션들을 저장하는,When an answer to the confirmation request is input, storing at least one instruction set to perform a command indicated by the voice for an application indicated by the input answer;
    냉장고.Refrigerator.
  17. 제13항에 있어서,The method of claim 13,
    상기 메모리는, 상기 프로세서가,The memory, the processor,
    상기 어플리케이션에 대해 상기 입력된 음성이 나타내는 명령을 수행할 수 없으면, 상기 명령과 관련된 어플리케이션들에 대한 미리 정해진 우선순위에 따라 상기 명령을 수행할 어플리케이션을 결정하고, 상기 결정된 어플리케이션에 대해 상기 명령을 수행하도록 설정된 적어도 하나의 인스트럭션들을 저장하는,If the command indicated by the input voice cannot be performed for the application, the application to execute the command is determined according to a predetermined priority for applications related to the command, and the command is performed for the determined application. Storing at least one instruction set to:
    냉장고.Refrigerator.
  18. 제13항에 있어서,The method of claim 13,
    상기 메모리는, 상기 프로세서가,The memory, the processor,
    상기 마이크로폰을 통해 입력된 음성에 상기 음성이 나타내는 명령을 수행할 대상이 포함되어 있지 않으면, 상기 디스플레이에 표시된 어플리케이션에 대해 상기 입력된 음성이 나타내는 명령을 수행하도록 설정된 적어도 하나의 인스트럭션들을 저장하는,If the voice input through the microphone does not include a target to perform a command indicated by the voice, storing at least one instruction set to perform a command indicated by the input voice for an application displayed on the display;
    냉장고.Refrigerator.
  19. 식품을 저장하는 저장실;A storage room for storing food;
    상기 저장실 내부의 온도를 감지하는 온도 감지부;A temperature sensor for sensing a temperature inside the storage compartment;
    상기 저장실로 냉기를 공급하는 냉각부;Cooling unit for supplying cold air to the storage compartment;
    음성을 입력 받는 마이크로폰;A microphone for receiving a voice;
    정보를 표시하는 디스플레이;A display for displaying information;
    음성을 출력하는 스피커; 및A speaker for outputting voice; And
    상기 온도 감지부, 상기 마이크로폰, 상기 스피커 및 상기 디스플레이와 전기적으로 연결되는 적어도 하나의 프로세서; 및At least one processor electrically connected to the temperature sensing unit, the microphone, the speaker, and the display; And
    상기 적어도 하나의 프로세서와 전기적으로 연결되는 메모리를 포함하되,A memory electrically connected to the at least one processor;
    상기 마이크로폰을 통해 음성이 입력되면, 상기 음성이 나타내는 명령의 수행에 있어서 사용자 식별이 필요한 경우, 상기 디스플레이에 미리 등록된 사용자를 표시하고 상기 표시된 사용자 중에서 선택할 것을 요구하는 음성을 상기 스피커를 통해 출력하도록 설정된 적어도 하나의 인스트럭션들을 저장하는,When a voice is input through the microphone, when user identification is required to perform a command indicated by the voice, the user may display a user registered in advance on the display and output a voice requesting to select from the displayed users through the speaker. Storing at least one set instruction,
    냉장고.Refrigerator.
  20. 제19항에 있어서,The method of claim 19,
    상기 메모리는, 상기 프로세서가,The memory, the processor,
    상기 표시된 사용자 중에서 적어도 하나의 사용자를 선택하는 음성이 입력되면, 상기 선택된 사용자와 관련하여 상기 음성이 나타내는 명령을 수행하고, 그 결과를 상기 디스플레이에 표시하도록 설정된 적어도 하나의 인스트럭션들을 저장하는,When a voice for selecting at least one user from among the displayed users is input, executes a command indicated by the voice with respect to the selected user, and stores at least one instruction set to display a result on the display;
    냉장고.Refrigerator.
  21. 제19항에 있어서,The method of claim 19,
    상기 메모리는, 상기 프로세서가,The memory, the processor,
    상기 음성이 나타내는 명령의 수행에 있어서 사용자 식별이 필요한 경우, 상기 디스플레이에 미리 등록된 사용자와 각 사용자를 식별할 수 있는 표지를 표시하도록 설정된 적어도 하나의 인스트럭션들을 저장하는,If user identification is required in the execution of the command indicated by the voice, storing at least one instruction set to display a pre-registered user and a mark for identifying each user on the display;
    냉장고.Refrigerator.
  22. 제21항에 있어서,The method of claim 21,
    상기 메모리는, 상기 프로세서가,The memory, the processor,
    상기 표지 중 적어도 하나를 선택하는 음성이 입력되면, 상기 표지가 나타내는 사용자와 관련하여 상기 음성이 나타내는 명령을 수행하고 그 결과를 상기 디스플레이에 표시하도록 설정된 적어도 하나의 인스트럭션들을 저장하는,When a voice for selecting at least one of the signs is input, storing at least one instruction configured to perform a command indicated by the voice in relation to the user represented by the sign and display the result on the display;
    냉장고.Refrigerator.
  23. 제19항에 있어서,The method of claim 19,
    상기 메모리는, 상기 프로세서가,The memory, the processor,
    상기 마이크로폰을 통해 음성이 입력되면, 상기 음성에 사용자를 나타내는 표현이 포함되어 있는 경우, 상기 음성에 포함된 사용자와 관련하여 상기 음성이 나타내는 명령을 수행하고 그 결과를 상기 디스플레이에 표시하도록 설정된 적어도 하나의 인스트럭션들을 저장하는,When a voice is input through the microphone, when the voice includes a representation indicating a user, at least one set to perform a command indicated by the voice in relation to a user included in the voice and to display a result on the display To store instructions of
    냉장고.Refrigerator.
  24. 제19항에 있어서,The method of claim 19,
    상기 메모리는, 상기 프로세서가,The memory, the processor,
    상기 마이크로폰을 통해 음성이 입력되면, 미리 저장된 음성 데이터 중 상기 입력된 음성에 매칭되는 음성 데이터가 나타내는 사용자와 관련하여 상기 음성이 나타내는 명령을 수행하고 그 결과를 상기 디스플레이에 표시하도록 설정된 적어도 하나의 인스트럭션들을 저장하는,At least one instruction configured to perform a command indicated by the voice in relation to a user represented by voice data matching the input voice among prestored voice data and to display a result on the display when a voice is input through the microphone To listen to,
    냉장고.Refrigerator.
  25. 냉장고의 정보 표시 방법에 있어서,In the information display method of the refrigerator,
    마이크로폰을 통해 식품명을 포함하는 제1음성을 입력 받는 동작;Receiving a first voice including a food name through a microphone;
    상기 제1음성의 인식에 기초하여, 상기 식품명에 대응하는 식품 정보와, 상기 식품 정보를 식별할 수 있는 식별 표지를 포함하는 식품 리스트를 상기 냉장고의 전면에 위치한 디스플레이에 표시하는 동작;Displaying a food list on a display in front of the refrigerator, the food list including food information corresponding to the food name and an identification mark for identifying the food information, based on the recognition of the first voice;
    상기 마이크로폰을 통해 상기 식별 표지를 지칭하는 제2음성을 입력 받는 동작; 및Receiving a second voice indicating the identification mark through the microphone; And
    상기 제2음성의 인식에 기초하여, 상기 식별 표지에 대응하는 적어도 하나의 식품의 구매 정보를 상기 디스플레이에 표시하는 동작Displaying purchase information of at least one food item corresponding to the identification mark on the display, based on the recognition of the second voice;
    을 포함하는 냉장고의 정보 표시 방법.Information display method of the refrigerator comprising a.
PCT/KR2017/015548 2017-01-03 2017-12-27 Refrigerator and information display method thereof WO2018128317A1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/476,008 US11521606B2 (en) 2017-01-03 2017-12-27 Refrigerator and information display method thereof
CN201780082150.3A CN110168298B (en) 2017-01-03 2017-12-27 Refrigerator and information display method thereof
EP17890733.3A EP3546869A4 (en) 2017-01-03 2017-12-27 Refrigerator and information display method thereof

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20170000880 2017-01-03
KR10-2017-0000880 2017-01-03
KR1020170179174A KR102412202B1 (en) 2017-01-03 2017-12-26 Refrigerator and method of displaying information thereof
KR10-2017-0179174 2017-12-26

Publications (1)

Publication Number Publication Date
WO2018128317A1 true WO2018128317A1 (en) 2018-07-12

Family

ID=62789537

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/015548 WO2018128317A1 (en) 2017-01-03 2017-12-27 Refrigerator and information display method thereof

Country Status (1)

Country Link
WO (1) WO2018128317A1 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110473542A (en) * 2019-09-06 2019-11-19 北京安云世纪科技有限公司 Awakening method, device and the electronic equipment of phonetic order execution function
WO2020181748A1 (en) * 2019-03-13 2020-09-17 青岛海尔电冰箱有限公司 Speech data interaction method and interaction system for use when adding food material into refrigerator
CN112771901A (en) * 2018-09-19 2021-05-07 伊莱克斯电器股份公司 Self-defined food display
IT202000004741A1 (en) * 2020-03-05 2021-09-05 Nanolever S R L EQUIPMENT FOR PROCESSING FOOD PRODUCTS AND CORRESPONDING PROCEDURE
EP3775733A4 (en) * 2018-09-18 2021-09-22 Samsung Electronics Co., Ltd. Refrigerator and method of controlling thereof
CN114442964A (en) * 2020-10-30 2022-05-06 青岛海尔电冰箱有限公司 Food material information printing system
US11353259B2 (en) 2018-09-18 2022-06-07 Samsung Electronics Co., Ltd. Augmented-reality refrigerator and method of controlling thereof
EP3957938A4 (en) * 2019-04-15 2022-06-15 Sony Group Corporation Information processing device, information processing method, and food storage device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080105933A (en) * 2007-06-01 2008-12-04 엘지전자 주식회사 Information input method for refrigerator
KR100885584B1 (en) * 2007-08-23 2009-02-24 엘지전자 주식회사 Refrigerator and controlling method of the same
KR20120118376A (en) * 2011-04-18 2012-10-26 엘지전자 주식회사 Controlling method of a refrigerator
US20140169640A1 (en) * 2012-09-28 2014-06-19 Lg Electronics Inc. Electric product
KR20140139736A (en) * 2013-05-28 2014-12-08 삼성전자주식회사 Refrigerator and method for controlling the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080105933A (en) * 2007-06-01 2008-12-04 엘지전자 주식회사 Information input method for refrigerator
KR100885584B1 (en) * 2007-08-23 2009-02-24 엘지전자 주식회사 Refrigerator and controlling method of the same
KR20120118376A (en) * 2011-04-18 2012-10-26 엘지전자 주식회사 Controlling method of a refrigerator
US20140169640A1 (en) * 2012-09-28 2014-06-19 Lg Electronics Inc. Electric product
KR20140139736A (en) * 2013-05-28 2014-12-08 삼성전자주식회사 Refrigerator and method for controlling the same

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3546869A4 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3775733A4 (en) * 2018-09-18 2021-09-22 Samsung Electronics Co., Ltd. Refrigerator and method of controlling thereof
US11353259B2 (en) 2018-09-18 2022-06-07 Samsung Electronics Co., Ltd. Augmented-reality refrigerator and method of controlling thereof
US11732961B2 (en) 2018-09-18 2023-08-22 Samsung Electronics Co., Ltd. Augmented-reality refrigerator and method of controlling thereof
CN112771901A (en) * 2018-09-19 2021-05-07 伊莱克斯电器股份公司 Self-defined food display
WO2020181748A1 (en) * 2019-03-13 2020-09-17 青岛海尔电冰箱有限公司 Speech data interaction method and interaction system for use when adding food material into refrigerator
EP3957938A4 (en) * 2019-04-15 2022-06-15 Sony Group Corporation Information processing device, information processing method, and food storage device
CN110473542A (en) * 2019-09-06 2019-11-19 北京安云世纪科技有限公司 Awakening method, device and the electronic equipment of phonetic order execution function
CN110473542B (en) * 2019-09-06 2022-04-15 北京安云世纪科技有限公司 Awakening method and device for voice instruction execution function and electronic equipment
IT202000004741A1 (en) * 2020-03-05 2021-09-05 Nanolever S R L EQUIPMENT FOR PROCESSING FOOD PRODUCTS AND CORRESPONDING PROCEDURE
CN114442964A (en) * 2020-10-30 2022-05-06 青岛海尔电冰箱有限公司 Food material information printing system

Similar Documents

Publication Publication Date Title
WO2018128317A1 (en) Refrigerator and information display method thereof
WO2020060090A1 (en) Method and system for providing information related to state of object in refrigerator
WO2021010509A1 (en) Artificial intelligence cooking apparatus
WO2019156499A1 (en) Electronic device and method of performing function of electronic device
WO2018088794A2 (en) Method for correcting image by device and device therefor
WO2020204221A1 (en) Air conditioner
WO2018084576A1 (en) Electronic device and controlling method thereof
WO2019225961A1 (en) Electronic device for outputting response to speech input by using application and operation method thereof
WO2019027240A1 (en) Electronic device and method for providing search result thereof
WO2018199483A1 (en) Method and apparatus for managing intelligent agent
WO2019107945A1 (en) Method of providing service based on location of sound source and speech recognition device therefor
WO2020091210A1 (en) System and method of integrating databases based on knowledge graph
WO2020060380A1 (en) Refrigerator and method of controlling thereof
WO2016108660A1 (en) Method and device for controlling home device
WO2021125453A1 (en) Artificial intelligence refrigerator
WO2021137345A1 (en) Artificial intelligence refrigerator and operating method therefor
WO2018182270A1 (en) Electronic device and screen control method for processing user input by using same
WO2021006404A1 (en) Artificial intelligence server
WO2020230933A1 (en) Artificial intelligence device for recognizing voice of user and method for same
WO2020213758A1 (en) Speech-interactive artificial intelligence device and method therefor
WO2020184748A1 (en) Artificial intelligence device and method for controlling auto-stop system on basis of traffic information
WO2020085794A1 (en) Electronic device and method for controlling the same
WO2019198865A1 (en) Refrigerator and method for displaying user interface on refrigerator, user terminal, and method for performing function in user terminal
EP3523709A1 (en) Electronic device and controlling method thereof
WO2021029457A1 (en) Artificial intelligence server and method for providing information to user

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17890733

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017890733

Country of ref document: EP

Effective date: 20190626