KR102377971B1 - Artificial intelligence refrigerator including display apparatus - Google Patents

Artificial intelligence refrigerator including display apparatus Download PDF

Info

Publication number
KR102377971B1
KR102377971B1 KR1020180141529A KR20180141529A KR102377971B1 KR 102377971 B1 KR102377971 B1 KR 102377971B1 KR 1020180141529 A KR1020180141529 A KR 1020180141529A KR 20180141529 A KR20180141529 A KR 20180141529A KR 102377971 B1 KR102377971 B1 KR 102377971B1
Authority
KR
South Korea
Prior art keywords
food
voice
refrigerator
coordinates
image
Prior art date
Application number
KR1020180141529A
Other languages
Korean (ko)
Other versions
KR20200064181A (en
Inventor
이중근
김민수
최유현
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020180141529A priority Critical patent/KR102377971B1/en
Publication of KR20200064181A publication Critical patent/KR20200064181A/en
Application granted granted Critical
Publication of KR102377971B1 publication Critical patent/KR102377971B1/en

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F25REFRIGERATION OR COOLING; COMBINED HEATING AND REFRIGERATION SYSTEMS; HEAT PUMP SYSTEMS; MANUFACTURE OR STORAGE OF ICE; LIQUEFACTION SOLIDIFICATION OF GASES
    • F25DREFRIGERATORS; COLD ROOMS; ICE-BOXES; COOLING OR FREEZING APPARATUS NOT OTHERWISE PROVIDED FOR
    • F25D29/00Arrangement or mounting of control or safety devices
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F25REFRIGERATION OR COOLING; COMBINED HEATING AND REFRIGERATION SYSTEMS; HEAT PUMP SYSTEMS; MANUFACTURE OR STORAGE OF ICE; LIQUEFACTION SOLIDIFICATION OF GASES
    • F25DREFRIGERATORS; COLD ROOMS; ICE-BOXES; COOLING OR FREEZING APPARATUS NOT OTHERWISE PROVIDED FOR
    • F25D23/00General constructional features
    • F25D23/02Doors; Covers
    • F25D23/028Details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0633Lists, e.g. purchase orders, compilation or processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F25REFRIGERATION OR COOLING; COMBINED HEATING AND REFRIGERATION SYSTEMS; HEAT PUMP SYSTEMS; MANUFACTURE OR STORAGE OF ICE; LIQUEFACTION SOLIDIFICATION OF GASES
    • F25DREFRIGERATORS; COLD ROOMS; ICE-BOXES; COOLING OR FREEZING APPARATUS NOT OTHERWISE PROVIDED FOR
    • F25D2400/00General features of, or devices for refrigerators, cold rooms, ice-boxes, or for cooling or freezing apparatus not covered by any other subclass
    • F25D2400/36Visual displays
    • F25D2400/361Interactive visual displays
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F25REFRIGERATION OR COOLING; COMBINED HEATING AND REFRIGERATION SYSTEMS; HEAT PUMP SYSTEMS; MANUFACTURE OR STORAGE OF ICE; LIQUEFACTION SOLIDIFICATION OF GASES
    • F25DREFRIGERATORS; COLD ROOMS; ICE-BOXES; COOLING OR FREEZING APPARATUS NOT OTHERWISE PROVIDED FOR
    • F25D2500/00Problems to be solved
    • F25D2500/06Stock management

Abstract

본 발명의 실시 예에 따른 인공지능 기반의 냉장고는, 도어에 설치되고, 터치 패널과 디스플레이를 포함하는 디스플레이 장치, 내부에 보관된 식품들을 포함하는 이미지를 획득하는 카메라, 획득된 이미지를 표시하도록 상기 디스플레이를 제어하는 디스플레이 컨트롤러, 음성을 획득하는 마이크로폰, 획득된 음성을 인식하여 인식 결과를 출력하는 음성 인식 모듈, 및 상기 터치 패널을 통해 수신되는 터치 입력의 좌표를 획득하고, 획득된 좌표와 상기 음성의 인식 결과에 기초하여, 상기 좌표에 대응하는 식품을 인식하고, 인식된 식품에 대한 기능을 수행하는 프로세서를 포함한다.An artificial intelligence-based refrigerator according to an embodiment of the present invention is installed on a door and includes a display device including a touch panel and a display, a camera for acquiring an image including food stored therein, and displaying the acquired image. A display controller for controlling a display, a microphone for acquiring a voice, a voice recognition module for recognizing the acquired voice and outputting a recognition result, and acquiring coordinates of a touch input received through the touch panel, and obtaining the coordinates and the voice and a processor for recognizing the food corresponding to the coordinates based on the recognition result of the and performing a function on the recognized food.

Description

디스플레이 장치를 갖는 인공지능 냉장고{ARTIFICIAL INTELLIGENCE REFRIGERATOR INCLUDING DISPLAY APPARATUS}Artificial intelligence refrigerator with display device

본 발명은 냉장고에 관한 것으로서, 특히 도어에 디스플레이 장치가 구비된 인공지능 냉장고에 관한 것이다.The present invention relates to a refrigerator, and more particularly, to an artificial intelligence refrigerator in which a display device is provided on a door.

냉장고는 냉동 또는 냉장 사이클을 반복하면서 냉동실 또는 냉장실을 특정 온도로 냉각시켜 식품을 일정기간 동안 신선하게 보관할 수 있는 장치이다. 일반적으로 냉장고에는 저장 공간을 형성하는 본체 및 저장 공간을 개방 또는 폐쇄하는 도어가 포함된다. 저장 공간에는 음식과 같은 저장물이 저장되며 사용자는 저장물을 보관하거나 보관된 저장물을 인출하기 위해 도어를 개방할 수 있다.A refrigerator is a device that can keep food fresh for a certain period of time by cooling a freezer or refrigerating chamber to a specific temperature while repeating a freezing or refrigerating cycle. In general, a refrigerator includes a body forming a storage space and a door for opening or closing the storage space. Stored items such as food are stored in the storage space, and the user can open the door to store the stored items or retrieve the stored items.

최근 냉장고의 폭 넓은 보급 및 기술의 발전에 따라, 냉장고의 부가적인 기능에 대한 다양한 요구사항이 증가하고 있다. 최근에는 디스플레이 장치와 카메라를 갖는 냉장고, 또는 유리와 같은 투명한 소재로 제작되는 도어를 갖는 냉장고가 개발되고 있다. 이러한 냉장고는 카메라를 이용하여 저장물들의 이미지를 획득하고, 획득된 이미지를 디스플레이 장치를 통해 출력하거나, 투명한 도어를 통해 냉장고의 내부를 외부에서 확인하도록 할 수 있다. 이에 따라, 사용자는 냉장고의 도어를 열지 않고도 내부의 저장물을 편리하게 확인할 수 있다. 또한, 이러한 냉장고를 활용하여, 냉장고 내의 식품의 등록, 관리, 구매 등 추가적인 기능을 제공하려는 시도가 증가하고 있다. Recently, with the wide spread of refrigerators and the development of technologies, various requirements for additional functions of refrigerators are increasing. Recently, a refrigerator having a display device and a camera, or a refrigerator having a door made of a transparent material such as glass, has been developed. Such a refrigerator may acquire images of stored objects using a camera, output the acquired images through a display device, or check the inside of the refrigerator from the outside through a transparent door. Accordingly, the user can conveniently check the stored items inside the refrigerator without opening the door of the refrigerator. In addition, there are increasing attempts to provide additional functions such as registration, management, and purchase of food in the refrigerator by using such a refrigerator.

한편, 최근에는 인공지능(artificial intelligence) 기술에 대한 관심이 증가하고 있다. 상기 인공지능 기술의 여러 분야 중 인간의 학습 능력을 컴퓨터 상에서 실현하기 위한 기술로서 머신 러닝이 존재한다.Meanwhile, interest in artificial intelligence (AI) technology is increasing recently. Among various fields of the artificial intelligence technology, machine learning exists as a technology for realizing human learning ability on a computer.

종래의 머신 러닝은 통계학 기반의 분류, 회귀, 군집 모델이 중심이었다. 특히, 분류, 회귀 모델의 지도 학습에서는 학습 데이터의 특성과 이러한 특성을 기반으로 새로운 데이터를 구별하는 학습 모델이 사전에 정의되었다. 이와 달리, 최근 빅데이터 개념의 등장과 함께 관심도가 증가하는 딥러닝은, 방대한 양의 데이터를 이용하여 컴퓨터가 스스로 특성을 찾아내고 판별하는 것이다.Conventional machine learning has focused on statistical classification, regression, and cluster models. In particular, in supervised learning of classification and regression models, the characteristics of the training data and a learning model that distinguishes new data based on these characteristics were defined in advance. On the other hand, in deep learning, which has recently increased in interest with the advent of the concept of big data, a computer uses a large amount of data to find and determine characteristics by itself.

최근 이러한 딥러닝과 관련되어 오픈소스로 제공되는 딥러닝 프레임워크들이 등장하였고, 이에 따라 효과적인 학습 및 인식을 위해, 딥러닝 알고리즘 외에 학습 과정, 학습 방법, 학습에 사용되는 데이터의 추출 및 선정과 관련된 기술이 더욱 중요해지고 있다. 또한, 머신 러닝을 다양한 제품이나 서비스에 이용하기 위한 연구가 증가하고 있다.Recently, deep learning frameworks provided as open sources have emerged in relation to such deep learning, and accordingly, for effective learning and recognition, in addition to deep learning algorithms, learning processes, learning methods, and extraction and selection of data used for learning are related. Technology is becoming more and more important. In addition, research to use machine learning for various products or services is increasing.

1. 공개특허공보 제10-2015-0026412호 (2015.03.11. 공개)1. Publication No. 10-2015-0026412 (published on March 11, 2015)

본 발명이 해결하고자 하는 과제는, 내부에 보관된 식품을 정확히 인식할 수 있는 인공지능 냉장고를 제공하는 것이다.An object of the present invention is to provide an artificial intelligence refrigerator capable of accurately recognizing food stored therein.

본 발명이 해결하고자 하는 다른 과제는, 냉장고 내부에 보관된 식품에 대한 기능의 사용 편의성을 향상시킬 수 있는 인공지능 냉장고를 제공하는 것이다.Another object of the present invention is to provide an artificial intelligence refrigerator capable of improving the convenience of use of functions for food stored in the refrigerator.

본 발명의 실시 예에 따른 인공지능 기반의 냉장고는, 도어에 설치되고, 터치 패널과 디스플레이를 포함하는 디스플레이 장치, 내부에 보관된 식품들을 포함하는 이미지를 획득하는 카메라, 획득된 이미지를 표시하도록 상기 디스플레이를 제어하는 디스플레이 컨트롤러, 음성을 획득하는 마이크로폰, 획득된 음성을 인식하여 인식 결과를 출력하는 음성 인식 모듈, 및 상기 터치 패널을 통해 수신되는 터치 입력의 좌표를 획득하고, 획득된 좌표와 상기 음성의 인식 결과에 기초하여, 상기 좌표에 대응하는 식품을 인식하고, 인식된 식품에 대한 기능을 수행하는 프로세서를 포함한다.An artificial intelligence-based refrigerator according to an embodiment of the present invention is installed on a door and includes a display device including a touch panel and a display, a camera for acquiring an image including food stored therein, and displaying the acquired image. A display controller for controlling a display, a microphone for acquiring a voice, a voice recognition module for recognizing the acquired voice and outputting a recognition result, and acquiring coordinates of a touch input received through the touch panel, and obtaining the coordinates and the voice and a processor for recognizing the food corresponding to the coordinates based on the recognition result of the and performing a function on the recognized food.

상기 음성 인식 모듈은, 상기 음성의 주파수 특성에 기초하여 상기 음성에 포함된 적어도 하나의 부분 음성 각각을 인식하는 인식 모델을 갖는 음성 인식기를 포함하고, 상기 적어도 하나의 부분 음성 각각은, 상기 이미지에 포함된 식품의 식별 정보, 또는 상기 식품에 대한 상기 기능과 관련된 명령일 수 있다.The voice recognition module includes a voice recognizer having a recognition model for recognizing each of at least one partial voice included in the voice based on a frequency characteristic of the voice, wherein each of the at least one partial voice is included in the image. It may be identification information of the included food, or a command related to the function for the food.

상기 음성 인식기는, 상기 적어도 하나의 부분 음성 각각의 주파수 특성과, 상기 적어도 하나의 부분 음성 각각의 인식 결과를 이용하여 상기 인식 모델을 업데이트할 수 있다.The speech recognizer may update the recognition model using a frequency characteristic of each of the at least one partial speech and a recognition result of each of the at least one partial speech.

실시 예에 따라, 상기 인식 결과에 상기 식품의 등록과 관련된 명령이 포함된 경우, 상기 프로세서는 상기 획득된 좌표와 상기 식품의 식별 정보를 포함하는 식품 관리 정보를 생성하고, 생성된 식품 관리 정보를 메모리에 저장할 수 있다.According to an embodiment, when the recognition result includes a command related to the registration of the food, the processor generates food management information including the obtained coordinates and identification information of the food, and generates the food management information can be stored in memory.

실시 예에 따라, 상기 디스플레이 컨트롤러는 상기 식품 관리 정보 중 적어도 일부를 포함하는 태그를 상기 좌표에 대응하는 위치에 표시하도록 상기 디스플레이를 제어할 수 있다.According to an embodiment, the display controller may control the display to display a tag including at least a portion of the food management information at a position corresponding to the coordinates.

실시 예에 따라, 상기 인식 결과에 상기 식품의 구매와 관련된 명령이 포함된 경우, 상기 프로세서는 메모리로부터 상기 좌표에 대응하는 식품 관리 정보를 획득하고, 상기 명령에 기초하여, 상기 인식 결과로부터 획득되는 주문 식품, 주문 수량, 및 주문 타이머 중 적어도 하나를 포함하도록 상기 식품 관리 정보를 업데이트할 수 있다.According to an embodiment, when the recognition result includes a command related to the purchase of the food, the processor obtains food management information corresponding to the coordinates from a memory, and based on the command, is obtained from the recognition result The food management information may be updated to include at least one of an order food, an order quantity, and an order timer.

상기 프로세서는, 상기 식품의 구매와 관련된 명령에 기초하여, 통신부를 통해 상기 식품의 판매 서비스 제공 서버로 접속하고, 상기 식품의 구매 정보를 상기 판매 서비스 제공 서버로 전송할 수 있다.The processor may access the food sales service providing server through a communication unit based on a command related to the purchase of the food, and transmit the purchase information of the food to the sales service providing server.

실시 예에 따라, 상기 프로세서는 메모리로부터 상기 획득된 좌표 정보에 대응하는 식품 관리 정보를 획득하고, 획득된 식품 관리 정보에 포함된 식별 정보와, 상기 인식 결과에 포함된 식별 정보를 비교하고, 비교 결과 상기 획득된 식품 관리 정보에 포함된 식별 정보와 상기 인식 결과에 포함된 식별 정보가 일치하는 경우, 상기 인식된 식품에 대한 기능을 수행할 수 있다.According to an embodiment, the processor obtains food management information corresponding to the obtained coordinate information from a memory, compares the identification information included in the obtained food management information with the identification information included in the recognition result, and compares Result When the identification information included in the obtained food management information matches the identification information included in the recognition result, the function for the recognized food may be performed.

상기 냉장고는 상기 획득된 좌표에 기초하여, 상기 획득된 이미지로부터 상기 좌표를 포함하는 식품 이미지를 추출하는 이미지 처리 프로세서를 더 포함할 수 있다.The refrigerator may further include an image processing processor configured to extract a food image including the coordinates from the acquired image based on the acquired coordinates.

실시 예에 따라, 상기 디스플레이는 투명 디스플레이로 구현되고, 상기 프로세서는, 상기 투명 디스플레이를 통해 외부로 투시되는 식품들 중 어느 하나의 식품이 투시된 위치에 대응하는 터치 입력을 상기 터치 패널을 통해 수신하고, 수신된 터치 입력의 좌표를, 상기 획득된 이미지 상의 대응하는 좌표로 변환할 수 있다.According to an embodiment, the display is implemented as a transparent display, and the processor receives, through the touch panel, a touch input corresponding to a position through which any one of the foods is transmitted through the transparent display. and transform the coordinates of the received touch input into corresponding coordinates on the acquired image.

상기 프로세서는, 상기 변환된 좌표와 상기 음성의 인식 결과에 기초하여, 상기 이미지 내의 상기 변환된 좌표에 대응하는 식품을 인식하고, 인식된 식품에 대한 기능을 수행할 수 있다.The processor, based on the converted coordinates and the recognition result of the voice, may recognize the food corresponding to the converted coordinates in the image, and perform a function on the recognized food.

본 발명의 실시 예에 따르면, 냉장고는 인공지능 기반의 음성 인식 모듈을 통해 사용자의 음성으로부터 식품의 식별정보나 명령을 정확히 인식할 수 있다. 또한, 냉장고는 터치 입력의 좌표와 식품의 식별정보에 기초하여, 카메라에 의해 획득된 이미지에 포함된 식품이나 투명 디스플레이를 통해 투시되는 식품을 보다 정확히 인식할 수 있다.According to an embodiment of the present invention, the refrigerator may accurately recognize food identification information or commands from the user's voice through an artificial intelligence-based voice recognition module. Also, the refrigerator may more accurately recognize food included in an image acquired by the camera or food seen through a transparent display, based on the coordinates of the touch input and identification information of the food.

또한, 사용자는 식품의 등록이나 구매 등의 각종 기능을 실행하기 위한 절차를 한 번의 터치 입력과 음성 입력으로 간소화할 수 있으므로, 사용자의 편의성이 증대되고, 냉장고가 제공하는 기능들의 활용도가 높아질 수 있다.In addition, since the user can simplify the procedure for executing various functions, such as registration or purchase of food, with a single touch input and voice input, the user's convenience can be increased and the utility of functions provided by the refrigerator can be increased. .

도 1은 본 발명의 일 실시 예에 따른 디스플레이 장치를 갖는 냉장고의 정면도이다.
도 2는 본 발명의 일 실시 예에 따른 냉장고의 제어 구성과 관련된 블록도이다.
도 3과 도 4는 본 발명의 실시 예에 따른 웨어러블 기기의 음성 인식 모듈에 적용되는 인공지능의 일례로서 딥러닝(deep learning)을 설명하기 위한 도면들이다.
도 5는 음성 인식 모듈의 인식 동작 및 학습 동작을 설명하기 위한 도면이다.
도 6은 본 발명의 실시 예에 따른 냉장고의 동작을 설명하기 위한 플로우차트이다.
도 7은 도 6에 도시된 냉장고의 동작과 관련하여, 냉장고가 특정 식품을 식품 관리 데이터베이스에 등록하는 동작을 설명하기 위한 예시도이다.
도 8은 도 7의 실시 예와 관련하여, 냉장고의 이미지 처리 프로세서가 식품의 이미지를 추출하는 동작을 설명하기 위한 플로우차트이다.
도 9는 도 6에 도시된 냉장고의 동작과 관련하여, 냉장고가 특정 식품의 구매 기능을 제공하는 동작을 설명하기 위한 예시도이다.
도 10은 디스플레이 장치가 냉장고 내부의 식품이 외부로 투시되도록 투명 디스플레이로 구현되는 경우, 냉장고가 사용자의 터치 입력에 기반하여 식품을 인식하는 실시 예를 설명하기 위한 플로우차트이다.
1 is a front view of a refrigerator having a display device according to an embodiment of the present invention.
2 is a block diagram related to a control configuration of a refrigerator according to an embodiment of the present invention.
3 and 4 are diagrams for explaining deep learning as an example of artificial intelligence applied to a voice recognition module of a wearable device according to an embodiment of the present invention.
5 is a diagram for explaining a recognition operation and a learning operation of the voice recognition module.
6 is a flowchart illustrating an operation of a refrigerator according to an embodiment of the present invention.
7 is an exemplary diagram for explaining an operation of the refrigerator registering a specific food in a food management database in relation to the operation of the refrigerator shown in FIG. 6 .
FIG. 8 is a flowchart illustrating an operation in which an image processing processor of a refrigerator extracts an image of food in relation to the embodiment of FIG. 7 .
9 is an exemplary diagram for explaining an operation of the refrigerator providing a purchase function of a specific food in relation to the operation of the refrigerator shown in FIG. 6 .
10 is a flowchart for explaining an embodiment in which the refrigerator recognizes food based on a user's touch input when the display device is implemented as a transparent display so that food inside the refrigerator is transparent to the outside.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명한다. 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings. The accompanying drawings are only for easy understanding of the embodiments disclosed in the present specification, and the technical spirit disclosed in the present specification is not limited by the accompanying drawings, and all changes and equivalents included in the spirit and scope of the present invention It should be understood to include water or substitutes.

도 1은 본 발명의 일 실시 예에 따른 디스플레이 장치를 갖는 냉장고의 정면도이다.1 is a front view of a refrigerator having a display device according to an embodiment of the present invention.

본 발명에 따른 디스플레이 장치(100)는 냉장고(10)의 도어(11)의 전면에 설치되며, 투명하게 형성된다. 도 1에서는 복수의 도어 중 어느 하나의 도어에만 디스플레이 장치(100)가 형성된 것으로 도시되어 있으나, 실시 예에 따라 디스플레이 장치(100)는 복수의 도어들 중 둘 이상의 도어 각각에 형성될 수도 있다.The display device 100 according to the present invention is installed on the front side of the door 11 of the refrigerator 10 and is formed to be transparent. 1 shows that the display apparatus 100 is formed in only one door among the plurality of doors, but according to an embodiment, the display apparatus 100 may be formed in each of two or more doors among the plurality of doors.

상기와 같이 디스플레이 장치(100)가 투명하게 형성되면, 냉장고(10) 외부에서, 디스플레이 장치(100)를 통해서, 냉장고(10) 내부에 보관된 식품 등의 컨텐츠(20)를 확인할 수 있다. When the display device 100 is transparently formed as described above, the contents 20 such as food stored in the refrigerator 10 can be checked from the outside of the refrigerator 10 and through the display device 100 .

또한, 상기와 같이 냉장고 도어에 투명 디스플레이가 적용되면, 외부에서, 냉장고(10)에 보관된 식품 등의 컨텐츠(20)에 대한 정보를 확인할 수 있다. 상세히, 사용자가 냉장고(10)에 보관된 식품 등의 컨텐츠(20)를 바라볼 때, 해당 컨텐츠(20)에 대한 정보가 컨텐츠(20)와 중첩되게 표시될 수 있다. 물론, 해당 컨텐츠(20)에 대한 정보는 사용자에 의해 미리 입력 후, 저장된 상태이다. 따라서, 사용자는 컨텐츠(20)의 종류, 용도, 유통기한 등의 정보를 실시간으로 제공받을 수 있다.In addition, when the transparent display is applied to the refrigerator door as described above, information on the contents 20 such as food stored in the refrigerator 10 can be checked from the outside. In detail, when the user looks at the contents 20 , such as food stored in the refrigerator 10 , information on the corresponding contents 20 may be displayed to overlap the contents 20 . Of course, information on the corresponding content 20 is stored after being input in advance by the user. Accordingly, the user may be provided with information such as the type, use, and expiration date of the content 20 in real time.

한편, 냉장고(10)의 내부에는 카메라(110)가 배치될 수 있다. 예컨대, 카메라(110)는 도어(11)의 양면 중 냉장고(10)의 내부를 바라보는 면에 배치되어, 냉장고(10)의 내부에 대한 이미지를 획득할 수 있다. 다만, 실시 예에 따라서는 카메라(110)는 냉장고(10) 내의 다양한 위치에 적어도 하나가 배치될 수도 있다.Meanwhile, the camera 110 may be disposed inside the refrigerator 10 . For example, the camera 110 may be disposed on the side facing the inside of the refrigerator 10 among both surfaces of the door 11 to acquire an image of the inside of the refrigerator 10 . However, according to an embodiment, at least one camera 110 may be disposed at various positions in the refrigerator 10 .

냉장고(10)는 획득된 이미지를 저장하거나, 디스플레이 장치(100)를 통해 표시할 수 있다.The refrigerator 10 may store the acquired image or display it through the display apparatus 100 .

도 2는 본 발명의 일 실시 예에 따른 냉장고의 제어 구성과 관련된 블록도이다.2 is a block diagram related to a control configuration of a refrigerator according to an embodiment of the present invention.

도 2를 참조하면, 냉장고(10)는 도 1에 도시된 디스플레이 장치(100)와 카메라(110)를 포함할 수 있다. 또한, 냉장고(10)는, 마이크로폰(120), 스피커(130), 메모리(140), 통신부(150), 및 제어부(160)를 포함할 수 있다. 도 2에 도시된 구성요소들은 냉장고(10)를 구현하는 데 있어서 필수적인 것은 아닌 바, 냉장고(10)는 도 2에 도시된 구성 요소들보다 많거나 적은 구성 요소들을 포함할 수도 있다.Referring to FIG. 2 , the refrigerator 10 may include the display device 100 and the camera 110 shown in FIG. 1 . In addition, the refrigerator 10 may include a microphone 120 , a speaker 130 , a memory 140 , a communication unit 150 , and a control unit 160 . The components shown in FIG. 2 are not essential in implementing the refrigerator 10 , and the refrigerator 10 may include more or fewer components than the components shown in FIG. 2 .

디스플레이 장치(100)는 사용자로부터 터치 입력을 수신하는 터치 패널(101)과, 그래픽이나 텍스트 등을 표시하는 디스플레이(102)를 포함할 수 있다. 터치 패널(101)과 디스플레이(102)는 일체형으로 형성될 수도 있고, 적층된 별도의 구성으로 형성될 수도 있다.The display apparatus 100 may include a touch panel 101 that receives a touch input from a user, and a display 102 that displays graphics or text. The touch panel 101 and the display 102 may be integrally formed, or may be formed as separate stacked components.

제어부(160)에 포함된 프로세서(161)는, 터치 패널(101)을 통해 수신되는 터치 입력에 기초하여, 터치 입력의 종류(예컨대, 숏-터치, 롱-터치, 드래그 앤 드랍 등)를 감지하고, 터치 입력의 좌표 정보를 획득할 수 있다.The processor 161 included in the controller 160 detects a type of a touch input (eg, short-touch, long-touch, drag and drop, etc.) based on a touch input received through the touch panel 101 . And, it is possible to obtain coordinate information of the touch input.

제어부(160)에 포함된 디스플레이 컨트롤러(162)는, 프로세서(161)로부터 제공되는 신호나 데이터에 기초하여 디스플레이(102)의 동작을 제어할 수 있다. 디스플레이(102)는 디스플레이 컨트롤러(162)의 제어에 따라 그래픽 또는 텍스트 등을 출력할 수 있다.The display controller 162 included in the controller 160 may control the operation of the display 102 based on a signal or data provided from the processor 161 . The display 102 may output graphics or text under the control of the display controller 162 .

카메라(110)는 도 1에서 상술한 바와 같이 냉장고(10)의 내부에 배치될 수 있다. 제어부(160)에 포함된 카메라 컨트롤러(163)는 도어(11)가 사용자에 의해 오픈되면, 도어(11)가 클로즈되는 시점까지 적어도 하나의 이미지를 획득하도록 카메라(110)를 제어할 수 있다. 카메라(110)에 의해 획득되는 적어도 하나의 이미지는 메모리(140)의 이미지 DB(144)에 저장될 수 있다. 실시 예에 따라, 카메라(110)에 의해 획득되는 적어도 하나의 이미지는 통신부(150)를 통해 서버(미도시)나 단말기 등으로 전송될 수도 있다.The camera 110 may be disposed inside the refrigerator 10 as described above with reference to FIG. 1 . When the door 11 is opened by the user, the camera controller 163 included in the controller 160 may control the camera 110 to acquire at least one image until the door 11 is closed. At least one image acquired by the camera 110 may be stored in the image DB 144 of the memory 140 . According to an embodiment, at least one image acquired by the camera 110 may be transmitted to a server (not shown) or a terminal through the communication unit 150 .

실시 예에 따라, 카메라 컨트롤러(163)는 도어(11)의 열림각이 기설정된 열림각에 도달한 경우 이미지를 획득하도록 카메라(110)를 제어할 수도 있다. 상기 기설정된 열림각은 카메라(110)가 냉장고(10) 내부의 영역들을 최대로 포함하는 이미지를 획득 가능한 각도일 수 있다.According to an embodiment, the camera controller 163 may control the camera 110 to acquire an image when the opening angle of the door 11 reaches a preset opening angle. The preset opening angle may be an angle at which the camera 110 can obtain an image including the regions inside the refrigerator 10 maximally.

실시 예에 따라, 카메라 컨트롤러(163)는 터치 패널(101)이나 마이크로폰(120) 등의 입력부를 통해 수신되는 특정 제어 명령에 기초하여, 냉장고(10) 내부의 이미지를 획득하도록 카메라(110)를 제어할 수도 있다.According to an embodiment, the camera controller 163 controls the camera 110 to acquire an image inside the refrigerator 10 based on a specific control command received through an input unit such as the touch panel 101 or the microphone 120 . You can also control it.

한편, 제어부(160)의 이미지 처리 프로세서(164)는, 각종 이미지 처리 기법을 통해 카메라(110)에 의해 획득된 이미지로부터 식품 이미지를 추출할 수 있다. 또는, 이미지 처리 프로세서(164)는 도어(11)의 열림 전 후 획득된 이미지들로부터, 식품이 냉장고(10) 내로 입고 또는 출고됨에 따른 이미지 변화를 감지할 수 있다. 프로세서(161) 또는 이미지 처리 프로세서(164)는 감지된 이미지 변화에 기초하여 상기 입고 또는 출고된 식품을 감지할 수도 있다.Meanwhile, the image processing processor 164 of the controller 160 may extract a food image from an image acquired by the camera 110 through various image processing techniques. Alternatively, the image processing processor 164 may detect an image change as food is put into or out of the refrigerator 10 from images acquired before and after the door 11 is opened. The processor 161 or the image processing processor 164 may detect the stored or shipped food based on the detected image change.

마이크로폰(120)은 사용자로부터 음성을 획득하고, 획득된 음성을 프로세서(161)로 제공할 수 있다. 예컨대, 상기 음성은 사용자가 특정 식품과 관련하여 제공받고자 하는 기능과 관련된 것일 수 있다. The microphone 120 may obtain a voice from the user and provide the acquired voice to the processor 161 . For example, the voice may be related to a function that the user wants to receive in relation to a specific food.

상기 음성은 적어도 하나의 부분 음성을 포함할 수 있다. 상기 부분 음성은, 상기 특정 식품의 식별 정보(예컨대, 식품명), 또는 상기 기능과 관련된 명령일 수 있다. 즉, 상기 음성에는 상기 특정 식품의 식별 정보와 명령 중 적어도 하나가 포함될 수 있다.The voice may include at least one partial voice. The partial voice may be identification information (eg, food name) of the specific food or a command related to the function. That is, the voice may include at least one of identification information and a command of the specific food.

스피커(130)는 냉장고(10)의 동작과 관련된 정보를 음향 또는 음성 형태로 출력할 수 있다. 실시 예에 따라, 냉장고(10)는 디스플레이 장치(100)를 통해 냉장고(10)의 동작과 관련된 정보를 출력할 수 있다.The speaker 130 may output information related to the operation of the refrigerator 10 in the form of sound or voice. According to an embodiment, the refrigerator 10 may output information related to the operation of the refrigerator 10 through the display device 100 .

메모리(140)는 냉장고(10)에 포함된 구성들의 동작을 위한 제어 데이터나 알고리즘 등을 저장할 수 있다. 한편, 메모리(140)는 냉장고(10) 내에 보관 중인 식품들과 관련된 각종 정보를 저장하는 식품 관리 DB(142)와, 카메라(110)에 의해 획득된 이미지를 저장하는 이미지 DB(144)를 포함할 수 있다. 실시 예에 따라, 식품 관리 DB(142)와 이미지 DB(144)는 냉장고(10)와 통신부(150)를 통해 연결되는 서버 등에 존재할 수도 있다.The memory 140 may store control data or algorithms for the operation of components included in the refrigerator 10 . Meanwhile, the memory 140 includes a food management DB 142 for storing various information related to foods stored in the refrigerator 10 and an image DB 144 for storing images acquired by the camera 110 . can do. According to an embodiment, the food management DB 142 and the image DB 144 may exist in a server connected to the refrigerator 10 and the communication unit 150 through the communication unit 150 .

통신부(150)는 냉장고(10)를 사용자의 단말기나 서버 등과 연결시키는 적어도 하나의 통신 모듈을 포함할 수 있다. 예컨대, 통신부(150)는 와이파이(Wi-Fi) 등과 같은 무선 인터넷 모듈이나, 블루투스(Bluetooth) 등과 같은 근거리 무선 통신 모듈 등을 포함할 수 있다.The communication unit 150 may include at least one communication module that connects the refrigerator 10 to a user's terminal or server. For example, the communication unit 150 may include a wireless Internet module such as Wi-Fi or a short-range wireless communication module such as Bluetooth.

제어부(160)는 냉장고(10)의 전반적인 동작을 제어할 수 있다. 제어부(160)는 사용자에게 냉장고(10)가 지원하는 기능을 제공하기 위해, 냉장고(10)에 포함된 적어도 하나의 구성을 제어할 수 있다. The controller 160 may control the overall operation of the refrigerator 10 . The controller 160 may control at least one component included in the refrigerator 10 to provide a user with a function supported by the refrigerator 10 .

이러한 제어부(160)는 적어도 하나의 CPU, AP(application processor), 컨트롤러, 마이크로컴퓨터, 집적회로 등을 포함할 수 있다. 예컨대, 도 2에 도시된 바와 같이, 제어부(160)는 프로세서(161), 디스플레이 컨트롤러(162), 카메라 컨트롤러(163), 이미지 처리 프로세서(164), 및 음성 인식 모듈(165)을 포함할 수 있으나, 이에 한정되는 것은 아니다. The controller 160 may include at least one CPU, an application processor (AP), a controller, a microcomputer, an integrated circuit, and the like. For example, as shown in FIG. 2 , the controller 160 may include a processor 161 , a display controller 162 , a camera controller 163 , an image processing processor 164 , and a voice recognition module 165 . However, the present invention is not limited thereto.

한편, 본 발명의 실시 예에 따른 제어부(160; 또는 프로세서(161))는, 마이크로폰(230)으로부터 획득되는 음성을 인공지능 기반의 음성 인식 모듈(165)로 입력하여, 상기 음성을 인식할 수 있다. 음성 인식 모듈(165)은 상기 음성에 포함된 적어도 하나의 부분 음성을 인식하고, 인식된 적어도 하나의 부분 음성을 포함하는 인식 결과를 출력할 수 있다.On the other hand, the control unit 160 (or processor 161) according to an embodiment of the present invention, by inputting the voice obtained from the microphone 230 to the artificial intelligence-based voice recognition module 165, the voice can be recognized there is. The voice recognition module 165 may recognize at least one partial voice included in the voice and output a recognition result including the recognized at least one partial voice.

상술한 바와 같이, 상기 부분 음성은 상기 특정 식품의 식별 정보(예컨대, 식품명), 또는 상기 기능과 관련된 명령일 수 있다. 즉, 상기 음성에는 상기 특정 식품의 식별 정보와 명령 중 적어도 하나가 포함될 수 있다.As described above, the partial voice may be identification information (eg, food name) of the specific food or a command related to the function. That is, the voice may include at least one of identification information and a command of the specific food.

예컨대, 음성 인식 모듈(165)은 머신 러닝(machine learning)으로 기학습된 인공신경망(artificial neural network; ANN)을 갖는 음성 인식기를 포함하여, 입력된 음성을 인식하여 상기 식별 정보나 특성 정보를 포함하는 인식 결과를 출력할 수 있다. For example, the voice recognition module 165 includes a voice recognizer having an artificial neural network (ANN) pre-trained by machine learning, and recognizes the input voice to include the identification information or characteristic information. recognition result can be output.

프로세서(161)는 음성 인식 모듈(165)의 인식 결과와, 터치 패널(101)을 통해 획득된 터치 입력에 기초하여 식품 관리와 관련된 기능을 수행할 수 있다.The processor 161 may perform a function related to food management based on a recognition result of the voice recognition module 165 and a touch input obtained through the touch panel 101 .

이하, 도 3 내지 도 5를 참조하여 음성 인식 모듈(165)에 적용되는 인공지능 기술의 일례로서 딥러닝에 대해 보다 상세히 설명한다. Hereinafter, deep learning will be described in more detail as an example of an artificial intelligence technology applied to the voice recognition module 165 with reference to FIGS. 3 to 5 .

도 3과 도 4는 본 발명의 실시 예에 따른 웨어러블 기기의 음성 인식 모듈에 적용되는 인공지능의 일례로서 딥러닝(deep learning)을 설명하기 위한 도면들이다.3 and 4 are diagrams for explaining deep learning as an example of artificial intelligence applied to a voice recognition module of a wearable device according to an embodiment of the present invention.

인공지능이란 인간의 지능으로 할 수 있는 사고, 학습, 자기 개발 등을 컴퓨터가 할 수 있도록 하는 방법을 연구하는 컴퓨터 공학 및 정보기술의 일 분야에 해당한다. 이러한 인공지능의 연구 분야 중 하나인 머신 러닝은 경험적 데이터를 기반으로 예측을 수행하고, 학습을 통해 스스로의 성능을 향상시키는 시스템을 의미할 수 있다. 머신 러닝의 일종인 딥러닝 기술은 데이터를 기반으로 다단계로 깊은 수준까지 내려가 학습하는 것이다.Artificial intelligence is a field of computer science and information technology that studies how computers can do the thinking, learning, and self-development that human intelligence can do. Machine learning, one of the research fields of artificial intelligence, can mean a system that makes predictions based on empirical data and improves its own performance through learning. Deep learning technology, which is a type of machine learning, learns by going down to a deep level in multiple stages based on data.

딥러닝은 단계를 높여갈수록 복수의 데이터로부터 핵심적인 데이터를 추출하는 머신 러닝 알고리즘의 집합을 나타낼 수 있다.Deep learning can represent a set of machine learning algorithms that extract core data from multiple data as the level increases.

딥러닝 구조는 인공신경망(artificial neural network(ANN))을 포함할 수 있고, 예를 들어 딥러닝 구조는 CNN(convolutional neural network), RNN(recurrent neural network), DBN(deep belief network) 등 심층신경망(deep neural network)으로 구성될 수 있다.The deep learning structure may include an artificial neural network (ANN), for example, the deep learning structure is a deep neural network such as a convolutional neural network (CNN), a recurrent neural network (RNN), or a deep belief network (DBN). (deep neural network) can be configured.

도 3을 참조하면, 인공신경망은 입력 레이어(Input Layer), 히든 레이어(Hidden Layer), 및 출력 레이어(Output Layer)를 포함할 수 있다. 각 레이어는 복수의 노드들을 포함하고, 각 레이어는 다음 레이어와 연결된다. 인접한 레이어 사이의 노드들은 웨이트(weight)를 가지고 서로 연결될 수 있다.Referring to FIG. 3 , the artificial neural network may include an input layer, a hidden layer, and an output layer. Each layer includes a plurality of nodes, and each layer is connected to the next layer. Nodes between adjacent layers may be connected to each other with weights.

도 4를 참조하면, 컴퓨팅 장치(머신)는 투입된 입력 데이터(410)로부터 일정한 패턴을 발견해 특징맵(feature map)을 형성할 수 있다. 예컨대, 컴퓨팅 장치(머신)는 하위레벨 특징(420)부터, 중간레벨 특징(430), 및 상위레벨 특징(440)을 추출하여, 대상을 인식하고 그 결과를 출력(450)할 수 있다.Referring to FIG. 4 , the computing device (machine) may form a feature map by discovering a certain pattern from the input data 410 . For example, the computing device (machine) may extract the low-level feature 420 , the middle-level feature 430 , and the high-level feature 440 , recognize the object, and output 450 the result.

인공신경망은 다음 순서의 레이어로 갈수록 더욱 상위레벨의 특징으로 추상화할 수 있다.The artificial neural network can be abstracted with higher-level features as it goes to the next layer.

도 3과 도 4를 참조하면, 각 노드들은 활성화 모델에 기초하여 동작할 수 있고, 활성화 모델에 따라 입력값에 대응하는 출력값이 결정될 수 있다.3 and 4 , each node may operate based on an activation model, and an output value corresponding to an input value may be determined according to the activation model.

임의의 노드, 예를 들어, 하위레벨 특징(420)의 출력값은 해당 노드와 연결된 다음 레이어, 예를 들어, 중간레벨 특징(430)의 노드로 입력될 수 있다. 다음 레이어의 노드, 예를 들어, 중간레벨 특징(430)의 노드는 하위레벨 특징(420)의 복수의 노드들로부터 출력되는 값들을 입력받을 수 있다.An output value of an arbitrary node, for example, the low-level feature 420 may be input to a next layer connected to the node, for example, a node of the middle-level feature 430 . A node of a next layer, for example, a node of the intermediate-level feature 430 may receive values output from a plurality of nodes of the lower-level feature 420 .

이 때, 각 노드의 입력값은 이전 레이어의 노드의 출력값에 웨이트(weight)가 적용된 값일 수 있다. 웨이트는 노드 간의 연결 강도를 의미할 수 있다.In this case, the input value of each node may be a value in which a weight is applied to the output value of the node of the previous layer. The weight may mean the strength of a connection between nodes.

또한, 딥러닝 과정은 적절한 웨이트를 찾아내는 과정으로도 볼 수 있다.In addition, the deep learning process can be viewed as a process of finding an appropriate weight.

한편, 임의의 노드, 예를 들어, 중간레벨 특징(430)의 출력값은 해당 노드와 연결된 다음 레이어, 예를 들어, 상위레벨 특징(440)의 노드로 입력될 수 있다. 다음 레이어의 노드, 예를 들어, 상위레벨 특징(440)의 노드는 중간레벨 특징(430)의 복수의 노드로부터 출력되는 값들을 입력받을 수 있다.Meanwhile, an output value of an arbitrary node, for example, the middle-level feature 430 may be input to a next layer connected to the corresponding node, for example, a node of the higher-level feature 440 . A node of a next layer, for example, a node of the upper-level feature 440 may receive values output from a plurality of nodes of the intermediate-level feature 430 .

인공신경망은 각 레벨에 대응하는 학습된 레이어(layer)를 이용하여, 각 레벨에 대응하는 특징 정보를 추출할 수 있다. 인공신경망은 순차적으로 추상화하여, 가장 상위 레벨의 특징 정보를 활용하여 소정 대상을 인식할 수 있다.The artificial neural network may extract feature information corresponding to each level by using a learned layer corresponding to each level. The artificial neural network can recognize a predetermined target by sequentially abstracting and utilizing the highest-level feature information.

예를 들어, 딥러닝에 의한 얼굴인식 과정을 살펴보면, 컴퓨터는 입력 영상으로부터, 픽셀의 밝기에 따라 밝은 픽셀과 어두운 픽셀을 구분하고, 테두리, 에지 등 단순한 형태를 구분한 후, 조금 더 복잡한 형태와 사물을 구분할 수 있다. 최종적으로 컴퓨터는 인간의 얼굴을 규정하는 형태를 파악할 수 있다.For example, looking at the face recognition process by deep learning, the computer divides the bright and dark pixels from the input image according to the brightness of the pixels, and distinguishes simple shapes such as borders and edges, things can be distinguished. Finally, the computer can figure out the shape that defines the human face.

본 발명에 따른 딥러닝 구조는 공지된 다양한 구조를 이용할 수 있다. 예를 들어, 본 발명에 따른 딥러닝 구조는 CNN(Convolutional Neural Network), RNN(Recurrent Neural Network), DBN(Deep Belief Network) 등일 수 있다.The deep learning structure according to the present invention may use various well-known structures. For example, the deep learning structure according to the present invention may be a Convolutional Neural Network (CNN), a Recurrent Neural Network (RNN), a Deep Belief Network (DBN), or the like.

RNN(Recurrent Neural Network)은, 자연어 처리 등에 많이 이용되고 있으며, 시간의 흐름에 따라 변하는 시계열 데이터(Time-series data) 처리에 효과적인 구조로 매 순간마다 레이어를 쌓아올려 인공신경망 구조를 구성할 수 있다.RNN (Recurrent Neural Network) is widely used in natural language processing, etc., and is an effective structure for processing time-series data that changes with time. .

DBN(Deep Belief Network)은 딥러닝 기법인 RBM(Restricted Boltzman Machine)을 다층으로 쌓아 구성되는 딥러닝 구조이다. RBM(Restricted Boltzman Machine) 학습을 반복하여, 일정 수의 레이어가 되면 해당 개수의 레이어를 가지는 DBN(Deep Belief Network)를 구성할 수 있다.DBN (Deep Belief Network) is a deep learning structure composed of multi-layered Restricted Boltzman Machine (RBM), a deep learning technique. By repeating Restricted Boltzman Machine (RBM) learning, when a certain number of layers is reached, a Deep Belief Network (DBN) having the corresponding number of layers can be configured.

CNN(Convolutional Neural Network)은 사람이 물체를 인식할 때 물체의 기본적인 특징들을 추출한 다음 뇌 속에서 복잡한 계산을 거쳐 그 결과를 기반으로 물체를 인식한다는 가정을 기반으로 만들어진 사람의 뇌 기능을 모사한 모델이다.CNN (Convolutional Neural Network) is a model that simulates human brain function based on the assumption that when a person recognizes an object, it extracts the basic features of the object, then performs complex calculations in the brain and recognizes the object based on the result. am.

한편, 인공신경망의 학습은 주어진 입력에 대하여 원하는 출력이 나오도록 노드간 연결선의 웨이트(weight)를 조정(필요한 경우 바이어스(bias) 값도 조정)함으로써 이루어질 수 있다. 또한, 인공신경망은 학습에 의해 웨이트(weight) 값을 지속적으로 업데이트시킬 수 있다. 또한, 인공신경망의 학습에는 역전파(Back Propagation) 등의 방법이 사용될 수 있다.On the other hand, learning of the artificial neural network can be accomplished by adjusting the weight of the connection line between nodes (and adjusting the bias value if necessary) so that a desired output is obtained for a given input. In addition, the artificial neural network may continuously update a weight value by learning. In addition, a method such as back propagation may be used for learning the artificial neural network.

한편, 메모리(140) 또는 서버에는 상기 인공신경망을 학습하기 위한 데이터가 저장될 수 있다. 또한, 실시 예에 따라서는, 메모리(140)에는 인공신경망 구조를 이루는 웨이트, 바이어스들이 저장될 수 있다. 또는, 실시 예에 따라서는, 상기 인공신경망 구조를 이루는 웨이트, 바이어스들은 음성 인식 모듈(165)의 임베디드 메모리에 저장될 수도 있다.Meanwhile, data for learning the artificial neural network may be stored in the memory 140 or the server. Also, according to an embodiment, weights and biases constituting an artificial neural network structure may be stored in the memory 140 . Alternatively, according to an embodiment, the weights and biases constituting the artificial neural network structure may be stored in the embedded memory of the voice recognition module 165 .

한편, 음성 인식 모듈(165)은 마이크로폰(120)으로부터 획득되는 음성이 인식될 때마다, 획득된 음성과 인식 결과를 이용하여 음성 인식기의 학습 과정을 수행할 수 있다. 상기 학습 과정이 수행됨에 따라, 웨이트 등 인공신경망 구조가 업데이트될 수 있다. 이를 위해, 냉장고(10)는 학습 모듈을 포함할 수 있다. 상기 학습 모듈은 음성 인식 모듈(165) 내에 구현되거나, 별도로 구현될 수 있다.Meanwhile, whenever a voice acquired from the microphone 120 is recognized, the voice recognition module 165 may perform a learning process of the voice recognizer using the acquired voice and the recognition result. As the learning process is performed, an artificial neural network structure such as weights may be updated. To this end, the refrigerator 10 may include a learning module. The learning module may be implemented within the voice recognition module 165 or may be implemented separately.

도 5는 음성 인식 모듈의 인식 동작 및 학습 동작을 설명하기 위한 도면이다.5 is a diagram for explaining a recognition operation and a learning operation of the voice recognition module.

도 5를 참조하면, 음성 인식 모듈(165)의 음성 인식기는 마이크로폰(120)을 통해 사용자의 음성이 입력되면, 입력된 음성을 인식하여 인식 결과를 출력할 수 있다. 실시 예에 따라, 음성 인식기는 1회의 인식 결과를 최종 인식 결과로서 출력할 수 있으나, 복수 회의 인식 동작을 반복 또는 연속 수행하고, 복수 회의 인식 결과에 기초하여 최종 인식 결과를 출력함으로써, 입력된 음성에 대한 인식 정확도를 보다 향상시킬 수도 있다.Referring to FIG. 5 , when a user's voice is input through the microphone 120 , the voice recognizer of the voice recognition module 165 may recognize the input voice and output a recognition result. According to an embodiment, the voice recognizer may output one recognition result as the final recognition result, but by repeating or continuously performing the recognition operation a plurality of times and outputting the final recognition result based on the plurality of times recognition results, the input voice It is possible to further improve the recognition accuracy for

한편, 음성 인식기는 수신된 음성을 수집하여 데이터베이스를 구축하고, 획득된 음성에 포함된 부분 음성 각각으로부터 추출된 특징점들과, 부분 음성 각각의 인식 결과를 이용하여 음성 인식기의 학습을 수행할 수 있다. 도 2에서 상술한 바와 같이, 상기 부분 음성은 식품의 식별 정보(식품명 등) 또는 냉장고(10)가 제공하는 기능과 관련된 명령에 해당할 수 있다.On the other hand, the voice recognizer collects the received voice to build a database, and uses feature points extracted from each partial voice included in the acquired voice and the recognition result of each partial voice to learn the voice recognizer. . As described above in FIG. 2 , the partial voice may correspond to food identification information (eg, food name) or a command related to a function provided by the refrigerator 10 .

예컨대, 음성 인식기는 수집된 음성에 포함된 부분 음성 각각의 주파수 특성을 추출할 수 있다. 음성 인식기는 MFCC(mel-frequency cepstral coefficient) 등의 공지된 알고리즘을 이용하여 상기 부분 음성 각각의 주파수 특성을 추출할 수 있다. 음성 인식기는 상기 부분 음성 각각의 주파수 특성에 기초하여 상기 음성 인식기의 학습 및 인식 동작을 수행할 수 있다.For example, the voice recognizer may extract a frequency characteristic of each partial voice included in the collected voice. The voice recognizer may extract frequency characteristics of each of the partial voices using a known algorithm such as a mel-frequency cepstral coefficient (MFCC). The voice recognizer may perform learning and recognition operations of the voice recognizer based on frequency characteristics of each of the partial voices.

구체적으로, 음성 인식기는 입력된 음성을 일정 구간씩 분할하고, 분할된 구간 각각에 대한 주파수 스펙트럼을 분석함으로써 구간들 각각의 주파수 특성을 추출할 수 있다. 음성 인식기는 구간들 각각의 주파수 특성(주파수 특징 벡터)을 인공신경망에 입력함으로써, 각 구간의 음성을 인식할 수 있다. 음성 인식기는 인식 결과에 기초하여, 획득된 음성에 포함된 부분 음성들을 구분하고, 부분 음성들 각각의 인식 결과를 출력할 수 있다. 부분 음성들 각각은 적어도 하나의 구간을 포함할 수 있다.Specifically, the voice recognizer may extract the frequency characteristic of each of the sections by dividing the input voice by predetermined sections and analyzing a frequency spectrum for each of the divided sections. The speech recognizer may recognize the voice of each section by inputting the frequency characteristic (frequency feature vector) of each section to the artificial neural network. The voice recognizer may classify partial voices included in the acquired voice based on the recognition result, and output a recognition result of each of the partial voices. Each of the partial voices may include at least one section.

음성 인식기는 획득된 음성에 포함된 부분 음성들 각각의 주파수 특성과, 상기 부분 음성들 각각의 인식 결과에 기초하여 음성 인식기의 학습을 수행할 수 있다.The voice recognizer may learn the voice recognizer based on frequency characteristics of each of the partial voices included in the acquired voice and a recognition result of each of the partial voices.

이러한 음성 인식기는 시간의 흐름에 따라 변화하는 주파수 패턴을 갖는 음성을 인식하므로, 상기 인공신경망은 RNN(recurrent neural network), CNN(convolutional neural network), 또는 이들의 조합으로 구성될 수 있다.Since such a speech recognizer recognizes a speech having a frequency pattern that changes over time, the artificial neural network may be configured of a recurrent neural network (RNN), a convolutional neural network (CNN), or a combination thereof.

음성 인식기의 학습을 통해, 상기 음성 인식기에 포함된 인공신경망의 파라미터들(웨이트 및 바이어스)이 업데이트될 수 있다. 상기 데이터베이스는 냉장고(10)의 메모리(140) 또는 음성 인식 모듈(165)의 임베디드 메모리에 저장되거나, 냉장고(10)와 연결된 서버(미도시)의 메모리에 저장될 수 있다.Through learning of the voice recognizer, parameters (weight and bias) of the artificial neural network included in the voice recognizer may be updated. The database may be stored in the memory 140 of the refrigerator 10 or the embedded memory of the voice recognition module 165 , or in the memory of a server (not shown) connected to the refrigerator 10 .

이하 도 6 내지 도 10을 참조하여, 본 발명의 실시 예에 따른 냉장고(10)가 인공지능 기반의 음성 인식을 통해 식품의 관리와 관련된 다양한 기능을 제공하는 동작을 설명하기로 한다.Hereinafter, an operation in which the refrigerator 10 according to an embodiment of the present invention provides various functions related to food management through artificial intelligence-based voice recognition will be described with reference to FIGS. 6 to 10 .

도 6은 본 발명의 실시 예에 따른 냉장고의 동작을 설명하기 위한 플로우차트이다.6 is a flowchart illustrating an operation of a refrigerator according to an embodiment of the present invention.

도 6을 참조하면, 냉장고(10)는 사용자에 의해 도어(11)가 오픈되면(S100), 카메라(110)를 이용하여 냉장고(10) 내부의 이미지를 획득할 수 있다(S110). 예컨대, 냉장고(10)는 도어(11)가 클로즈될 때까지(S120), 카메라(110)를 이용하여 적어도 하나의 이미지를 획득할 수 있다.Referring to FIG. 6 , when the door 11 is opened by the user ( S100 ), the refrigerator 10 may acquire an image of the interior of the refrigerator 10 using the camera 110 ( S110 ). For example, the refrigerator 10 may acquire at least one image using the camera 110 until the door 11 is closed ( S120 ).

제어부(160)의 프로세서(161)는 도어(11)가 열림이 감지되면, 카메라(110)를 이용하여 냉장고(10) 내부의 이미지를 획득하도록 카메라 컨트롤러(163)로 제어 신호를 전송할 수 있다. 예컨대, 냉장고(10)에는 도어(11)의 열림/닫힘, 또는 열림각을 감지하는 감지 센서가 구비될 수 있고, 프로세서(161)는 상기 감지 센서를 이용하여 도어(11)의 열림을 감지할 수 있다.When it is detected that the door 11 is opened, the processor 161 of the controller 160 may transmit a control signal to the camera controller 163 to acquire an image of the interior of the refrigerator 10 using the camera 110 . For example, the refrigerator 10 may be provided with a detection sensor that detects the opening/closing or opening angle of the door 11 , and the processor 161 detects the opening of the door 11 using the detection sensor. can

카메라 컨트롤러(163)는 수신된 제어 신호에 기초하여, 냉장고(10) 내부의 이미지를 획득하도록 카메라(110)를 제어할 수 있다. 상기 냉장고(10) 내부의 이미지는, 냉장고(10)의 저장실 내에 수용된 적어도 하나의 식품 각각의 식품 이미지를 포함할 수 있다.The camera controller 163 may control the camera 110 to acquire an image inside the refrigerator 10 based on the received control signal. The image inside the refrigerator 10 may include a food image of each of at least one food accommodated in a storage compartment of the refrigerator 10 .

카메라(110)는 도어(11)의 열림 동안 적어도 하나의 이미지를 획득할 수 있다. 프로세서(161) 또는 이미지 처리 프로세서(164)는, 획득된 적어도 하나의 이미지를 메모리(140)의 이미지 DB(144)에 저장할 수 있다. 또는, 프로세서(161) 또는 이미지 처리 프로세서(164)는, 획득된 적어도 하나의 이미지 중 어느 하나의 이미지만을 이미지 DB(144)에 저장할 수도 있다. 이미지 DB(144)에 저장되는 어느 하나의 이미지는, 도어(11)의 열림각이 최대일 때 획득된 이미지이거나, 상기 적어도 하나의 이미지 중 마지막으로 획득된 이미지일 수 있으나, 이에 한정되는 것은 아니다.The camera 110 may acquire at least one image while the door 11 is opened. The processor 161 or the image processing processor 164 may store the acquired at least one image in the image DB 144 of the memory 140 . Alternatively, the processor 161 or the image processing processor 164 may store only one image among at least one acquired image in the image DB 144 . Any one image stored in the image DB 144 may be an image obtained when the opening angle of the door 11 is the maximum or may be an image obtained last among the at least one image, but is not limited thereto. .

실시 예에 따라, 카메라(110)는 도어(11)의 열림각이 기설정된 열림각에 해당하는 경우 냉장고(10) 내부의 이미지를 획득할 수도 있다. 이 경우, 프로세서(161)는 상기 감지 센서를 이용하여 도어(11)의 열림각을 감지하고, 감지된 열림각이 기설정된 열림각에 해당하는 경우 카메라 컨트롤러(163)로 제어 신호를 전송할 수 있다.According to an embodiment, the camera 110 may acquire an image of the interior of the refrigerator 10 when the opening angle of the door 11 corresponds to a preset opening angle. In this case, the processor 161 detects the opening angle of the door 11 using the detection sensor, and when the detected opening angle corresponds to a preset opening angle, the processor 161 may transmit a control signal to the camera controller 163. .

프로세서(161)는 도어(11)의 닫힘이 감지되면, 카메라(110)의 동작을 종료하도록 카메라 컨트롤러(163)로 제어 신호를 전송할 수 있다.When the closing of the door 11 is sensed, the processor 161 may transmit a control signal to the camera controller 163 to end the operation of the camera 110 .

냉장고(10)는 디스플레이 장치(100)를 통해 사용자의 터치 입력을 수신하고, 마이크로폰(120)을 통해 사용자의 음성을 수신할 수 있다(S130).The refrigerator 10 may receive a user's touch input through the display apparatus 100 and may receive a user's voice through the microphone 120 (S130).

프로세서(161)는 S110 단계에서 획득된 이미지를 디스플레이 장치(100)를 통해 디스플레이하도록 디스플레이 컨트롤러(162)로 제어 신호를 전송할 수 있다. 예컨대, 프로세서(161)는 도어(11)가 닫힌 후 상기 제어 신호를 전송하거나, 터치 패널(101) 또는 마이크로폰(120)을 통해 사용자로부터 이미지의 표시 요청을 수신한 경우 상기 제어 신호를 전송할 수 있다.The processor 161 may transmit a control signal to the display controller 162 to display the image obtained in step S110 through the display apparatus 100 . For example, the processor 161 may transmit the control signal after the door 11 is closed or transmit the control signal when receiving a request for displaying an image from the user through the touch panel 101 or the microphone 120 . .

디스플레이 컨트롤러(162)는 수신된 제어 신호에 응답하여, 상기 이미지를 표시하도록 디스플레이(102)를 제어할 수 있다.The display controller 162 may control the display 102 to display the image in response to the received control signal.

실시 예에 따라, 프로세서(161)는 상기 이미지의 표시 대신, 냉장고(10)의 내부가 외부에서 가시화되도록 냉장고 내부의 라이트를 제어하여, 사용자로 하여금 냉장고(10)의 내부를 확인하도록 할 수도 있다. 이와 관련된 실시 예는 추후 도 10을 통해 보다 상세히 설명하기로 한다.According to an embodiment, the processor 161 may control the light inside the refrigerator 10 so that the inside of the refrigerator 10 is visible from the outside instead of displaying the image, so that the user can check the inside of the refrigerator 10 . . A related embodiment will be described in more detail later with reference to FIG. 10 .

사용자는 디스플레이(102)를 통해 표시된 이미지에 기초하여, 상기 이미지에 포함된 특정 식품과 관련된 명령을 입력할 수 있다. 예컨대, 사용자는 상기 이미지에 포함된 복수의 식품들 중, 상기 특정 식품이 표시된 위치를 터치할 수 있고, 상기 명령을 포함하는 음성 또는 상기 특정 식품의 식별정보(식품명 등)와 명령을 포함하는 음성을 발화할 수 있다.Based on the image displayed through the display 102 , the user may input a command related to a specific food included in the image. For example, a user may touch a position where the specific food is displayed among a plurality of foods included in the image, and a voice including the command or a voice including identification information (food name, etc.) of the specific food and a command can ignite.

프로세서(161)는 터치 패널(101)을 통해 사용자의 터치 입력을 수신할 수 있고, 마이크로폰(120)을 통해 상기 발화된 음성을 수신할 수 있다.The processor 161 may receive a user's touch input through the touch panel 101 and may receive the uttered voice through the microphone 120 .

상기 터치 입력과 음성은 동시에 수신될 수도 있고, 순차적으로 수신될 수도 있다.The touch input and the voice may be simultaneously received or sequentially received.

냉장고(10)는, 인공지능 기반의 음성 인식 모듈(165)을 통해, 상기 수신된 음성을 인식할 수 있다(S140).The refrigerator 10 may recognize the received voice through the AI-based voice recognition module 165 (S140).

프로세서(161)는 상기 수신된 음성을 음성 인식 모듈(165)로 입력할 수 있다. 실시 예에 따라, 프로세서(161)는 수신된 음성을 처리(필터링, 증폭, 노이즈 제거 등)하고, 처리된 음성을 음성 인식 모듈(165)로 입력할 수도 있다.The processor 161 may input the received voice to the voice recognition module 165 . According to an embodiment, the processor 161 may process the received voice (filtering, amplification, noise removal, etc.) and input the processed voice to the voice recognition module 165 .

상술한 바와 같이, 음성 인식 모듈(165)은 인공지능의 일 분야인 머신 러닝 기반의 인공신경망이 적용된 음성 인식기를 포함할 수 있다.As described above, the voice recognition module 165 may include a voice recognizer to which an artificial neural network based on machine learning, which is a field of artificial intelligence, is applied.

음성 인식 모듈(165)은 상기 음성 인식기를 통해, 상기 입력된 음성에 포함된 적어도 하나의 부분 음성(식품의 식별정보 및/또는 명령)을 인식하고, 상기 인식된 정보를 포함하는 인식 결과를 출력할 수 있다.The voice recognition module 165 recognizes at least one partial voice (food identification information and/or command) included in the input voice through the voice recognizer, and outputs a recognition result including the recognized information can do.

냉장고(10)는 터치 입력의 좌표와 상기 인식된 음성 내의 식품 식별정보에 기초하여 식품을 인식할 수 있다(S150). 냉장고(10)는 인식된 식품에 대해, 상기 인식된 음성 내의 명령과 관련된 동작을 수행함으로써 상기 명령을 처리할 수 있다(S160).The refrigerator 10 may recognize food based on the coordinates of the touch input and food identification information in the recognized voice (S150). The refrigerator 10 may process the command by performing an operation related to the command in the recognized voice with respect to the recognized food ( S160 ).

프로세서(161)는 S130 단계에서 수신된 터치 입력의 좌표를 획득할 수 있다. 프로세서(161)는 음성 인식 모듈(165)의 인식 결과에 포함된 식품의 식별정보와 상기 터치 입력의 좌표로부터, 상기 이미지에 포함된 식품들 중 선택된 식품을 인식할 수 있다. The processor 161 may obtain the coordinates of the touch input received in step S130 . The processor 161 may recognize the selected food from among the foods included in the image from the identification information of the food included in the recognition result of the voice recognition module 165 and the coordinates of the touch input.

실시 예에 따라, 식품 관리 DB(142)에 상기 터치 입력의 좌표에 대응하는 식품 정보가 저장되어 있는 경우, 프로세서(161)는 상기 음성의 인식 결과에 포함된 식품의 식별정보와, 상기 터치 입력의 좌표에 대응하는 식품 정보로부터, 터치 입력에 의해 선택된 식품과 음성에 포함된 식품의 일치 여부를 확인할 수도 있다. 확인 결과 터치 입력에 의해 선택된 식품과 음성에 포함된 식품이 일치하는 경우, 프로세서(161)는 선택된 식품을 인식할 수 있다. 반면, 일치하지 않는 경우, 프로세서(161)는 사용자로 하여금 재입력을 요청할 수 있다.According to an embodiment, when food information corresponding to the coordinates of the touch input is stored in the food management DB 142 , the processor 161 may include identification information of food included in the recognition result of the voice and the touch input. From the food information corresponding to the coordinates of , it may be confirmed whether the food selected by the touch input matches the food included in the voice. As a result of the check, when the food selected by the touch input matches the food included in the voice, the processor 161 may recognize the selected food. On the other hand, if they do not match, the processor 161 may request the user to re-enter.

다른 실시 예에 따라, 음성 인식 모듈(165)의 인식 결과에 식품의 식별정보가 포함되지 않은 경우, 프로세서(161)는 식품 관리 DB(142)로부터 상기 터치 입력의 좌표에 대응하는 식품 정보를 획득함으로써 식품을 인식할 수도 있다. According to another embodiment, when identification information of food is not included in the recognition result of the voice recognition module 165 , the processor 161 acquires food information corresponding to the coordinates of the touch input from the food management DB 142 . It can also recognize food.

프로세서(161)는 인식된 식품에 대해, 음성 인식 모듈(165)의 인식 결과에 포함된 명령과 관련된 동작을 수행할 수 있다.The processor 161 may perform an operation related to a command included in the recognition result of the voice recognition module 165 on the recognized food.

예컨대, 상기 명령은 인식된 식품의 등록, 구매, 레시피 제공, 기타 관리 등 다양한 기능과 관련될 수 있다. 프로세서(161)는 상기 인식 결과에 포함된 명령에 따라, 인식된 식품에 대한 어느 하나의 기능을 제공할 수 있다.For example, the command may be related to various functions such as registration, purchase, recipe provision, and other management of recognized food. The processor 161 may provide any one function for the recognized food according to a command included in the recognition result.

즉, 본 발명의 실시 예에 따르면, 냉장고(10)는 인공지능 기반의 음성 인식 모듈(165)을 통해 사용자의 음성으로부터 식품의 식별정보와 명령을 정확히 인식할 수 있다. 또한, 냉장고(10)는 터치 입력의 좌표와 식품의 식별정보에 기초하여, 카메라(110)에 의해 획득된 이미지에 포함된 식품을 보다 정확히 인식할 수 있다.That is, according to an embodiment of the present invention, the refrigerator 10 may accurately recognize food identification information and commands from the user's voice through the AI-based voice recognition module 165 . Also, the refrigerator 10 may more accurately recognize the food included in the image acquired by the camera 110 based on the coordinates of the touch input and the identification information of the food.

도 7은 도 6에 도시된 냉장고의 동작과 관련하여, 냉장고가 특정 식품을 식품 관리 데이터베이스에 등록하는 동작을 설명하기 위한 예시도이다. 도 8은 도 7의 실시 예와 관련하여, 냉장고의 이미지 처리 프로세서가 식품의 이미지를 추출하는 동작을 설명하기 위한 플로우차트이다.7 is an exemplary diagram for explaining an operation of the refrigerator registering a specific food in a food management database in relation to the operation of the refrigerator shown in FIG. 6 . FIG. 8 is a flowchart illustrating an operation in which an image processing processor of a refrigerator extracts an image of food in relation to the embodiment of FIG. 7 .

도 7을 참조하면, 냉장고(10)는 카메라(110)에 의해 획득된 냉장고(10) 내부의 이미지(700)를 디스플레이 장치(100)를 통해 표시할 수 있다. 이미지(700)에는 냉장고(10)의 내부에 보관 중인 적어도 하나의 식품 각각의 식품 이미지가 포함될 수 있다.Referring to FIG. 7 , the refrigerator 10 may display an image 700 of the interior of the refrigerator 10 acquired by the camera 110 through the display device 100 . The image 700 may include a food image of each of at least one food stored in the refrigerator 10 .

사용자(USER)는 이미지(700)에 포함된 적어도 하나의 식품 이미지 중 어느 하나의 식품 이미지(701)에 대응하는 위치를 터치(702)할 수 있다. 또한, 사용자(USER)는 상기 어느 하나의 식품 이미지(701)를 식품 관리 DB(142)에 등록하기 위한 등록 명령을 포함하는 음성(703)을 발화할 수 있다. 예컨대, 등록하고자 하는 식품이 'AA 우유'인 경우, 사용자는 “Hi LG, AA 우유 등록해줘”와 같은 음성(703)을 발화할 수 있다. 상기 음성(703)에는 식품의 식별정보(식품명)로서 'AA 우유'가 포함되고, 명령으로서 '등록'이 포함될 수 있다.The user USER may touch 702 a position corresponding to any one food image 701 among at least one food image included in the image 700 . Also, the user USER may utter a voice 703 including a registration command for registering the one food image 701 in the food management DB 142 . For example, when the food to be registered is 'AA milk', the user may utter a voice 703 such as "Hi LG, register AA milk". The voice 703 may include 'AA milk' as food identification information (food name) and 'registration' as a command.

프로세서(161)는, 터치 패널(101)을 통해 상기 터치(702)에 대응하는 터치 입력을 수신하고, 수신된 터치 입력의 좌표를 획득할 수 있다.The processor 161 may receive a touch input corresponding to the touch 702 through the touch panel 101 and obtain coordinates of the received touch input.

또한, 프로세서(161)는 마이크로폰(120)을 통해 상기 음성(703)을 수신하고, 수신된 음성(703)을 음성 인식 모듈(165)로 입력할 수 있다. 음성 인식 모듈(165)은 상술한 인공지능 기반의 음성 인식기를 통해, 음성(703)에 포함된 상기 식별정보(식품명)와 명령을 인식할 수 있다.In addition, the processor 161 may receive the voice 703 through the microphone 120 and input the received voice 703 to the voice recognition module 165 . The voice recognition module 165 may recognize the identification information (food name) and commands included in the voice 703 through the above-described artificial intelligence-based voice recognizer.

프로세서(161)는 음성(703)의 인식 결과와 상기 터치 입력의 좌표에 기초하여, 상기 식품(AA 우유)에 대한 식품 관리 정보(704)를 생성할 수 있다. 식품 관리 정보(704)는, 상기 식품의 좌표값, 식별정보(식품명), 고유정보(예컨대 UUID(unique user identifier) 등), 등록일자 등의 정보를 포함할 수 있다.The processor 161 may generate the food management information 704 for the food (AA milk) based on the recognition result of the voice 703 and the coordinates of the touch input. The food management information 704 may include information such as coordinate values of the food, identification information (food name), unique information (eg, unique user identifier (UUID), etc.), registration date, and the like.

즉, 프로세서(161)는 이미지(700) 중 상기 좌표값에 대응하는 위치에는 상기 식품(AA 우유)이 존재하는 것으로 인식할 수 있다. 이에 따라, 이미지 처리 기법을 통해 이미지로부터 식품을 인식하지 않고도, 이미지에 포함된 식품의 식별이 가능하다.That is, the processor 161 may recognize that the food (AA milk) exists at a position corresponding to the coordinate value in the image 700 . Accordingly, it is possible to identify the food included in the image without recognizing the food from the image through the image processing technique.

프로세서(161)는 생성된 식품 관리 정보(704)를 메모리(140)의 식품 관리 DB(142)에 저장함으로써, 상기 식품의 등록을 완료할 수 있다. 식품의 등록이 완료된 경우, 프로세서(161)는 스피커(130) 또는 디스플레이(102)를 통해, 상기 식품이 등록되었음을 사용자에게 알릴 수 있다.The processor 161 may complete the registration of the food by storing the generated food management information 704 in the food management DB 142 of the memory 140 . When the food registration is completed, the processor 161 may notify the user that the food has been registered through the speaker 130 or the display 102 .

또한, 프로세서(161)는 상기 좌표값에 대응하는 위치에 상기 식품(AA 우유)과 관련된 정보를 포함하는 태그(705)를 표시하도록 디스플레이 컨트롤러(162) 및 디스플레이(102)를 제어할 수도 있다. 표시된 태그(705)는 상기 생성된 식품 관리 정보(704) 중 적어도 일부를 포함할 수 있다.In addition, the processor 161 may control the display controller 162 and the display 102 to display the tag 705 including information related to the food (AA milk) at a position corresponding to the coordinate value. The displayed tag 705 may include at least a portion of the generated food management information 704 .

즉, 도 7의 실시 예에 따르면, 냉장고(10)는 터치 입력과 음성 입력에 기반하여 등록할 식품을 정확히 인식할 수 있다. 또한, 사용자는 식품의 등록을 위한 절차를 한 번의 터치 입력과 음성 입력으로 간소화할 수 있으므로, 사용자의 편의성 또한 증대될 수 있다.That is, according to the embodiment of FIG. 7 , the refrigerator 10 may accurately recognize food to be registered based on a touch input and a voice input. In addition, since the user can simplify the procedure for registering food with one touch input and voice input, the user's convenience can also be increased.

한편, 냉장고(10)는 상기 터치 입력의 좌표값에 기초하여, 이미지(700) 중 상기 식품의 식품 이미지(701)를 추출할 수도 있다.Meanwhile, the refrigerator 10 may extract the food image 701 of the food from the image 700 based on the coordinate value of the touch input.

이와 관련하여 도 8을 참조하면, 냉장고(10)는 상술한 터치 입력 및 식품의 등록 명령을 포함하는 음성을 수신할 수 있다(S200).In this regard, referring to FIG. 8 , the refrigerator 10 may receive the above-described touch input and a voice including a food registration command ( S200 ).

냉장고(10)는 이미지 처리 기법을 통해, 수신된 터치 입력의 좌표를 포함하는 식품 이미지를 추출할 수 있다(S210).The refrigerator 10 may extract a food image including the coordinates of the received touch input through an image processing technique (S210).

프로세서(161)는 상기 터치 입력의 좌표를 포함하는 제어 신호를 이미지 처리 프로세서(164)로 전송할 수 있다. 이미지 처리 프로세서(164)는 수신된 제어 신호에 응답하여, 이미지(700) 중 상기 터치 입력의 좌표를 포함하는 식품 이미지(701)를 추출할 수 있다.The processor 161 may transmit a control signal including the coordinates of the touch input to the image processing processor 164 . The image processing processor 164 may extract the food image 701 including the coordinates of the touch input from the image 700 in response to the received control signal.

예컨대, 이미지 처리 프로세서(164)는 기 공지된 윤곽선(또는 엣지) 추출 기법을 이용하여, 이미지(700) 중 상기 좌표를 포함하는 부분 이미지의 윤곽선을 추출하고, 추출된 윤곽선에 기초하여 식품 이미지(701)를 추출할 수 있다. 또는, 이미지 처리 프로세서(164)는 기 공지된 각종 이미지 처리 기법을 이용하여 상기 식품 이미지(701)를 추출할 수도 있다.For example, the image processing processor 164 uses a known contour (or edge) extraction technique to extract the contour of the partial image including the coordinates in the image 700, and based on the extracted contour, the food image ( 701) can be extracted. Alternatively, the image processing processor 164 may extract the food image 701 using various known image processing techniques.

프로세서(161)는 이미지 처리 프로세서(164)에 의해 추출된 식품 이미지(701)를 포함하는 상기 식품 관리 정보(704)를 생성하고, 생성된 식품 관리 정보(704)를 식품 관리 DB(142)에 저장할 수 있다.The processor 161 generates the food management information 704 including the food image 701 extracted by the image processing processor 164 , and stores the generated food management information 704 in the food management DB 142 . can be saved

한편, 식품 이미지(701)는 별도의 데이터베이스에 저장될 수 있다. 이 경우, 냉장고(10) 또는 서버는 데이터베이스에 누적 저장되는 식품 이미지들을 이용하여, 상술한 음성 인식기와 유사하게 인공지능 기반의 이미지 인식기를 구축할 수 있다. 이에 따라, 냉장고(10)는 추후 카메라(110)를 통해 획득된 이미지에 포함된 다양한 식품들 각각을, 상기 이미지 인식기를 통해 정확히 인식할 수 있다.Meanwhile, the food image 701 may be stored in a separate database. In this case, the refrigerator 10 or the server may build an artificial intelligence-based image recognizer similar to the above-described voice recognizer using food images accumulated and stored in the database. Accordingly, the refrigerator 10 may accurately recognize each of the various foods included in the image acquired through the camera 110 later through the image recognizer.

도 9는 도 6에 도시된 냉장고의 동작과 관련하여, 냉장고가 특정 식품의 구매 기능을 제공하는 동작을 설명하기 위한 예시도이다.9 is an exemplary view for explaining an operation of the refrigerator providing a purchase function of a specific food in relation to the operation of the refrigerator shown in FIG. 6 .

도 9를 참조하면, 냉장고(10)는 카메라(110)에 의해 획득된 냉장고(10) 내부의 이미지(900)를 디스플레이 장치(100)를 통해 표시할 수 있다. 이미지(900)에는 냉장고(10)의 내부에 보관 중인 적어도 하나의 식품 각각의 식품 이미지가 포함될 수 있다.Referring to FIG. 9 , the refrigerator 10 may display an image 900 of the interior of the refrigerator 10 acquired by the camera 110 through the display device 100 . The image 900 may include a food image of each of at least one food stored in the refrigerator 10 .

사용자(USER)는 이미지(900)에 포함된 적어도 하나의 식품 이미지 중 어느 하나의 식품 이미지(901)에 대응하는 위치를 터치(902)할 수 있다. 또한, 사용자(USER)는 상기 어느 하나의 식품 이미지(901)에 대응하는 식품의 구매를 요청하는 구매 명령을 포함하는 음성(903)을 발화할 수 있다. 예컨대, 등록하고자 하는 식품이 'AA 우유'인 경우, 사용자는 “Hi LG, 3일 후에 AA 우유 1000ml 구매해줘”와 같은 음성(903)을 발화할 수 있다. 상기 음성(903)에는 식품의 식별정보(식품명)로서 'AA 우유 1000ml'가 포함되고, 명령으로서 '3일 후 구매'가 포함될 수 있다.The user USER may touch 902 a position corresponding to any one food image 901 among at least one food image included in the image 900 . Also, the user USER may utter a voice 903 including a purchase command for requesting purchase of food corresponding to any one of the food images 901 . For example, when the food to be registered is 'AA milk', the user may utter a voice 903 such as "Hi LG, buy 1000 ml of AA milk in 3 days". The voice 903 may include 'AA milk 1000ml' as food identification information (food name), and 'purchase after 3 days' as a command.

프로세서(161)는, 터치 패널(101)을 통해 상기 터치(902)에 대응하는 터치 입력을 수신하고, 수신된 터치 입력의 좌표를 획득할 수 있다. 프로세서(161)는 식품 관리 DB(142)로부터, 상기 좌표에 대응하는 식품 관리 정보를 획득할 수 있다.The processor 161 may receive a touch input corresponding to the touch 902 through the touch panel 101 and obtain coordinates of the received touch input. The processor 161 may obtain food management information corresponding to the coordinates from the food management DB 142 .

또한, 프로세서(161)는 마이크로폰(120)을 통해 상기 음성(903)을 수신하고, 수신된 음성(903)을 음성 인식 모듈(165)로 입력할 수 있다. 음성 인식 모듈(165)은 상술한 인공지능 기반의 음성 인식기를 통해, 음성(903)에 포함된 상기 식별정보(식품명)와 명령을 인식할 수 있다.In addition, the processor 161 may receive the voice 903 through the microphone 120 and input the received voice 903 to the voice recognition module 165 . The voice recognition module 165 may recognize the identification information (food name) and commands included in the voice 903 through the above-described artificial intelligence-based voice recognizer.

프로세서(161)는 음성(903)의 인식 결과와 상기 터치 입력의 좌표에 대응하는 식품 관리 정보에 기초하여, 상기 식품(AA 우유)의 일치 여부를 확인할 수 있다. The processor 161 may check whether the food (AA milk) matches or not based on the recognition result of the voice 903 and the food management information corresponding to the coordinates of the touch input.

즉, 프로세서(161)는 인식 결과에 포함된 식별정보(식품명)와, 식품 관리 정보에 포함된 식품명이 일치하는 경우, 상기 식품(AA 우유)을 인식할 수 있다. 반면, 프로세서(161)는 인식 결과에 포함된 식별정보(식품명)와, 식품 관리 정보에 포함된 식품명이 일치하지 않는 경우, 사용자의 재입력을 요청할 수 있다.That is, when the identification information (food name) included in the recognition result matches the food name included in the food management information, the processor 161 may recognize the food (AA milk). On the other hand, when the identification information (food name) included in the recognition result and the food name included in the food management information do not match, the processor 161 may request the user to re-enter.

상기 식품이 인식된 경우, 프로세서(161)는 인식 결과에 포함된 구매 명령을 처리할 수 있다. When the food is recognized, the processor 161 may process a purchase command included in the recognition result.

예컨대, 프로세서(161)는 상기 구매 명령에 기초하여, 주문 타이머, 주문 식품, 주문 용량, 및 주문 수량 중 적어도 하나를 포함하도록 식품 관리 정보(904)를 업데이트할 수 있다.For example, the processor 161 may update the food management information 904 to include at least one of an order timer, an order food, an order capacity, and an order quantity, based on the purchase instruction.

프로세서(161)는 업데이트된 식품 관리 정보(904)를 메모리(140)의 식품 관리 DB(142)에 저장할 수 있다. 프로세서(161)는 스피커(130) 또는 디스플레이(102)를 통해, 사용자의 명령이 처리되었음을 알릴 수 있다.The processor 161 may store the updated food management information 904 in the food management DB 142 of the memory 140 . The processor 161 may notify that the user's command has been processed through the speaker 130 or the display 102 .

또한, 프로세서(161)는 상기 좌표값에 대응하는 위치에 상기 식품(AA 우유)의 업데이트된 관리 정보 중 적어도 일부를 포함하는 태그(905)를 표시하도록 디스플레이 컨트롤러(162) 및 디스플레이(102)를 제어할 수도 있다. In addition, the processor 161 controls the display controller 162 and the display 102 to display the tag 905 including at least a part of the updated management information of the food (AA milk) at a position corresponding to the coordinate value. You can also control it.

도시되지는 않았으나, 프로세서(161)는 상기 업데이트된 식품 관리 정보(904)에 기초하여, 3일 후에 AA 우유의 구매 기능을 수행할 수 있다. 프로세서(161)는 통신부(150)를 통해 식품의 판매 서비스를 제공하는 서버로 접속하고, 상기 서버로 AA 우유의 구매를 위한 구매 정보를 전송함으로써, 상기 구매 기능을 수행할 수 있다. 예컨대, 상기 구매 정보는 식품 정보, 주소 정보, 결제 정보 등을 포함할 수 있다. Although not shown, the processor 161 may perform a function of purchasing AA milk after 3 days based on the updated food management information 904 . The processor 161 may perform the purchase function by connecting to a server providing a food sales service through the communication unit 150 and transmitting purchase information for purchasing AA milk to the server. For example, the purchase information may include food information, address information, payment information, and the like.

즉, 도 9의 실시 예에 따르면, 냉장고(10)는 터치 입력과 음성 입력에 기반하여 사용자가 구매하고자 하는 식품을 정확히 인식할 수 있다. 또한, 사용자는 식품의 구매를 위한 절차를 한 번의 터치 입력과 음성 입력으로 간소화할 수 있으므로, 사용자의 편의성 또한 증대될 수 있다.That is, according to the embodiment of FIG. 9 , the refrigerator 10 may accurately recognize the food that the user wants to purchase based on the touch input and the voice input. In addition, since the user can simplify the procedure for purchasing food with one touch input and voice input, the user's convenience can also be increased.

비록 도시되지는 않았으나, 냉장고(10)는 상술한 식품의 등록 기능 및 구매 기능 외의 추가적인 기능들을 유사한 방식으로 제공할 수 있다.Although not shown, the refrigerator 10 may provide additional functions other than the above-described food registration function and purchase function in a similar manner.

일례로, 냉장고(10)는 상기 터치 입력과 음성 입력에 기초하여, 인식된 식품에 대한 레시피 정보를 제공할 수도 있다. 도 9와 유사하게, 프로세서(161)는 통신부(150)를 통해 레시피 제공 서버로 접속하고, 상기 서버로부터 상기 인식된 식품과 관련된 레시피 정보를 획득하고, 획득된 레시피 정보를 디스플레이(102)를 통해 사용자에게 제공할 수 있다.For example, the refrigerator 10 may provide recipe information about the recognized food based on the touch input and the voice input. Similarly to FIG. 9 , the processor 161 accesses the recipe providing server through the communication unit 150 , obtains recipe information related to the recognized food from the server, and displays the obtained recipe information through the display 102 . can be provided to users.

다른 예로, 냉장고(10)는 상기 터치 입력과 음성 입력에 기초하여, 식품 관리 정보를 식품 관리 DB(142)로부터 삭제하는 기능을 수행할 수도 있다. 예컨대, 디스플레이(102)에 표시된 이미지As another example, the refrigerator 10 may perform a function of deleting food management information from the food management DB 142 based on the touch input and the voice input. For example, an image displayed on display 102

도 10은 디스플레이 장치가 냉장고 내부의 식품이 외부로 투시되도록 투명 디스플레이로 구현되는 경우, 냉장고가 사용자의 터치 입력에 기반하여 식품을 인식하는 실시 예를 설명하기 위한 플로우차트이다.10 is a flowchart for describing an embodiment in which the refrigerator recognizes food based on a user's touch input when the display device is implemented as a transparent display so that food inside the refrigerator is transparent to the outside.

본 발명의 실시 예에 따른 냉장고(10)의 디스플레이 장치(100)는 투명 디스플레이로 구현될 수 있다. 이 경우, 사용자는 냉장고(10) 내의 식품들을 디스플레이(102)를 통해 육안으로 확인할 수 있다.The display apparatus 100 of the refrigerator 10 according to an embodiment of the present invention may be implemented as a transparent display. In this case, the user can visually check the foods in the refrigerator 10 through the display 102 .

예컨대, 냉장고(10)의 저장실에 대응하는 라이트(조명)를 점등시키는 경우, 저장실 내부가 밝아지게 되고, 그 결과 디스플레이(102)를 통해 내부의 가시화가 가능하게 된다. 반면, 디스플레이(102)에 대응하는 라이트를 점등시키고 상기 저장실에 대응하는 라이트를 소등시키는 경우, 디스플레이(102)에 표시되는 화면에 의해 저장실 내부의 가시화가 불가능해질 수 있다. 한편, 저장실에 대응하는 라이트 및 디스플레이(102)에 대응하는 라이트 각각을 점등시키는 경우, 사용자는 저장실 내부의 식품들에 오버랩되어 표시되는 화면을 확인할 수도 있다.For example, when a light (illumination) corresponding to the storage compartment of the refrigerator 10 is turned on, the interior of the storage compartment becomes bright, and as a result, the interior can be visualized through the display 102 . On the other hand, when the light corresponding to the display 102 is turned on and the light corresponding to the storage compartment is turned off, visualization of the inside of the storage compartment may be impossible by the screen displayed on the display 102 . On the other hand, when the light corresponding to the storage compartment and the light corresponding to the display 102 are respectively turned on, the user may check a screen displayed overlapping the foods in the storage compartment.

이에 기초하여 도 10을 참조하면, 냉장고(10)는 냉장고 내부의 식품들을 포함하는 이미지를 획득할 수 있다(S300). S300 단계는 도 6의 S100 단계 내지 S120 단계와 실질적으로 동일한 바, 이에 대한 설명은 생략한다.Based on this, referring to FIG. 10 , the refrigerator 10 may acquire an image including foods inside the refrigerator ( S300 ). Step S300 is substantially the same as steps S100 to S120 of FIG. 6 , and a description thereof will be omitted.

냉장고(10)는, 냉장고 내부의 식품들이 디스플레이(102)를 통해 투시되도록 라이트를 제어할 수 있다(S310).The refrigerator 10 may control the light so that the food inside the refrigerator is transmitted through the display 102 (S310).

프로세서(161)는 저장실에 대응하는 라이트를 점등시켜, 저장실에 보관된 식품들이 디스플레이(102)를 통해 외부로 투시되도록 할 수 있다. 상기 라이트가 점등됨에 따라, 사용자는 디스플레이(102)를 통해 상기 식품들을 육안으로 확인할 수 있다.The processor 161 may turn on a light corresponding to the storage compartment, so that the food stored in the storage compartment is transmitted through the display 102 to the outside. As the light is turned on, the user can visually check the food through the display 102 .

냉장고(10)는 상기 투시된 식품들 중 어느 하나의 식품에 대응하는 좌표의 터치 입력을 수신할 수 있다(S320).The refrigerator 10 may receive a touch input of coordinates corresponding to any one of the projected foods (S320).

도 6의 S130 단계와 유사하게, 사용자는 상기 디스플레이(102)를 통해 투시되는 식품들 중 어느 하나의 식품이 투시된 위치를 터치할 수 있다. 또한, 사용자는 상기 식품에 대한 기능을 제공받기 위한 음성을 발화할 수 있다.Similar to step S130 of FIG. 6 , the user may touch a position through which any one of the foods is seen through the display 102 . In addition, the user may utter a voice for receiving the function for the food.

프로세서(161)는 터치 패널(101)을 통해 사용자의 터치 입력을 수신하고, 수신된 터치 입력에 기초하여 상기 터치 입력의 좌표를 획득할 수 있다.The processor 161 may receive a user's touch input through the touch panel 101 and obtain coordinates of the touch input based on the received touch input.

또한, 프로세서(161)는 마이크로폰(120)을 통해 상기 음성을 수신하고, 음성 인식 모듈(165)을 통해 상기 음성을 인식할 수 있다.In addition, the processor 161 may receive the voice through the microphone 120 and recognize the voice through the voice recognition module 165 .

냉장고(10)는, 획득된 터치 입력의 좌표를, S300 단계에서 획득된 이미지의 좌표로 변환하고(S330), 변환된 좌표에 기초하여 상기 이미지에 포함된 식품을 인식할 수 있다(S340).The refrigerator 10 may convert the obtained coordinates of the touch input into the coordinates of the image obtained in step S300 (S330), and recognize food included in the image based on the converted coordinates (S340).

예컨대, 디스플레이(102)를 통해 외부로 투시되는 식품의 위치와, 카메라(110)에 의해 획득된 이미지에 포함된 식품의 위치는 서로 다를 수 있다. 이 경우, 프로세서(161)는 상기 터치 입력의 좌표에 대응하는 식품이 카메라(110)에 의해 획득된 이미지에 포함된 식품들 중 어느 식품에 해당하는지를 인식할 필요가 있다.For example, the position of the food projected to the outside through the display 102 and the position of the food included in the image acquired by the camera 110 may be different from each other. In this case, the processor 161 needs to recognize which food corresponds to the food corresponding to the coordinates of the touch input among the foods included in the image acquired by the camera 110 .

이에 따라, 프로세서(161)는, 터치 입력의 좌표를 상기 이미지 내의 좌표로 변환하여, 사용자가 터치 입력을 통해 선택한 식품이 이미지 내에서 어느 위치에 존재하는지를 인식할 수 있다.Accordingly, the processor 161 converts the coordinates of the touch input into coordinates in the image, and recognizes where the food selected by the user through the touch input exists in the image.

한편, 냉장고 내부의 식품들이 디스플레이(102)를 통해 투시되는 경우, 사용자의 눈 위치에 따라 동일한 식품에 대한 터치 입력의 좌표가 서로 다를 수 있다. Meanwhile, when foods in the refrigerator are seen through the display 102 , coordinates of a touch input for the same food may be different depending on the user's eye position.

냉장고(10)는 도어 외부 또는 본체의 외부에 배치되어, 사용자의 눈 위치를 검출하는 카메라를 더 구비할 수도 있다. 프로세서(161)는 상기 카메라를 이용하여 검출된 눈 위치에 기초하여, 상기 터치 입력의 좌표를 기준 좌표로 변환하고, 변환된 기준 좌표를 상기 이미지 내의 좌표로 변환할 수도 있다.The refrigerator 10 may further include a camera disposed outside the door or outside the main body to detect the user's eye position. The processor 161 may convert the coordinates of the touch input into reference coordinates based on the eye position detected using the camera, and convert the converted reference coordinates into coordinates in the image.

프로세서(161)는 상기 변환된 좌표와, 음성 인식 모듈(165)의 인식 결과에 기초하여 식품을 정확히 인식할 수 있고, 인식된 식품에 대한 기능을 제공할 수 있다.The processor 161 may accurately recognize food based on the converted coordinates and the recognition result of the voice recognition module 165, and may provide a function for the recognized food.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. The above description is merely illustrative of the technical spirit of the present invention, and various modifications and variations will be possible without departing from the essential characteristics of the present invention by those skilled in the art to which the present invention pertains.

따라서, 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments.

본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다. The protection scope of the present invention should be construed by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.

Claims (11)

도어에 설치되고, 터치 패널과 디스플레이를 포함하는 디스플레이 장치;
내부에 보관된 식품들을 포함하는 이미지를 획득하는 카메라;
획득된 이미지를 표시하도록 상기 디스플레이를 제어하는 디스플레이 컨트롤러;
음성을 획득하는 마이크로폰;
식품 관리 정보를 저장하는 메모리;
획득된 음성을 인식하여 인식 결과를 출력하는 음성 인식 모듈; 및
상기 터치 패널을 통해 수신되는 터치 입력의 좌표를 획득하고,
획득된 좌표와 상기 음성의 인식 결과에 기초하여, 상기 이미지에 포함되는 식품들 중 사용자에 의해 선택된 특정 식품을 인식하고 상기 인식된 식품에 대한 기능을 수행하는 프로세서를 포함하고,
상기 프로세서는,
상기 메모리로부터 상기 획득된 좌표에 대응하는 식품의 식품 관리 정보를 획득하고,
획득된 식품 관리 정보에 포함된 식별 정보와, 상기 음성의 인식 결과에 포함되는 식별 정보를 비교하고,
비교 결과 상기 획득된 식품 관리 정보에 포함된 식별 정보와 상기 인식 결과에 포함된 식별 정보가 일치하는 경우 상기 특정 식품을 인식하고, 상기 인식된 식품에 대한 기능을 수행하는
냉장고.
a display device installed on the door and including a touch panel and a display;
A camera for acquiring an image including the food stored therein;
a display controller controlling the display to display the acquired image;
a microphone for acquiring voice;
a memory for storing food management information;
a voice recognition module for recognizing the acquired voice and outputting a recognition result; and
Obtaining the coordinates of the touch input received through the touch panel,
A processor for recognizing a specific food selected by a user from among the foods included in the image based on the obtained coordinates and the recognition result of the voice and performing a function on the recognized food,
The processor is
Obtaining food management information of food corresponding to the obtained coordinates from the memory,
Comparing the identification information included in the obtained food management information with the identification information included in the recognition result of the voice,
As a result of comparison, if the identification information included in the acquired food management information matches the identification information included in the recognition result, the specific food is recognized and a function for the recognized food is performed
Refrigerator.
제1항에 있어서,
상기 음성 인식 모듈은,
상기 음성의 주파수 특성에 기초하여 상기 음성에 포함된 적어도 하나의 부분 음성 각각을 인식하는 인식 모델을 갖는 음성 인식기를 포함하고,
상기 적어도 하나의 부분 음성 각각은, 상기 이미지에 포함된 식품의 식별 정보, 또는 상기 식품에 대한 상기 기능과 관련된 명령인 냉장고.
According to claim 1,
The voice recognition module,
A speech recognizer having a recognition model for recognizing each of the at least one partial speech included in the speech based on the frequency characteristic of the speech,
Each of the at least one partial voice is identification information of food included in the image or a command related to the function of the food refrigerator.
제2항에 있어서,
상기 음성 인식기는,
상기 적어도 하나의 부분 음성 각각의 주파수 특성과, 상기 적어도 하나의 부분 음성 각각의 인식 결과를 이용하여 상기 인식 모델을 업데이트하는 냉장고.
3. The method of claim 2,
The voice recognizer,
The refrigerator is configured to update the recognition model by using a frequency characteristic of each of the at least one partial voice and a recognition result of each of the at least one partial voice.
제2항에 있어서,
상기 인식 결과에 상기 식품의 등록과 관련된 명령이 포함된 경우, 상기 프로세서는,
상기 획득된 좌표와 상기 식품의 식별 정보를 포함하는 식품 관리 정보를 생성하고,
생성된 식품 관리 정보를 메모리에 저장하는 냉장고.
3. The method of claim 2,
When the recognition result includes a command related to the registration of the food, the processor,
To generate food management information including the obtained coordinates and identification information of the food,
A refrigerator that stores the generated food management information in memory.
제4항에 있어서,
상기 디스플레이 컨트롤러는,
상기 식품 관리 정보 중 적어도 일부를 포함하는 태그를 상기 좌표에 대응하는 위치에 표시하도록 상기 디스플레이를 제어하는 냉장고.
5. The method of claim 4,
The display controller is
A refrigerator for controlling the display to display a tag including at least a portion of the food management information at a position corresponding to the coordinates.
제2항에 있어서,
상기 인식 결과에 상기 식품의 구매와 관련된 명령이 포함된 경우, 상기 프로세서는,
메모리로부터 상기 좌표에 대응하는 식품 관리 정보를 획득하고,
상기 명령에 기초하여, 상기 인식 결과로부터 획득되는 주문 식품, 주문 수량, 및 주문 타이머 중 적어도 하나를 포함하도록 상기 식품 관리 정보를 업데이트하는 냉장고.
3. The method of claim 2,
If the recognition result includes a command related to the purchase of the food, the processor,
Obtaining food management information corresponding to the coordinates from the memory,
Refrigerator for updating the food management information to include at least one of an order food obtained from the recognition result, an order quantity, and an order timer, based on the command.
제6항에 있어서,
상기 프로세서는,
상기 명령에 기초하여, 통신부를 통해 상기 식품의 판매 서비스 제공 서버로 접속하고,
상기 식품의 구매 정보를 상기 판매 서비스 제공 서버로 전송하는 냉장고.
7. The method of claim 6,
The processor is
Based on the command, access to the food sales service providing server through the communication unit,
A refrigerator for transmitting the purchase information of the food to the sales service providing server.
삭제delete 제1항에 있어서,
상기 획득된 좌표에 기초하여, 상기 획득된 이미지로부터 상기 좌표를 포함하는 식품 이미지를 추출하는 이미지 처리 프로세서를 더 포함하는 냉장고.
According to claim 1,
Refrigerator further comprising an image processing processor for extracting a food image including the coordinates from the acquired image based on the acquired coordinates.
제1항에 있어서,
상기 디스플레이는 투명 디스플레이로 구현되고,
상기 프로세서는,
상기 투명 디스플레이를 통해 외부로 투시되는 식품들 중 어느 하나의 식품이 투시된 위치에 대응하는 터치 입력을 상기 터치 패널을 통해 수신하고,
수신된 터치 입력의 좌표를, 상기 획득된 이미지 상의 대응하는 좌표로 변환하는 냉장고.
According to claim 1,
The display is implemented as a transparent display,
The processor is
Receives a touch input corresponding to a position through which any one of the foods seen to the outside through the transparent display is transmitted through the touch panel,
A refrigerator that converts the coordinates of the received touch input into corresponding coordinates on the acquired image.
제10항에 있어서,
상기 프로세서는,
상기 변환된 좌표와 상기 음성의 인식 결과에 기초하여, 상기 이미지 내의 상기 변환된 좌표에 대응하는 식품을 인식하고, 인식된 식품에 대한 기능을 수행하는 냉장고.
11. The method of claim 10,
The processor is
A refrigerator for recognizing food corresponding to the converted coordinates in the image based on the converted coordinates and a result of recognition of the voice, and performing a function on the recognized food.
KR1020180141529A 2018-11-16 2018-11-16 Artificial intelligence refrigerator including display apparatus KR102377971B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180141529A KR102377971B1 (en) 2018-11-16 2018-11-16 Artificial intelligence refrigerator including display apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180141529A KR102377971B1 (en) 2018-11-16 2018-11-16 Artificial intelligence refrigerator including display apparatus

Publications (2)

Publication Number Publication Date
KR20200064181A KR20200064181A (en) 2020-06-08
KR102377971B1 true KR102377971B1 (en) 2022-03-25

Family

ID=71090045

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180141529A KR102377971B1 (en) 2018-11-16 2018-11-16 Artificial intelligence refrigerator including display apparatus

Country Status (1)

Country Link
KR (1) KR102377971B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112419432A (en) * 2020-11-11 2021-02-26 珠海格力电器股份有限公司 Method and device for controlling food in refrigerator, electronic equipment and storage medium
CN114485038A (en) * 2022-02-11 2022-05-13 海信(山东)冰箱有限公司 Refrigerator and food material positioning method and system
WO2023249138A1 (en) * 2022-06-23 2023-12-28 엘지전자 주식회사 Refrigerator and control method therefor

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120116207A (en) * 2011-04-12 2012-10-22 엘지전자 주식회사 A display device and a refrigerator comprising the display device
KR20150026412A (en) 2013-09-03 2015-03-11 엘지전자 주식회사 Electric product
KR101680668B1 (en) * 2015-01-13 2016-11-29 엘지전자 주식회사 Refrigerator and Controlling Method for the same
KR102434867B1 (en) * 2016-08-31 2022-08-22 엘지전자 주식회사 Refrigerator and method for controlling the same
KR102412202B1 (en) * 2017-01-03 2022-06-27 삼성전자주식회사 Refrigerator and method of displaying information thereof
KR102018639B1 (en) * 2017-01-03 2019-09-05 삼성전자주식회사 Food storage apparatus and method for thereof
KR102648233B1 (en) * 2017-01-09 2024-03-18 삼성전자주식회사 Refrigerator, And Control Method of Refrigerator

Also Published As

Publication number Publication date
KR20200064181A (en) 2020-06-08

Similar Documents

Publication Publication Date Title
US11544524B2 (en) Electronic device and method of obtaining emotion information
US11353259B2 (en) Augmented-reality refrigerator and method of controlling thereof
US20220116340A1 (en) Electronic device and method for changing chatbot
US11908465B2 (en) Electronic device and controlling method thereof
KR102377971B1 (en) Artificial intelligence refrigerator including display apparatus
US11954150B2 (en) Electronic device and method for controlling the electronic device thereof
US11721333B2 (en) Electronic apparatus and control method thereof
EP3820369B1 (en) Electronic device and method of obtaining emotion information
US20200133211A1 (en) Electronic device and method for controlling electronic device thereof
US11599928B2 (en) Refrigerator and method for managing products in refrigerator
KR102515023B1 (en) Electronic apparatus and control method thereof
KR20200032625A (en) Refrigerator and method of controlling thereof
CN110121696B (en) Electronic device and control method thereof
KR20210134092A (en) How to manage refrigerators and items in refrigerators
US20240095143A1 (en) Electronic device and method for controlling same
US11436558B2 (en) Refrigerator, operating method thereof and information providing system
KR20190140519A (en) Electronic apparatus and controlling method thereof
KR20200044173A (en) Electronic apparatus and control method thereof
KR20230169016A (en) Electronic apparatus and controlling method thereof
CN115879508A (en) Data processing method and related device
KR102499379B1 (en) Electronic device and method of obtaining feedback information thereof
CN115545738A (en) Recommendation method and related device
CN117077812B (en) Network training method, sleep state evaluation method and related equipment
CN115905932A (en) Data processing method and related equipment

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X601 Decision of rejection after re-examination
J201 Request for trial against refusal decision
J301 Trial decision

Free format text: TRIAL NUMBER: 2021101000171; TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20210121

Effective date: 20220119

GRNO Decision to grant (after opposition)