KR20220059726A - 조리 기기 및 그의 동작 방법 - Google Patents
조리 기기 및 그의 동작 방법 Download PDFInfo
- Publication number
- KR20220059726A KR20220059726A KR1020200145252A KR20200145252A KR20220059726A KR 20220059726 A KR20220059726 A KR 20220059726A KR 1020200145252 A KR1020200145252 A KR 1020200145252A KR 20200145252 A KR20200145252 A KR 20200145252A KR 20220059726 A KR20220059726 A KR 20220059726A
- Authority
- KR
- South Korea
- Prior art keywords
- pedestal
- height
- cooking
- food material
- cooking appliance
- Prior art date
Links
- 238000010411 cooking Methods 0.000 title claims abstract description 169
- 238000011017 operating method Methods 0.000 title 1
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 claims abstract description 121
- 235000013305 food Nutrition 0.000 claims description 66
- 239000000463 material Substances 0.000 claims description 61
- 238000000034 method Methods 0.000 claims description 35
- 230000003028 elevating effect Effects 0.000 claims description 33
- 230000008859 change Effects 0.000 claims description 17
- 238000004891 communication Methods 0.000 claims description 14
- 238000010438 heat treatment Methods 0.000 claims description 12
- 238000001514 detection method Methods 0.000 claims description 10
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 238000010801 machine learning Methods 0.000 claims description 5
- 238000013135 deep learning Methods 0.000 claims description 3
- 239000004615 ingredient Substances 0.000 abstract description 17
- 230000008569 process Effects 0.000 description 23
- 235000012041 food component Nutrition 0.000 description 14
- 239000005417 food ingredient Substances 0.000 description 14
- 238000012549 training Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 8
- 238000013473 artificial intelligence Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000002372 labelling Methods 0.000 description 4
- 238000003058 natural language processing Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000251468 Actinopterygii Species 0.000 description 1
- 235000002767 Daucus carota Nutrition 0.000 description 1
- 244000000626 Daucus carota Species 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 235000012820 baking ingredients and mixes Nutrition 0.000 description 1
- 235000015278 beef Nutrition 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 235000008429 bread Nutrition 0.000 description 1
- 235000012970 cakes Nutrition 0.000 description 1
- 239000003638 chemical reducing agent Substances 0.000 description 1
- 235000014510 cooky Nutrition 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 235000021185 dessert Nutrition 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 235000013550 pizza Nutrition 0.000 description 1
- 244000144977 poultry Species 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47J—KITCHEN EQUIPMENT; COFFEE MILLS; SPICE MILLS; APPARATUS FOR MAKING BEVERAGES
- A47J36/00—Parts, details or accessories of cooking-vessels
- A47J36/32—Time-controlled igniting mechanisms or alarm devices
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47J—KITCHEN EQUIPMENT; COFFEE MILLS; SPICE MILLS; APPARATUS FOR MAKING BEVERAGES
- A47J37/00—Baking; Roasting; Grilling; Frying
- A47J37/06—Roasters; Grills; Sandwich grills
- A47J37/0623—Small-size cooking ovens, i.e. defining an at least partially closed cooking cavity
- A47J37/0664—Accessories
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/68—Food, e.g. fruit or vegetables
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Food Science & Technology (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Electric Stoves And Ranges (AREA)
Abstract
본 개시의 일 실시 예에 따른 조리 기기는 카메라를 통해 촬영된 이미지로부터, 받침대에 놓여진 식재료의 식별 정보를 획득하고, 획득된 식별 정보에 상응하는 상기 받침대의 높이를 결정하고, 상기 결정된 받침대의 높이로 이동하도록 승강부를 제어할 수 있다.
Description
본 개시(disclosure)는 조리 기기의 내부에 위치한 받침대의 위치를 조절할 수 있는 것에 관한 것이다.
오븐과 같은 열을 이용하는 조리 기기는 일상 생활에 있어서 필수적인 가전 제품이다.
조리 기기는 조리실 내부의 식재료를 가열하여 조리를 하게 된다.
조리실 내부에는 식재료를 수납하는 탈착 가능한 받침대가 구비된다. 받침대는 조리 대상인 식재료에 따라 적정한 위치가 존재한다.
그러나, 탈착식 받침대의 경우, 사용자가 받침대의 위치를 조절하기 위해, 직접 받침대를 탈거한 후, 원하는 위치에 장착해야 하는 어려움이 있다.
또한, 조리 기기의 매뉴얼을 통해 받침대의 적정 위치가 제공되고 있지만, 직관적이지 못해, 사용자가 각 조리 대상에 따른 적정한 받침대의 위치가 어디인지 파악하기 어려운 문제가 있다.
본 개시는 인식된 식재료에 맞는 위치로 받침대의 위치를 조절할 수 있는 조리 기기의 제공을 그 목적으로 한다.
본 개시는 영상을 통해 식재료를 인식하여, 인식된 식재료에 맞는 받침대의 위치를 조절할 수 있는 조리 기기의 제공을 그 목적으로 한다.
본 개시는 사용자 입력을 통해 식재료에 맞는 받침대의 위치를 조절할 수 있는 조리 기기의 제공을 그 목적으로 한다.
본 개시는 식재료의 조리 중 식재료의 상태 변화에 기초하여, 상태 변화에 맞는 받침대의 높이로, 받침대의 위치를 조절할 수 있는 조리 기기의 제공을 그 목적으로 한다.
본 개시의 일 실시 예에 따른 조리 기기는 카메라를 통해 촬영된 이미지로부터, 받침대에 놓여진 식재료의 식별 정보를 획득하고, 획득된 식별 정보에 상응하는 상기 받침대의 높이를 결정하고, 상기 결정된 받침대의 높이로 이동하도록 승강부를 제어할 수 있다.
본 개시의 실시 예에 따른 조리 기기는 식재료의 식별 정보에 상기 받침대의 높이를 매칭시킨 식재료 테이블을 이용하여, 상기 식별 정보에 매칭된 상기 받침대의 높이를 결정할 수 있다.
본 개시의 실시 예에 따른 조리 기기는 식재료의 상태 변화를 감지하고, 감지된 상태 변화에 맞는 높이로, 상기 받침대의 높이를 조절할 수 있다.
본 개시의 실시 예에 따르면, 사용자는 수동으로 받침대의 높이를 조절할 필요가 없어, 받침대를 수동으로 이동시키는 불편함이 크게 줄어들 수 있다.
또한, 사용자는 식재료의 조리 중, 식재료의 상태 변화에 별다른 액션을 취할 필요가 없게 되어, 편의성이 크게 향상될 수 있다.
도 1은 본 개시의 일 실시 예에 따른 조리 기기를 나타낸 블록도이다.
도 2는 본 개시의 일 실시 예에 따른 조리기기의 사시도이다.
도 3은 도 2의 조리기기에서 도어가 열린 상태를 보여주는 사시도이다.
도 4는 본 개시의 일 실시 예에 따른 조리 기기의 동작 방법을 설명하는 흐름도이다.
도 5 및 도 6은 본 개시의 실시 예에 따른 객체 감지 모델의 학습 과정을 설명하는 도면이다.
도 7은 본 개시의 일 실시 예에 따른 객체 식별 모델의 학습 과정을 보여준다.
도 8은 본 발명의 일 실시 예에 따른 식재료의 종류와 받침대의 배치 위치를 나타내는 대응관계를 나타내는 테이블을 설명하는 도면이다.
도 9는 본 발명의 일 실시 예에 따른 받침대의 높이 레벨을 설명하는 도면이다.
도 10은 본 발명의 일 실시 예에 따라 사용자 입력을 통해 조리 모드를 선택할 수 있는 인터페이스를 설명하는 도면이다.
도 11은 본 발명의 일 실시 예에 따라 조리 모드 및 받침대의 높이 간의 대응 관계를 나타내는 조리 모드 테이블을 설명하는 도면이다.
도 12 및 도 13은 본 발명의 일 실시 예에 따라 조리실 내부에 구비된 받침대의 승강 구조를 설명하는 도면이다.
도 2는 본 개시의 일 실시 예에 따른 조리기기의 사시도이다.
도 3은 도 2의 조리기기에서 도어가 열린 상태를 보여주는 사시도이다.
도 4는 본 개시의 일 실시 예에 따른 조리 기기의 동작 방법을 설명하는 흐름도이다.
도 5 및 도 6은 본 개시의 실시 예에 따른 객체 감지 모델의 학습 과정을 설명하는 도면이다.
도 7은 본 개시의 일 실시 예에 따른 객체 식별 모델의 학습 과정을 보여준다.
도 8은 본 발명의 일 실시 예에 따른 식재료의 종류와 받침대의 배치 위치를 나타내는 대응관계를 나타내는 테이블을 설명하는 도면이다.
도 9는 본 발명의 일 실시 예에 따른 받침대의 높이 레벨을 설명하는 도면이다.
도 10은 본 발명의 일 실시 예에 따라 사용자 입력을 통해 조리 모드를 선택할 수 있는 인터페이스를 설명하는 도면이다.
도 11은 본 발명의 일 실시 예에 따라 조리 모드 및 받침대의 높이 간의 대응 관계를 나타내는 조리 모드 테이블을 설명하는 도면이다.
도 12 및 도 13은 본 발명의 일 실시 예에 따라 조리실 내부에 구비된 받침대의 승강 구조를 설명하는 도면이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 '모듈' 및 '부'는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 개시의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 '연결되어' 있다거나 '접속되어' 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 '직접 연결되어' 있다거나 '직접 접속되어' 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
도 1은 본 개시의 일 실시 예에 따른 조리 기기를 나타낸 블록도이다.
도 1을 참조하면, 조리 기기(100)는 통신부(110), 입력부(120), 러닝 프로세서(130), 센싱부(140), 출력부(150), 메모리(170), 프로세서(180) 및 가열부(190)를 포함할 수 있다.
통신부(110)는 유무선 통신 기술을 이용하여 다른 AI 장치나 AI 서버 등의 외부 장치들과 데이터를 송수신할 수 있다. 예컨대, 통신부(110)는 외부 장치들과 센서 정보, 사용자 입력, 학습 모델, 제어 신호 등을 송수신할 수 있다.
이때, 통신부(110)가 이용하는 통신 기술에는 GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), LTE(Long Term Evolution), 5G, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), ZigBee, NFC(Near Field Communication) 등이 있다.
통신부(110)는 통신 모뎀(communication modem) 또는 통신 회로(communication circuit)라고도 칭할 수 있다.
입력부(120)는 다양한 종류의 데이터를 획득할 수 있다.
이때, 입력부(120)는 영상 신호 입력을 위한 카메라, 오디오 신호를 수신하기 위한 마이크로폰, 사용자로부터 정보를 입력 받기 위한 사용자 입력부 등을 포함할 수 있다. 여기서, 카메라나 마이크로폰을 센서로 취급하여, 카메라나 마이크로폰으로부터 획득한 신호를 센싱 데이터 또는 센서 정보라고 할 수도 있다.
입력부(120)는 모델 학습을 위한 학습 데이터 및 학습 모델을 이용하여 출력을 획득할 때 사용될 입력 데이터 등을 획득할 수 있다. 입력부(120)는 가공되지 않은 입력 데이터를 획득할 수도 있으며, 이 경우 프로세서(180) 또는 러닝 프로세서(130)는 입력 데이터에 대하여 전처리로써 입력 특징점(input feature)을 추출할 수 있다.
입력부(120)는 영상 신호 입력을 위한 카메라(Camera, 121), 오디오 신호를 수신하기 위한 마이크로폰(Microphone, 122), 사용자로부터 정보를 입력 받기 위한 사용자 입력부(User Input Unit, 123)를 포함할 수 있다.
입력부(120)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어 명령으로 처리될 수 있다.
입력부(120)는 영상 정보(또는 신호), 오디오 정보(또는 신호), 데이터, 또는 사용자로부터 입력되는 정보의 입력을 위한 것으로서, 영상 정보의 입력을 위하여, 조리 기기(100)는 하나 또는 복수의 카메라(121)들을 구비할 수 있다.
카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(Display Unit, 151)에 표시되거나 메모리(170)에 저장될 수 있다.
마이크로폰(122)은 외부의 음향 신호를 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 조리 기기(100)에서 수행 중인 기능(또는 실행 중인 응용 프로그램)에 따라 다양하게 활용될 수 있다. 한편, 마이크로폰(122)에는 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 적용될 수 있다.
사용자 입력부(123)는 사용자로부터 정보를 입력 받기 위한 것으로서, 사용자 입력부(123)를 통해 정보가 입력되면, 프로세서(180)는 입력된 정보에 대응되도록 조리 기기(100)의 동작을 제어할 수 있다.
사용자 입력부(123)는 기계식 (mechanical) 입력수단(또는, 메커니컬 키, 예컨대, 조리 기기(100)의 전/후면 또는 측면에 위치하는 버튼, 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등) 및 터치식 입력수단을 포함할 수 있다. 일 예로서, 터치식 입력수단은, 소프트웨어적인 처리를 통해 터치스크린에 표시되는 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)로 이루어지거나, 상기 터치스크린 이외의 부분에 배치되는 터치 키(touch key)로 이루어질 수 있다.
러닝 프로세서(130)는 학습 데이터를 이용하여 인공 신경망으로 구성된 모델을 학습시킬 수 있다. 여기서, 학습된 인공 신경망을 학습 모델이라 칭할 수 있다. 학습 모델은 학습 데이터가 아닌 새로운 입력 데이터에 대하여 결과 값을 추론해 내는데 사용될 수 있고, 추론된 값은 어떠한 동작을 수행하기 위한 판단의 기초로 이용될 수 있다.
이때, 러닝 프로세서(130)는 AI 서버의 러닝 프로세서과 함께 AI 프로세싱을 수행할 수 있다.
이때, 러닝 프로세서(130)는 조리 기기(100)에 통합되거나 구현된 메모리를 포함할 수 있다. 또는, 러닝 프로세서(130)는 메모리(170), 조리 기기(100)에 직접 결합된 외부 메모리 또는 외부 장치에서 유지되는 메모리를 사용하여 구현될 수도 있다.
센싱부(140)는 다양한 센서들을 이용하여 조리 기기(100) 내부 정보, 조리 기기(100)의 주변 환경 정보 및 사용자 정보 중 적어도 하나를 획득할 수 있다.
이때, 센싱부(140)에 포함되는 센서에는 근접 센서, 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, RGB 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰, 라이다, 레이더 등이 있다.
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시킬 수 있다.
이때, 출력부(150)에는 시각 정보를 출력하는 디스플레이부, 청각 정보를 출력하는 스피커, 촉각 정보를 출력하는 햅틱 모듈 등이 포함될 수 있다.
출력부(150)는 디스플레이부(Display Unit, 151), 음향 출력부(Sound Output Unit, 152), 햅틱 모듈(Haptic Module, 153), 광 출력부(Optical Output Unit, 154) 중 적어도 하나를 포함할 수 있다.
디스플레이부(151)는 조리 기기(100)에서 처리되는 정보를 표시(출력)한다. 예컨대, 디스플레이부(151)는 조리 기기(100)에서 구동되는 응용 프로그램의 실행화면 정보, 또는 이러한 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다.
디스플레이부(151)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 조리 기기(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(123)로써 기능함과 동시에, 단말기(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.
음향 출력부(152)는 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 통신부(110)로부터 수신되거나 메모리(170)에 저장된 오디오 데이터를 출력할 수 있다.
음향 출력부(152)는 리시버(receiver), 스피커(speaker), 버저(buzzer) 중 적어도 하나 이상을 포함할 수 있다.
햅틱 모듈(haptic module)(153)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(153)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 될 수 있다.
광출력부(154)는 조리 기기(100)의 광원의 빛을 이용하여 이벤트 발생을 알리기 위한 신호를 출력한다. 조리 기기(100)에서 발생 되는 이벤트의 예로는 메시지 수신, 호 신호 수신, 부재중 전화, 알람, 일정 알림, 이메일 수신, 애플리케이션을 통한 정보 수신 등이 될 수 있다.
메모리(170)는 조리 기기(100)의 다양한 기능을 지원하는 데이터를 저장할 수 있다. 예컨대, 메모리(170)는 입력부(120)에서 획득한 입력 데이터, 학습 데이터, 학습 모델, 학습 히스토리 등을 저장할 수 있다.
프로세서(180)는 데이터 분석 알고리즘 또는 머신 러닝 알고리즘을 사용하여 결정되거나 생성된 정보에 기초하여, 조리 기기(100)의 적어도 하나의 실행 가능한 동작을 결정할 수 있다. 그리고, 프로세서(180)는 조리 기기(100)의 구성 요소들을 제어하여 결정된 동작을 수행할 수 있다.
이를 위해, 프로세서(180)는 러닝 프로세서(130) 또는 메모리(170)의 데이터를 요청, 검색, 수신 또는 활용할 수 있고, 상기 적어도 하나의 실행 가능한 동작 중 예측되는 동작이나, 바람직한 것으로 판단되는 동작을 실행하도록 조리 기기(100)의 구성 요소들을 제어할 수 있다.
이때, 프로세서(180)는 결정된 동작을 수행하기 위하여 외부 장치의 연계가 필요한 경우, 해당 외부 장치를 제어하기 위한 제어 신호를 생성하고, 생성한 제어 신호를 해당 외부 장치에 전송할 수 있다.
프로세서(180)는 사용자 입력에 대하여 의도 정보를 획득하고, 획득한 의도 정보에 기초하여 사용자의 요구 사항을 결정할 수 있다.
이때, 프로세서(180)는 음성 입력을 문자열로 변환하기 위한 STT(Speech To Text) 엔진 또는 자연어의 의도 정보를 획득하기 위한 자연어 처리(NLP: Natural Language Processing) 엔진 중에서 적어도 하나 이상을 이용하여, 사용자 입력에 상응하는 의도 정보를 획득할 수 있다.
이때, STT 엔진 또는 NLP 엔진 중에서 적어도 하나 이상은 적어도 일부가 머신 러닝 알고리즘에 따라 학습된 인공 신경망으로 구성될 수 있다. 그리고, STT 엔진 또는 NLP 엔진 중에서 적어도 하나 이상은 러닝 프로세서(130)에 의해 학습된 것이나, AI 서버의 러닝 프로세서에 의해 학습된 것이거나, 또는 이들의 분산 처리에 의해 학습된 것일 수 있다.
프로세서(180)는 조리 기기(100)의 동작 내용이나 동작에 대한 사용자의 피드백 등을 포함하는 이력 정보를 수집하여 메모리(170) 또는 러닝 프로세서(130)에 저장하거나, AI 서버 등의 외부 장치에 전송할 수 있다. 수집된 이력 정보는 학습 모델을 갱신하는데 이용될 수 있다.
프로세서(180)는 메모리(170)에 저장된 응용 프로그램을 구동하기 위하여, 조리 기기(100)의 구성 요소들 중 적어도 일부를 제어할 수 있다. 나아가, 프로세서(180)는 상기 응용 프로그램의 구동을 위하여, 조리 기기(100)에 포함된 구성 요소들 중 둘 이상을 서로 조합하여 동작시킬 수 있다.
가열부(190)는 공급되는 에너지를 이용하여 열을 발생시킬 수 있다.
가열부(190)는 공급되는 전기를 이용하여 열을 발생시키고, 발생시킨 열을 이용하여 조리 기기(100)의 내부를 가열시킬 수 있다.
가열부(190)는 조리실(12)의 내부에 구비될 수 있다. 가열부(190)는 조리실(12)의 측단 또는 하단에 배치될 수 있다.
가열부(190)는 전기 에너지를 열 에너지로 변환하는 회로를 포함할 수 있다.
이하에서, 조리 기기(100)는 인공 지능 조리 기기(100) 또는 인공 지능 오븐(oven)이라 칭할 수도 있다.
또한, 조리 기기(100)가 벽에 부착된 형태로 구비되는 경우, 월 오븐(Wall Oven)이라 명명될 수 있다.
도 2는 본 개시의 일 실시 예에 따른 조리기기의 사시도이고, 도 3은 도 2의 조리기기에서 도어가 열린 상태를 보여주는 사시도이다.
조리 기기(100)는, 내부에 각종 부품을 수용하는 본체(10)를 포함할 수 있다.
본체(10)는, 조리실(12)을 형성하는 내측 프레임(11)과, 내측 프레임(11)의 외측에서 내측 프레임(11)을 둘러싸는 외측 프레임(14)을 포함할 수 있다.
내측 프레임(11)의 상단부에는 카메라(121)가 구비될 수 있다. 카메라(121)는 조리실(12)을 촬영할 수 있다. 촬영된 이미지는 조리 중인 식재료를 인식하는데 사용될 수 있다.
내측 프레임(11)의 전단부에는 본체 패널(16)이 구비될 수 있다.
본체 패널(16)은 상기 내측 프레임(11)의 전단부에 결합되거나 전단부와 일체로 형성될 수 있다.
도어(20)는, 본체(10)에 힌지 기구(450)에 의해서 회전 가능하게 연결될 수 있다.
일 예로 도어(20)의 하단에 힌지 기구(450)가 연결될 수 있다.
조리실(12)로 공급된 열에 의한 온도 상승을 최소화하기 위하여, 도어(20) 외부의 공기는 도어(20) 내부로 유동할 수 있다.
따라서, 도어(20)는 도어(20) 내부를 유동한 공기가 배출되는 도어 공기 출구(21)를 포함하고, 상기 본체(10)는 상기 도어 공기 출구(21)를 통해 배출된 공기가 유입되는 본체 공기 입구(17)를 포함할 수 있다.
본체 공기 입구(17)는 본체 패널(16)에 형성될 수 있다.
또한, 본체 공기 입구(17)를 통해 본체(10)로 유입된 공기는 상기 본체(10)를 유동한 후에 본체 공기 출구(18)를 통해 본체(10)의 외부로 배출될 수 있다.
본체 공기 출구(18)도 본체 패널(16)에 형성될 수 있다.
도어(20)는 컨트롤 장치(300)를 더 포함할 수 있다.
컨트롤 장치(300)는 제한적이지는 않으나, 도어(20)에서 상측부에 위치되고, 도어(20)가 닫힌 상태에서 본체 패널(16) 중에서 조리실(12)의 상측에 위치되는 부분과 마주보도록 위치될 수 있다.
컨트롤 장치(300)는, 디스플레이부(151)와 사용자 입력부(123) 중 하나 이상을 포함할 수 있다.
디스플레이부(151)는 터치 입력을 수신할 수 있는 터치 스크린의 형태로 구현될 수 있다.
컨트롤 장치(300)를 통해서 조리 기기(100)의 작동 정보를 표시 및/또는 사용자의 작동 명령을 입력받을 수 있다.
도 4는 본 개시의 일 실시 예에 따른 조리 기기의 동작 방법을 설명하는 흐름도이다.
특히, 도 4는 조리실 내부의 받침대(301)에 놓여진 식재료에 따라 받침대(301)의 높이를 자동으로 조절할 수 있는 조리 기기의 동작 방법에 관한 것이다.
조리 기기(100)의 프로세서(180)는 식재료 정보를 획득한다(S401).
식재료 정보는 식재료의 식별 정보, 식재료의 조리 모드 중 하나 이상을 포함할 수 있다.
식재료의 식별 정보는 식재료의 종류, 식재료의 명칭 중 하나 이상을 포함할 수 있다.
일 실시 예에서, 프로세서(180)는 카메라(121)를 통해 촬영된 조리실(12)의 내부 영상에 기초하여, 식재료 정보를 획득할 수 있다. 프로세서(180)는 사용자 입력부(123) 또는 디스플레이부(151)를 통해 조리 개시 명령을 수신한 경우, 조리 기기(100)에 탑재된 카메라(121)를 통해 조리실(12)의 내부를 촬영하고, 촬영된 이미지를 획득할 수 있다.
프로세서(180)는 식재료의 조리 개시 명령을 수신하고, 조리 개시 명령을 수신한 시점부터, 카메라(121)의 동작을 온 시킬 수 있다.
프로세서(180)는 영상 인식 모델을 이용하여, 촬영된 이미지에 포함된 식재료를 식별할 수 있다.
영상 인식 모델은 딥 러닝 알고리즘 또는 머신 러닝 알고리즘에 의해 학습된 인공 신경만 기반의 모델일 수 있다.
영상 인식 모델은 이미지 데이터를 기반으로, 이미지 데이터에 포함된 객체가 무엇인지를 추론하는 모델일 수 있다. 객체는 식재료가 될 수 있다.
영상 인식 모델은 인공 지능 서버에 의해 학습되고, 인공 지능 서버로부터 수신되어 조리 기기(100)의 메모리(170)에 저장된 모델일 수 있다.
프로세서(180)는 메모리(170)에 저장된 영상 인식 모델을 이용하여, 이미지에 상응하는 이미지 데이터로부터 이미지에 포함된 식재료를 식별할 수 있다.
또 다른 예로, 프로세서(180)는 촬영된 이미지를 통신부(110)를 통해 인공 지능 서버에 전송할 수 있다. 인공 지능 서버는 영상 인식 모델을 이용하여, 이미지로부터 객체 식별 정보를 추출할 수 있고, 추출된 객체 식별 정보를 조리 기기(100)에 전송할 수 있다.
영상 인식 모델은 객체 감지 모델 및 객체 식별 모델을 포함할 수 있다.
객체 감지 모델은 이미지 데이터로부터 하나 이상의 객체를 감지하는 모델이고, 객체 식별 모델은 감지된 하나 이상의 객체가 무엇인지를 식별하는 모델일 수 있다.
객체 감지 모델을 이용하여, 영상으로부터, 복수의 객체들을 감지하고, 객체 식별 모델을 이용하여, 감지된 객체를 식별하는 과정을 설명한다.
도 5 및 도 6은 본 개시의 실시 예에 따른 객체 감지 모델의 학습 과정을 설명하는 도면이다.
도 5를 참조하면, 객체 감지 모델(510)은 복수의 영상 데이터들을 포함하는 학습용 영상 데이터 세트(500)를 이용하여, 각 학습용 영상 데이터로부터, 복수의 객체들을 포함하는 객체 경계 박스 세트를 획득할 수 있다.
객체 경계 박스 세트는 객체를 포함하는 경계 박스들의 집합일 수 있다.
객체 감지 모델(510)은 SSD(Single Shot multibox Detector) MobilenetV2, Faster R-CNN Inception, YOLO(You Only Look Once) 알고리즘을 이용하여, 영상 데이터로부터, 복수의 객체들을 감지할 수 있다.
YOLO(You Only Look Once) 알고리즘은 복수의 CNN들로 구성될 수 있다.
YOLO(You Only Look Once) 알고리즘은 그리드 분할 과정, 예측 과정, 신뢰도 계산 과정, 객체 선정 과정을 포함할 수 있다.
그리드 분할 과정은 이미지 데이터를 복수의 그리드들로 나누는 과정일 수 있다. 복수의 그리드들 각각의 크기는 동일할 수 있다.
예측 과정은 각 그리드에 대해 그리드 중앙을 중심으로, 미리 정의된 형태(predefined shape)로 지정된 경계 박스의 개수를 예측하는 과정일 수 있다.
미리 정의된 형태(predefined shape)로 지정된 경계 박스는 K-평균 알고리즘에 의한 데이터로부터 생성될 수 있고, 객체의 크기 및 형태에 대한 사전 정보를 담고 있을 수 있다.
각 경계 박스는 각기 다른 크기 및 형태의 객체를 감지하도록 설계될 수 있다.
각 경계 박스는 객체의 형태 또는 경계를 나타낼 수도 있다.
신뢰도 계산 과정은 예측 과정에서, 얻어진 경계 박스들 각각에 객체가 포함되어 있는지, 배경만 단독으로 있는지 여부에 따라, 경계 박스의 신뢰도를 계산하는 과정일 수 있다.
객체 판단 과정은 신뢰도 계산 과정에 따라 기 설정된 값 이상의 신뢰도를 갖는 경계 박스에 객체가 존재하는 것으로 판단하는 과정일 수 있다.
객체 판단 과정을 통해 이미지 데이터(600)에 포함된 복수의 경계 박스들(601 내지 607)이 추출될 수 있다.
프로세서(180)는 객체 감지 모델(510)을 통해 추출된 복수의 경계 박스들로부터, 각 객체의 식별 정보를 획득할 수 있다.
프로세서(180)는 객체 식별 모델을 이용하여, 각 경계 박스에 해당하는 이미지 데이터로부터, 경계 박스 내에 존재하는 객체를 식별할 수 있다.
객체 식별 모델은 딥 러닝 알고리즘 또는 머신 러닝 알고리즘을 이용하여, 학습된 인공 신경망 기반의 모델일 수 있다.
객체 식별 모델은 지도 학습을 통해 학습된 모델일 수 있다.
객체 식별 모델은 이미지 데이터로부터, 객체의 식별 정보를 추론하는 모델일 수 있다. 객체의 식별 정보는 객체의 명칭, 객체의 식별자 등 객체를 식별하는 정보일 수 있다.
객체 식별 모델은 학습용 이미지 데이터 및 학습용 이미지 데이터에 레이블된 레이블링 데이터를 포함하는 트레이닝 데이터 세트를 입력 데이터로 하여, 객체의 식별 정보를 출력하는 모델일 수 있다.
도 7은 본 개시의 일 실시 예에 따른 객체 식별 모델의 학습 과정을 보여준다.
도 7을 참조하면, 객체 식별 모델(700)은 학습용 이미지 데이터 및 이에 레이블된 레이블링 데이터를 포함하는 트레이닝 데이터 세트를 이용하여, 객체 식별 정보를 추론할 수 있다.
레이블링 데이터는 정답 데이터로, 객체 식별 정보일 수 있다.
객체 식별 모델(700)은 레이블링 데이터와 객체 식별 정보 간의 차이에 상응하는 비용 함수를 최소화하도록 학습될 수 있다.
객체 식별 모델(700)의 비용 함수는 각 이미지 데이터에 상응하는 객체 식별 정보에 대한 라벨과, 각 이미지 데이터로부터 추론된 객체 식별 정보 간의 차이의 제곱 평균으로 표현될 수 있다.
학습용 이미지 데이터에서 입력 특징 벡터가 추출되어, 입력되면, 객체의 식별 결과가 대상 특징 벡터로서 출력되고, 객체 식별 모델(700)은 출력된 대상 특징 벡터와 라벨링된 객체 식별 정보의 차이에 상응하는 손실 함수를 최소화하도록 학습되는 것일 수 있다.
객체 식별 모델(700)은 조리 기기(100)의 러닝 프로세서(130) 또는 AI 서버의 러닝 프로세서에 의해 학습되어, 조리 기기(100)에 탑재될 수 있다.
객체 식별 모델(700)은 도 6에 도시된, 제1 경계 박스(601)에 해당되는 제1 이미지 데이터로부터, 제1 객체 식별 정보를 결정할 수 있다. 예를 들어, 제1 객체 식별 정보는 스테이크일 수 있다.
객체 식별 모델(700)은 제2 경계 박스(603)에 해당되는 제2 이미지 데이터로부터, 제2 객체 식별 정보를 결정할 수 있다. 예를 들어, 제2 객체 식별 정보는 당근일 수 있다.
이와 같이, 객체 식별 모델(700)을 통해, 이미지 데이터로부터, 객체가 어떤 식품인지가 식별될 수 있다.
다시, 도 4를 설명한다.
또 다른 실시 예에서, 프로세서(180)는 사용자 입력부(123) 또는 디스플레이부(151)를 통해 수신된 사용자 입력에 기초하여, 식재료 정보를 획득할 수 있다.
사용자 입력은 식재료의 조리 모드를 선택하는 모드일 수 있다. 프로세서(180)는 사용자 입력부(123)에 구비된 조리 모드 선택 버튼 또는 디스플레이(151) 상에 표시된 조리 모드 선택 버튼을 통해 조리 모드를 획득할 수 있다.
프로세서(180)는 획득된 식재료 정보에 기초하여, 조리실 내부에 구비된 받침대(301)의 위치를 결정한다(S403).
일 실시 예에서, 식재료의 종류에 따른 받침대(301)의 배치 위치는 미리 정해져 있을 수 있다.
메모리(170)는 식재료의 종류와 받침대(301)의 배치 위치를 나타내는 대응관계를 저장하고 있을 수 있다. 프로세서(180)는 식재료가 식별된 경우, 식별된 식재료에 맞는 받침대(301)의 위치를 획득할 수 있다.
도 8은 본 발명의 일 실시 예에 따른 식재료의 종류와 받침대의 배치 위치를 나타내는 대응관계를 나타내는 테이블을 설명하는 도면이다.
도 8에 도시된 식재료 테이블(800)은 조리 기기(100)의 메모리(170)에 저장되어 있을 수 있다.
도 8을 참조하면, 식재료 테이블(800)은 식재료의 식별 정보(카테고리)에 대응하는 받침대(301)의 높이를 매칭시킨 테이블일 수 있다.
받침대(301)의 높이는 3개의 레벨로 구별될 수 있으나, 이는 예시에 불과하다.
레벨의 크기가 클수록 받침대(301)의 높이가 높아질 수 있고, 레벨의 크기가 작을수록 받침대(301)의 높이가 낮아질 수 있다.
즉, 제1 레벨의 높이, 제2 레벨의 높이, 제3 레벨의 높이 순으로, 받침대(301)의 높이가 높아질 수 있다.
식별된 식재료가 Beef, Por, Poultry, fish인 경우, 받침대(301)의 높이는 제1 레벨이 될 수 있다.
식별된 식재료가 Pizza인 경우, 받침대(301)의 높이는 제2 레벨이 될 수 있다.
식별된 식재료가 Dessert(예를 들어, 빵, 케??, 쿠키 등)인 경우, 받침대(301)의 높이는 제3 레벨이 될 수 있다.
식재료 테이블(800)은 받침대 높이 추정 모델에 의해 학습되어 얻어질 테이블일 수 있다.
받침대 높이 추정 모델은 식재료에 따라 최적화된 받침대(301)의 높이를 추론하는 인공 신경망 기반의 학습 모델일 수 있다.
조리 기기(100)의 프로세서(180)는 식재료 테이블(800)을 이용하여, 식별된 식재료에 대응하는 받침대(301)의 높이 레벨을 획득할 수 있다.
도 9는 본 발명의 일 실시 예에 따른 받침대의 높이 레벨을 설명하는 도면이다.
도 9를 참조하면, 본 발명의 실시 예에 따른 조리 기기(100)의 조리실(12)은 받침대(301)를 포함할 수 있다.
받침대(301)는 상단, 중간단, 하단 중 어느 하나에 위치할 수 있다.
하단의 높이는 제1 레벨에 대응되고, 중간단의 높이는 제2 레벨에 대응되고, 상단의 높이는 제3 레벨에 대응될 수 있다.
프로세서(180)는 식재료의 종류가 판별된 경우, 판별된 식재료의 종류에 매칭되는 높이로, 받침대(301)를 이동시킬 수 있다.
한편, 도 9의 도면은 조리 기기(100)의 디스플레이부(151) 상에 표시될 수도 있다. 조리 기기(100)의 디스플레이부(151)는 현재 받침대(301)의 높이를 나타내는 받침대 상태 화면을 표시할 수 있다.
사용자는 받침대 상태 화면을 통해, 받침대(301)가 어느 위치에 있는지, 어느 위치로 변경되는지를 직관적으로 파악할 수 있다.
또 다른 예로, 조리 기기(100)는 통신부(110)를 통해 사용자의 이동 단말기에 상기 받침대 상태 화면을 전송할 수 있다. 사용자는 이동 단말기를 통해, 받침대의 배치 위치를 확인할 수도 있다.
조리 기기(100)는 받침대(301)의 배치 위치가 변경된 경우, 이를 알리는 알림을 이동 단말기에 전송할 수도 있다.
받침대(301)의 높이를 이동시키는 원리에 대해서는 후술한다.
다시, 도 4를 설명한다.
또 다른 실시 예에서, 식재료 정보가 사용자 입력에 따라 얻어진 경우, 프로세서(180)는 사용자 입력에 의해 수신된 조리 모드에 기초하여, 받침대(301)의 배치 위치를 결정할 수 있다.
조리 기기(100)의 조리 모드는 Roast 모드, Bake 모드, Broil 모드를 포함할 수 있다.
프로세서(180)는 사용자 입력에 따라 설정된 조리 모드에 매칭되는 받침대(301)의 높이를 결정할 수 있다.
프로세서(180)는 메모리(170)에 저장된 조리 모드 테이블을 이용하여, 조리 모드에 맞는 받침대(301)의 높이를 결정할 수 있다.
도 10은 본 발명의 일 실시 예에 따라 사용자 입력을 통해 조리 모드를 선택할 수 있는 인터페이스를 설명하는 도면이고, 도 11은 본 발명의 일 실시 예에 따라 조리 모드 및 받침대의 높이 간의 대응 관계를 나타내는 조리 모드 테이블을 설명하는 도면이다.
도 10을 참조하면, 조리 기기(100)의 디스플레이부(151)는 조리 설정 메뉴(1000)를 표시할 수 있다.
디스플레이부(151)가 터치 스크린으로 구현된 경우, 디스플레이부(151)는 사용자의 터치 입력을 수신할 수 있다.
조리 설정 메뉴(1000)는 복수의 조리 모드를 선택할 수 있는 조리 모드 버튼들(1010, 1030, 1050)을 포함할 수 있다.
제1 조리 모드 버튼(1010)은 식재료를 Roasting하는 모드인 Roast 모드에 대응되는 버튼일 수 있다. 제2 조리 모드 버튼(1030)은 식재료를 베이킹하는 Baking 모드에 대응되는 버튼일 수 있다. 제3 조리 모드 버튼(1050)은 식재료를 Broil하는 모드인 Broil 모드에 대응되는 버튼일 수 있다.
프로세서(180)는 조리 모드 버튼들(1010, 1030, 1050) 중 어느 하나를 선택하는 터치 입력을 수신할 수 있다.
프로세서(180)는 선택된 조리 모드 버튼에 맞는 받침대(301)의 배치 위치를 결정할 수 있다.
프로세서(180)는 메모리(170)에 저장된 조리 모드 테이블을 이용하여, 조리 모드에 맞는 받침대(301)의 높이를 결정할 수 있다.
도 11은 본 발명의 일 실시 예에 따른 조리 모드 테이블을 설명하기 위한 도면이다.
도 11을 참조하면, 메모리(170)에 저장된 조리 모드 테이블(1100)은 조리 모드 및 받침대(301)의 높이 간의 대응 관계를 나타낼 수 있다.
예를 들어, 조리 모드가 Roast 모드인 경우, 받침대(301)의 높이는 1 level로 결정되고, 조리 모드가 Bake 모드인 경우, 받침대(301)의 높이는 2 level로 결정되고, 조리 모드가 Broil 모드인 경우, 받침대(301)의 높이는 3 level로 결정될 수 있다.
다시, 도 4를 설명한다.
프로세서(180)는 결정된 받침대(301)의 위치로, 받침대(301)를 이동시킨다(S405).
프로세서(180)는 결정된 받침대(301)의 높이가 현재 높이와 일치하지 않는 경우, 결정된 받침대(301)의 위치로, 받침대(301)를 이동시킬 수 있다.
프로세서(180)는 결정된 받침대(301)의 높이가 현재 높이와 일치하는 경우, 받침대(301)를 이동시키지 않을 수 있다.
일 실시 예에서, 조리 기기(100)는 받침대(301)를 승강 시킬 수 있는 구조를 가질 수 있다.
이에 대해서는. 도 12 및 도 13을 참조하여 설명한다.
도 12 및 도 13은 본 발명의 일 실시 예에 따라 조리실 내부에 구비된 받침대의 승강 구조를 설명하는 도면이다.
도 12 및 도 13을 참조하면, 조리실의 내부 공간으로 열기가 유입되는 중앙 에어홀(371)의 중앙부에는 캐비티 리어패널(37)이 구비될 수 있다. 캐비티 리어패널(37)의 중앙부 후방에는, 히터에 의해 가열된 공기를 상기 오븐의 캐비티 공간 내부로 유입시키기 위한 팬이 설치될 수 있다. 상기 팬에 의해 가압된 공기는 중앙 에어홀(371)을 통해 캐비티 내부 공간으로 유입될 수 있다.
조리 기기(100)는 받침대(301)의 높이를 조절할 수 있는 구조를 갖는 승강부를 포함할 수 있다.
승강부는 중앙 에어홀(371)을 회피하여 캐비티 리어패널(37)의 전방 양측에 설치되는 승강 안내부(50)를 포함할 수 있다.
승강부는 승강 안내부(50)에 의해 안내되어 상하로 이동하는 승강 랙(70)을 더 포함할 수 있다. 승강 안내부(50)는 승강 랙(70)을 승강시키는 동력을 전달함과 함께 상기 승강 랙(70)의 승강을 안내할 수 있다.
승강 안내부(50)는 동력 전달 없이 승강 랙(70)의 승강 이동만을 안내할 수도 있다.
승강 랙(70)은 승강 안내부(50)보다 좌우방향으로 더 바깥쪽으로 양측에 배치되는 선반프레임 연결부(71)를 구비한다. 승강 랙(70)이 승강함에 따라 선반 프레임 연결부(71)도 함께 승강하여 그 높이가 결정될 수 있다.
프로세서(180)는 받침대(301)의 높이가 결정된 경우, 결정된 높이로, 받침대(301)를 이동시키도록, 모터를 제어할 수 있다. 이에 따라, 승강 랙(70)이 승강되어, 받침대(301)의 배치 높이가 조절될 수 있다.
또한, 조리 기기(100)의 받침대(301)는 선반 프레임 연결부(71)에 연결되는 선반 프레임(80)과, 선반 프레임(80)에 거치되는 선반(88)을 포함한다.
조리실 내에서 선반(88)의 높이는 승강 랙(70)의 승강에 의해 결정될 수 있다. 선반 프레임(80)은 선반 프레임 연결부(71)에 착탈 가능하게 연결될 수 있다.
조리 기기(100)는 선반(88)과 캐비티 리어패널(37) 사이에 마련되어 선반(88)의 상부 공간과 승강안내부(50)가 설치된 공간을 차폐하고, 선반 프레임 연결부(71)를 전방으로 노출시키는 리어커버(40)를 포함할 수 있다.
승강 안내부(50)는 상하로 연장된 볼스크류를 포함하고, 볼스크류와 맞물리는 승강연결부는 승강랙(70)에 고정된 볼너트를 포함할 수 있다.
이에 따라, 승강안내부(50)는 승강 랙(70)의 상하 방향 승강 이동을 안내하고 이동 궤적을 규제함은 물론, 승강 랙(70)의 승강 동력을 전달한다.
볼스크류의 일측 단부는 모터 등의 회전구동수단에 직접 연결되거나 감속기를 통해 연결되어 회전하고, 볼스크류의 타측 단부는 조리실 내부의 벽체에 고정된 서포트(53)에 의해 회전 지지될 수 있다.
서포트(53)가 고정된 벽체는 캐비티 리어패널(37)일 수 있다. 이에 따라 승강 랙(70)과 승강안내부(50)는 캐비티 리어패널(37)에 먼저 설치된 상태에서 조리 기기(100)에 조립될 수 있다.
승강 안내부(50)는, 선반 프레임 연결부(71)보다 측방향으로 더 안쪽에서 선반 프레임 연결부(71)에 인접하여 배치되는 승강 안내부(51)와, 승강 안내부(51)와 인접 배치되는 승강 안내부(52)를 포함할 수 있다.
두 승강안내부(51, 52)는 모두 볼스크류일 수 있다. 그리고 제1볼스크류(51)와 제2 볼스크류(52)는 회전속도가 동일하게 회전할 수 있다.
제2 승강안내부(52)는 상기 제1 승강안내부(51)보다 측방향으로는 더 안쪽에, 그리고 전후방향으로는 더 후방에 배치된다. 두 승강안내부가 전후 방향으로 소정의 간격 이격 배치됨으로써, 후방 단부가 고정된 캔틸레버 구조를 가지는 선반 프레임(80)에 가해지는 하중을 충분히 지탱하게 된다. 두 승강안내부는 좌우 방향으로도 소정 간격 이격 배치되어 있으므로, 두 승강안내부의 전후 방향 간격을 좁게 설정하는 것도 가능하다.
승강 랙(70)의 양단부에는 상부에 상하로 긴 장공 형태의 상부 끼움홀(711)이 마련되고, 그와 인접한 바로하부에 대략 원형의 홀 형상을 가지는 하부 끼움홀(712)이 마련된다.
상부 끼움홀(711)과 하부 끼움홀(712)은 상기 선반 프레임(80)과 연결되는 선반 프레임 연결부(71)를 구성한다. 즉, 승강 랙(70)이 리어커버(40)보다 더 돌출되어 외부로 노출되는 부위는 선반 프레임 연결부(71)이다. 선반프레임 연결부(71)는 랙부재에 끼움홀(711, 712)이 형성된 구조일 수 있다.
직사각형 형태의 선반 프레임(80)의 후방 양측 단부에는, 끼움홀(711)과 착탈 가능하게 체결되는 랙체결부(91)가 구비될 수 있다.
다시, 도 4를 설명한다.
프로세서(180)는 식재료의 조리를 개시하고(S407), 식재료의 상태가 변화되는지를 감지한다(S409).
일 실시 예에서, 프로세서(180)는 식재료의 조리 중 식재료의 상태를 감지할 수 있다.
프로세서(180)는 식재료의 상태 변화가 감지된 경우, 식재료의 상태 변화에 기초하여, 받침대의 배치 위치를 조절한다(S411).
일 실시 예에서, 프로세서(180)는 식재료의 크기 변화를 감지할 수 있다. 프로세서(180)는 카메라(121)를 통해 촬영된 영상에 포함된 식재료의 크기가 일정 크기 이상 변경된 경우, 받침대(301)의 높이를 조절할 수 있다.
프로세서(180)는 카메라(121)를 통해 최초에 촬영된 식재료 이미지와 현재 시점에 촬영된 식재료 이미지를 비교하여, 식재료의 크기가 일정 크기 이상 변경되었는지를 판단할 수 있다.
프로세서(180)는 받침대(301)의 높이가 제2 레벨에 있는 상태에서, 식재료의 크기가 일정 크기 이상 확대된 경우, 받침대(301)의 높이를 제2 레벨에서, 제1 레벨로 낮출 수 있다.
한편, 프로세서(180)는 받침대(301)의 높이를 증가시키는 중, 이미지 처리를 통해 받침대(301)에 놓여진 식재료가 조리실(12)의 상단에 접촉될 것으로 판단한 경우, 받침대(301)의 위치 변경을 중지시킬 수 있다. 이는, 받침대(301)에 놓여진 식재료가 조리실(12)의 상단에 접촉되는 경우, 식재료의 조리 상태에 영향을 줄 수 있고, 조리실(12)의 상단이 더렵혀 질 수 있기 때문이다.
프로세서(180)는 조리실(12)의 상단에 배치된 카메라(121)를 통해 촬영된 이미지를 분석하여, 식재료와 카메라(121) 간의 거리를 측정하고, 측정된 거리가 일정 거리 미만인 경우, 받침대(301)의 높이 증가를 중지시킬 수 있다.
또 다른 실시 예에서, 프로세서(180)는 식재료의 컬러 변화를 감지할 수 있다. 프로세서(180)는 식재료의 컬러 변화량이 기 설정된 변화량 이상인 경우, 받침대(301)의 높이를 조절할 수 있다.
식재료의 컬러 변화량은 식재료의 일정 영역에 대한 RGB 값의 변화량을 나타낼 수 있다.
예를 들어, 프로세서(180)는 받침대(301)의 높이가 제2 레벨에 있는 상태에서, 식재료의 컬러 변화량이 기 설정된 변화량 이상인 경우, 받침대(301)의 높이를 제1 레벨로 조절할 수 있다.
프로세서(180)는 식재료의 조리가 완료되었는지를 판단하고(S413), 식재료의 조리가 완료된 경우, 식재료의 조리를 완료한다(S415).
프로세서(180)는 설정된 조리 시간이 경과한 경우, 식재료의 조리가 완료된 것으로 판단하고, 조리를 종료할 수 있다.
본 개시의 일 실시 예에 따르면, 전술한 방법은 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다.
Claims (14)
- 조리 기기에 있어서,
조리실;
상기 조리실의 내부에 구비되고, 식재료가 놓여지는 받침대;
상기 받침대의 높이를 이동시킬 수 있는 승강부;
상기 조리실의 내부를 가열하는 가열부;
상기 조리실을 촬영하는 카메라; 및
상기 카메라를 통해 촬영된 이미지로부터, 상기 식재료의 식별 정보를 획득하고, 획득된 식별 정보에 상응하는 상기 받침대의 높이를 결정하고, 상기 결정된 받침대의 높이로 이동하도록 상기 승강부를 제어하는 프로세서를 포함하는
조리 기기. - 제1항에 있어서,
상기 식재료의 식별 정보에 상기 받침대의 높이를 매칭시킨 식재료 테이블을 저장하는 메모리를 더 포함하고,
상기 프로세서는
상기 식재료 테이블을 이용하여, 상기 식별 정보에 매칭된 상기 받침대의 높이를 결정하는
조리 기기. - 제2항에 있어서,
상기 받침대의 높이는 제1 레벨, 상기 제1 레벨보다 더 높은 제2 레벨 및 상기 제2 레벨보다 더 높은 제3 레벨 중 어느 하나이고,
상기 프로세서는
상기 받침대의 초기 높이와 상기 결정된 높이를 비교하여, 상기 받침대의 높이를 조절할지 여부를 결정하는
조리 기기. - 제1항에 있어서,
상기 프로세서는
상기 받침대의 높이가 이동된 후, 상기 식재료의 상태 변화를 감지하고, 감지된 상태 변화에 맞는 높이로, 상기 받침대의 높이를 조절하는
조리 기기. - 제4항에 있어서,
상기 프로세서는
상기 카메라를 통해 촬영된 이미지를 이용하여, 상기 식재료의 크기가 일정 크기 이상 변화되었는지를 판단하고, 상기 식재료의 크기가 일정 크기 이상 변경된 경우, 상기 받침대의 높이를 조절하는
조리 기기. - 제4항에 있어서,
상기 프로세서는
상기 상기 카메라를 통해 촬영된 이미지를 이용하여, 상기 식재료의 컬러가 일정량 이상 변화되었는지를 판단하고, 상기 식재료의 컬러가 일정량 이상 변경된 경우, 상기 받침대의 높이를 조절하는
조리 기기. - 제1항에 있어서,
상기 승강부는
상기 조리실의 리어 패널의 전방 양측에 설치되고, 모터를 구비하는 승강 안내부 및
상기 승강 안내부에 의해 안내되어, 상하로 이동하고, 상기 받침대를 연결하는 프레임 연결부를 구비하는 승강 랙을 포함하는
조리 기기. - 제1항에 있어서,
상기 받침대의 현재 높이를 나타내는 인터페이스를 표시하는 디스플레이부를 더 포함하는
조리 기기. - 제4항에 있어서,
상기 프로세서는
상기 받침대의 높이가 변경된 경우, 상기 받침대의 높이가 변경되었음을 알리는 알림을 사용자의 이동 단말기에 무선으로 전송하는 통신부를 더 포함하는
조리 기기. - 제1항에 있어서,
이미지 데이터로부터 식재료를 식별하는 영상 인식 모델을 저장하는 메모리를 더 포함하고,
상기 프로세서는
상기 영상 인식 모델을 이용하여, 상기 촬영된 이미지로부터 상기 식재료를 식별하는
조리 기기. - 제10항에 있어서,
상기 영상 인식 모델은
상기 이미지로부터, 상기 식재료를 포함하는 객체 경계 박스를 획득하는 객체 감지 모델 및
상기 객체 경계 박스로부터, 상기 식재료의 식별 정보를 획득하는 객체 식별 모델을 포함하고,
상기 객체 감지 모델 및 상기 객체 식별 모델 각각은 딥 러닝 알고리즘 또는 머신 러닝 알고리즘을 통해 학습된 인공 신경망 기반의 모델인
조리 기기. - 제1항에 있어서,
상기 프로세서는
상기 식재료의 조리 개시 명령을 수신하고, 상기 조리 개시 명령을 수신한 시점부터, 상기 카메라의 동작을 온 시키는
조리 기기. - 조리실, 상기 조리실의 내부에 구비되고, 식재료가 놓여지는 받침대, 상기 받침대의 높이를 이동시킬 수 있는 승강부, 상기 조리실의 내부를 가열하는 가열부, 상기 조리실을 촬영하는 카메라를 구비한 조리 기기의 동작 방법에 있어서,
상기 카메라를 통해 조리실의 내부를 촬영하는 단계;
촬영된 이미지로부터, 상기 식재료의 식별 정보를 획득하는 단계;
획득된 식별 정보에 상응하는 상기 받침대의 높이를 결정하는 단계; 및
상기 결정된 받침대의 높이로 이동하도록 상기 승강부를 제어하는 단계를 포함하는
조리 기기의 동작 방법. - 조리실, 상기 조리실의 내부에 구비되고, 식재료가 놓여지는 받침대, 상기 받침대의 높이를 이동시킬 수 있는 승강부, 상기 조리실의 내부를 가열하는 가열부, 상기 조리실을 촬영하는 카메라를 구비한 조리 기기의 동작 방법을 기록한 컴퓨터로 읽을 수 있는 비 활성 기록 매체에 있어서,
상기 동작 방법은
상기 카메라를 통해 조리실의 내부를 촬영하는 단계;
촬영된 이미지로부터, 상기 식재료의 식별 정보를 획득하는 단계;
획득된 식별 정보에 상응하는 상기 받침대의 높이를 결정하는 단계; 및
상기 결정된 받침대의 높이로 이동하도록 상기 승강부를 제어하는 단계를 포함하는
비 활성 기록 매체.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200145252A KR20220059726A (ko) | 2020-11-03 | 2020-11-03 | 조리 기기 및 그의 동작 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200145252A KR20220059726A (ko) | 2020-11-03 | 2020-11-03 | 조리 기기 및 그의 동작 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20220059726A true KR20220059726A (ko) | 2022-05-10 |
Family
ID=81591613
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200145252A KR20220059726A (ko) | 2020-11-03 | 2020-11-03 | 조리 기기 및 그의 동작 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20220059726A (ko) |
-
2020
- 2020-11-03 KR KR1020200145252A patent/KR20220059726A/ko unknown
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3608593B1 (en) | Cooking system comprising an oven and an external computing means, and method of operating such system | |
KR101626159B1 (ko) | 사용자 적응형 디스플레이 장치 및 디스플레이 방법 | |
CN106383452B (zh) | 智能控制模块和包括其的厨电设备 | |
CN107468048B (zh) | 烹饪器具及其控制方法 | |
CN111148944B (zh) | 自动烹饪设备和方法 | |
TWI667003B (zh) | 電動家用器具及操作此家用器具之方法 | |
EP4063737A1 (en) | Control of an operational feature of a cooking appliance | |
CN104042124A (zh) | 一种智能烤箱及其工作控制方法 | |
US20150305567A1 (en) | Food processor | |
KR20220040225A (ko) | 조리 기기 및 그의 동작 방법 | |
CN105159185B (zh) | 智能控制压力锅的方法及装置 | |
KR20190096880A (ko) | 인공 지능 냉장고 | |
CN109891362B (zh) | 信息处理装置、信息处理方法及程序 | |
JP2016051526A (ja) | 加熱調理器、加熱調理システム、及び、加熱調理器の制御方法 | |
KR102242648B1 (ko) | 인공지능 복합조리시스템 | |
CN110908340A (zh) | 智能家居的控制方法及装置 | |
CN112426060A (zh) | 控制方法、烹饪器具、服务器和可读存储介质 | |
EP3760086A1 (en) | A cooking device and cooking method | |
CN209733642U (zh) | 一种智能烹饪设备 | |
KR20220059726A (ko) | 조리 기기 및 그의 동작 방법 | |
JP6157516B2 (ja) | 加熱調理器 | |
CN109782616A (zh) | 基于感应阵列的控制方法、装置、存储介质及计算机设备 | |
US20230075347A1 (en) | Setting desired browning on a domestic cooking appliance | |
EP4404544A1 (en) | Mobile terminal and system | |
WO2019127650A1 (zh) | 智能烤箱 |