JP2022109554A - Cooker and learned model generation method - Google Patents

Cooker and learned model generation method Download PDF

Info

Publication number
JP2022109554A
JP2022109554A JP2021004942A JP2021004942A JP2022109554A JP 2022109554 A JP2022109554 A JP 2022109554A JP 2021004942 A JP2021004942 A JP 2021004942A JP 2021004942 A JP2021004942 A JP 2021004942A JP 2022109554 A JP2022109554 A JP 2022109554A
Authority
JP
Japan
Prior art keywords
heating
unit
heated
food
name
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021004942A
Other languages
Japanese (ja)
Inventor
哲児 都甲
Tetsuji Toko
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2021004942A priority Critical patent/JP2022109554A/en
Publication of JP2022109554A publication Critical patent/JP2022109554A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a cooker and a learned model generation method that can reduce labor of a user operating the cooker.SOLUTION: A cooker 1 comprises a heating unit 30, an imaging unit 40, an estimating unit 11, and a heating control unit 12. The heating unit 30 heats an object to be heated. The imaging unit 40 images the object when the object is heated. The estimating unit 11 estimates the name of the object during heating of the object on the basis of an imaging result of the imaging unit 40. The heating control unit 12 controls the heating unit 30 depending on an estimating result of the estimating unit 11.SELECTED DRAWING: Figure 2

Description

本発明は、加熱調理器及び学習済みモデル生成方法に関する。 The present invention relates to a heating cooker and a learned model generation method.

特許文献1に記載の調理装置は、入力手段である操作入力装置と、加熱手段と、撮像装置と、中央情報処理装置とを備える。ユーザーは、操作入力装置により、あらかじめ提示されたメニューの中から希望する加熱メニューを設定する。撮像装置は、加熱前の食品を撮像する。中央情報処理装置は、操作入力装置により選択された加熱メニューがグリル系加熱であれば、食品の表面に焦げ色を付加するように、撮像した加熱前の映像を、仕上がり後の映像に加工する。そして、加熱手段は、食品(被加熱物)を加熱する。撮像装置は、さらに、加熱が行われる間に食品の映像を撮像する。中央情報処理装置は、加工した食品の映像と、加熱が行われる間に撮像された食品の映像とが一致するか否かを判断し、一致すると判断した場合、加熱出力を停止する。 The cooking apparatus described in Patent Document 1 includes an operation input device as input means, heating means, an imaging device, and a central information processing device. The user sets the desired heating menu from the previously presented menus using the operation input device. The imaging device images the food before heating. If the heating menu selected by the operation input device is grill-type heating, the central information processing unit processes the captured image before heating into a finished image so as to add a burnt color to the surface of the food. . And a heating means heats food (to-be-heated material). The imaging device also captures an image of the food product while it is being heated. The central information processing unit determines whether or not the image of the processed food matches the image of the food imaged while being heated, and if it determines that they match, it stops the heating output.

特開平9-229373号公報JP-A-9-229373

しかしながら、特許文献1に記載の調理装置において、ユーザーは、操作入力装置によって、あらかじめ提示されたメニューの中から希望する加熱メニューを設定する必要がある。従って、加熱メニューを設定する手間がユーザーにとって負担である。 However, in the cooking apparatus described in Patent Literature 1, the user needs to set a desired heating menu from menus presented in advance using the operation input device. Therefore, it is a burden for the user to set the heating menu.

本発明は上記課題に鑑みてなされたものであり、その目的は、加熱調理器を操作するユーザーの手間を軽減できる加熱調理器及び学習モデル生成方法を提供することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and an object thereof is to provide a heating cooker and a learning model generation method that can reduce the trouble of a user operating the heating cooker.

本願の一局面によれば、加熱調理器は、加熱部と、撮像部と、推定部と、加熱制御部とを備える。加熱部は、被加熱物を加熱する。撮像部は、前記被加熱物が加熱されている時に、前記被加熱物を撮像する。推定部は、前記撮像部の撮像結果に基づいて、前記被加熱物の加熱中に、前記被加熱物の名称を推定する。加熱制御部は、前記推定部の推定結果に応じて、前記加熱部を制御する。 According to one aspect of the present application, a cooking device includes a heating section, an imaging section, an estimating section, and a heating control section. The heating unit heats the object to be heated. The imaging unit images the object to be heated while the object to be heated is being heated. The estimating unit estimates the name of the object to be heated during heating of the object to be heated based on the imaging result of the imaging unit. The heating control section controls the heating section according to the estimation result of the estimation section.

本願の他の局面によれば、学習済みモデル生成方法は、学習データを取得するステップと、被加熱物の名称を推定する学習済みモデルを、前記学習データを機械学習することによって生成するステップとを含む。前記学習データは、料理を示す学習対象料理画像と、前記料理の名称を示す名称情報とを含む。 According to another aspect of the present application, a method for generating a trained model includes the steps of acquiring learning data, and generating a trained model for estimating the name of an object to be heated by subjecting the learning data to machine learning. including. The learning data includes a learning target food image representing a food and name information representing the name of the food.

本発明によれば、加熱調理器を操作するユーザーの手間を軽減できる。 ADVANTAGE OF THE INVENTION According to this invention, the user's effort which operates a heating cooker can be reduced.

本発明の実施形態1に係る加熱調理器を示すブロック図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a block diagram which shows the heating cooker which concerns on Embodiment 1 of this invention. 実施形態1に係る加熱調理器の動作の概要を示すブロック図である。4 is a block diagram showing an overview of the operation of the heating cooker according to Embodiment 1. FIG. 実施形態1に係る学習装置を示すブロック図である。1 is a block diagram showing a learning device according to Embodiment 1; FIG. 実施形態1に係る学習データの一例を示す図である。4 is a diagram showing an example of learning data according to Embodiment 1; FIG. 実施形態1に係る学習データの他の一例を示す図である。4 is a diagram showing another example of learning data according to Embodiment 1; FIG. 実施形態1に係る学習データの他の一例を示す図である。4 is a diagram showing another example of learning data according to Embodiment 1; FIG. 実施形態1に係る学習データの他の一例を示す図である。4 is a diagram showing another example of learning data according to Embodiment 1; FIG. 実施形態1に係る学習データの他の一例を示す図である。4 is a diagram showing another example of learning data according to Embodiment 1; FIG. 実施形態1に係る学習データの他の一例を示す図である。4 is a diagram showing another example of learning data according to Embodiment 1; FIG. 実施形態1に係る学習済みモデルの入力情報及び出力情報を示すブロック図である。4 is a block diagram showing input information and output information of a trained model according to Embodiment 1. FIG. 実施形態1に係る学習済みモデル生成方法を示すフローチャートである。4 is a flow chart showing a method of generating a trained model according to Embodiment 1. FIG. 実施形態1に係る撮像部の撮像結果の一例を示す図である。FIG. 5 is a diagram showing an example of an imaging result of an imaging unit according to Embodiment 1; 実施形態1に係る記憶部が記憶するテーブルを示す図である。4 is a diagram showing a table stored by a storage unit according to the first embodiment; FIG. 実施形態1に係る加熱部の動作の一例を示す図である。4A and 4B are diagrams showing an example of the operation of the heating unit according to the first embodiment; FIG. 実施形態1に係る加熱調理器が実行する処理を示すフローチャートである。4 is a flow chart showing processing executed by the heating cooker according to Embodiment 1. FIG. 本発明の実施形態2に係る加熱調理器を示すブロック図である。It is a block diagram which shows the heating cooker which concerns on Embodiment 2 of this invention. 実施形態2に係る料理画像の一例を示す図である。FIG. 10 is a diagram showing an example of a food image according to Embodiment 2; FIG. 実施形態2に係る料理画像の他の一例を示す図である。FIG. 10 is a diagram showing another example of a food image according to Embodiment 2; FIG. 実施形態2に係る料理画像の他の一例を示す図である。FIG. 10 is a diagram showing another example of a food image according to Embodiment 2; FIG. 実施形態2に係る料理画像の他の一例を示す図である。FIG. 10 is a diagram showing another example of a food image according to Embodiment 2; FIG. 実施形態2に係る料理画像の他の一例を示す図である。FIG. 10 is a diagram showing another example of a food image according to Embodiment 2; FIG. 実施形態2に係る料理画像の他の一例を示す図である。FIG. 10 is a diagram showing another example of a food image according to Embodiment 2; FIG. 実施形態2に係る撮像部の撮像結果と加工後の撮像結果とを示す図である。10A and 10B are diagrams showing an imaging result of an imaging unit and an imaging result after processing according to the second embodiment; FIG. 実施形態2に係る加熱調理器が実行する処理を示すフローチャートである。9 is a flow chart showing processing executed by the cooking device according to Embodiment 2. FIG. 実施形態1の変形例に係る学習データを示す図である。FIG. 10 is a diagram showing learning data according to a modification of the first embodiment; FIG.

本発明の実施形態について、図面を参照しながら説明する。なお、図中、同一又は相当部分については同一の参照符号を付して説明を繰り返さない。 An embodiment of the present invention will be described with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals, and description thereof will not be repeated.

まず、図1を参照して、加熱調理器1について説明する。図1は、加熱調理器1を示すブロック図である。 First, the heating cooker 1 will be described with reference to FIG. FIG. 1 is a block diagram showing the heating cooker 1. As shown in FIG.

加熱調理器1は、例えば、電子レンジ、オーブン、炊飯器、又は電気鍋である。以下、加熱調理器1が電子レンジである場合を例に挙げて、本発明について説明する。図1に示すように、実施形態1において、加熱調理器1は、制御部10と、記憶部20と、加熱部30と、撮像部40と、操作部50と、本体部(図示せず)とを備える。 The heating cooker 1 is, for example, a microwave oven, an oven, a rice cooker, or an electric pot. Hereinafter, the present invention will be described by taking as an example the case where the heating cooker 1 is a microwave oven. As shown in FIG. 1, in Embodiment 1, the heating cooker 1 includes a control unit 10, a storage unit 20, a heating unit 30, an imaging unit 40, an operation unit 50, and a main unit (not shown). and

本体部は、加熱庫を含む。加熱庫には、被加熱物が配置される。被加熱物は、例えば食材である。 The main body includes a heating chamber. An object to be heated is placed in the heating chamber. The object to be heated is, for example, food.

加熱部30は、加熱庫に配置された被加熱物を加熱する。実施形態1において、加熱部30は、例えば、レンジ加熱機能、熱風循環加熱機能、及びグリル加熱機能を有する。レンジ加熱機能は、例えば、加熱庫内にマイクロ波を放射することによって、被加熱物を加熱調理する機能である。熱風循環加熱機能は、例えば、加熱庫内に熱風を循環させて加熱庫内の温度の均一化を図ったり、熱風を被加熱物の上面に直接吹き付けたりすることによって、被加熱物を加熱調理する機能である。グリル加熱機能は、主として、被加熱物を輻射熱に曝すことによって、被加熱物を加熱調理する機能である。つまり、加熱部30は、例えば、マイクロ波供給部及びヒータを含む。 The heating unit 30 heats an object to be heated placed in the heating chamber. In Embodiment 1, the heating unit 30 has, for example, a range heating function, a hot air circulation heating function, and a grill heating function. The microwave heating function is, for example, a function of cooking an object to be heated by radiating microwaves into the heating chamber. The hot air circulation heating function, for example, circulates hot air in the heating chamber to equalize the temperature in the heating chamber, or blows hot air directly onto the upper surface of the heated object to heat and cook the object. It is a function to The grill heating function is mainly a function of cooking an object to be heated by exposing the object to be heated to radiant heat. That is, the heating section 30 includes, for example, a microwave supply section and a heater.

撮像部40は、例えばカメラである。具体的には、撮像部40は、例えば、CCD(Charge Coupled Device)デジタルテレビジョンカメラ等で構成されたカメラである。撮像部40は、例えば、加熱庫の外側であって、加熱庫を構成する壁面に形成された開口に対向するように設置される。撮像部40は、例えば、加熱部30によって被加熱物が加熱されている時に、被加熱物を撮像する。実施形態1において、撮像部40は、例えば、所定時間ごとに被加熱物を撮像する。具体的には、撮像部40は、例えば、加熱部30によって被加熱物が加熱されている間、所定時間が経過する度に被加熱物を撮像する。例えば、所定時間は2秒である。 The imaging unit 40 is, for example, a camera. Specifically, the imaging unit 40 is a camera configured by, for example, a CCD (Charge Coupled Device) digital television camera or the like. The imaging unit 40 is installed, for example, outside the heating chamber so as to face an opening formed in a wall surface of the heating chamber. The image capturing unit 40 captures an image of the object to be heated, for example, while the object to be heated is being heated by the heating unit 30 . In Embodiment 1, the imaging unit 40 images the object to be heated, for example, at predetermined time intervals. Specifically, for example, while the object to be heated is being heated by the heating unit 30, the imaging unit 40 takes an image of the object to be heated each time a predetermined time elapses. For example, the predetermined time is 2 seconds.

記憶部20は、記憶装置を含み、ソフトウェアのようなコンピュータープログラム及び種々のデータを記憶する。具体的には、記憶部20は、ROM(Read Only Memory)、及びRAM(Random Access Memory)のような主記憶装置(例えば、半導体メモリ)と、ソリッドステートドライブ、及び/又は、ハードディスクドライブのような補助記憶装置とを含む。記憶部20は、リムーバブルメディアを含んでいてもよい。記憶部20は、記憶媒体(例えば、非一時的コンピューター読取可能記憶媒体)の一例である。 The storage unit 20 includes a storage device and stores computer programs such as software and various data. Specifically, the storage unit 20 includes a main storage device (eg, semiconductor memory) such as ROM (Read Only Memory) and RAM (Random Access Memory), and a solid state drive and/or hard disk drive. Auxiliary storage devices. The storage unit 20 may include removable media. The storage unit 20 is an example of a storage medium (eg, non-transitory computer-readable storage medium).

また、記憶部20は、例えば、学習済みモデルLM及びテーブルTbを記憶する。 The storage unit 20 also stores, for example, the learned model LM and the table Tb.

実施形態1において、学習済みモデルLMは、学習データを機械学習することで構築される。以下、本明細書において学習データを学習データTDと記載する場合がある。学習データTDについては後述する。 In Embodiment 1, the trained model LM is constructed by machine-learning learning data. Hereinafter, the learning data may be referred to as learning data TD in this specification. The learning data TD will be described later.

また、実施形態1において、テーブルTbにおいて、複数の料理の名称(ピザ、トースト及びスポンジケーキ等)の各々に対して、料理に応じた加熱時間と、料理に応じた加熱強度とが関連付けられている。すなわち、記憶部20は、料理の名称に対して、料理に応じた加熱時間と、料理に応じた加熱強度とを関連付けて記憶する。加熱強度は、例えば、被加熱物を加熱するときの温度又はワット数のことである。 Further, in the first embodiment, in the table Tb, each of the names of a plurality of dishes (pizza, toast, sponge cake, etc.) is associated with a heating time corresponding to the dish and a heating intensity corresponding to the dish. there is That is, the storage unit 20 stores the name of the dish in association with the heating time corresponding to the dish and the heating intensity corresponding to the dish. The heating intensity is, for example, the temperature or wattage when heating the object to be heated.

操作部50は、例えば、加熱調理器1が備える操作キー、又は、液晶ディスプレイのような表示部に設けられたタッチパネルを含む。なお、加熱調理器1は、表示部を備えていなくてもよい。操作キーには、マウス、及び/又は、キーボードのような入力デバイスも含まれる。操作部50は、ユーザーに操作されて、例えば、加熱部30による加熱を開始する指示を受け付ける。操作部50は、「受付部」の一例である。 The operation unit 50 includes, for example, operation keys provided in the heating cooker 1 or a touch panel provided in a display unit such as a liquid crystal display. In addition, the heating cooker 1 does not need to be equipped with the display part. Operation keys also include input devices such as a mouse and/or keyboard. The operation unit 50 is operated by the user and receives an instruction to start heating by the heating unit 30, for example. The operation unit 50 is an example of a “reception unit”.

制御部10は、CPU(Central Processing Unit)及びMPU(Micro Processing Unit)のようなプロセッサーを含む。なお、記憶部20及び制御部10は、ASIC(Application Specific Integrated Circuit)、又はFPGA(Field-Programmable Gate Array)のような集積回路で構成されてもよい。プロセッサーは、「コンピューター」の一例に相当する。 The control unit 10 includes processors such as a CPU (Central Processing Unit) and an MPU (Micro Processing Unit). Note that the storage unit 20 and the control unit 10 may be configured by an integrated circuit such as ASIC (Application Specific Integrated Circuit) or FPGA (Field-Programmable Gate Array). A processor is an example of a "computer."

制御部10のプロセッサーは、記憶部20の記憶装置に記憶されたコンピュータープログラムを実行して、記憶部20、加熱部30、撮像部40、及び操作部50を制御する。また、制御部10のプロセッサーは、記憶部20の記憶装置に記憶されたコンピュータープログラムを実行して、推定部11、加熱制御部12、及び計測部13として機能する。つまり、制御部10は、推定部11、加熱制御部12及び計測部13を含む。 The processor of the control unit 10 executes computer programs stored in the storage device of the storage unit 20 to control the storage unit 20 , the heating unit 30 , the imaging unit 40 and the operation unit 50 . Also, the processor of the control unit 10 executes computer programs stored in the storage device of the storage unit 20 and functions as the estimation unit 11 , the heating control unit 12 and the measurement unit 13 . That is, the control unit 10 includes an estimation unit 11 , a heating control unit 12 and a measurement unit 13 .

推定部11は、撮像部40の撮像結果に基づいて、被加熱物の加熱中に、被加熱物の名称を推定する。 The estimation unit 11 estimates the name of the object to be heated based on the imaging result of the imaging unit 40 while the object to be heated is being heated.

加熱制御部12は、推定部11の推定結果に応じて、加熱部30を制御する。例えば、加熱制御部12は、推定部11の推定結果に応じて、一定時間が経過してから加熱部30による被加熱物の加熱を停止させる。より具体的には、加熱制御部12は、推定部11が推定した被加熱物の名称に応じた加熱時間にわたって被加熱物が加熱されるように、加熱部30を制御する。 The heating control section 12 controls the heating section 30 according to the estimation result of the estimation section 11 . For example, the heating control unit 12 causes the heating unit 30 to stop heating the object to be heated after a certain period of time has passed according to the estimation result of the estimation unit 11 . More specifically, the heating control unit 12 controls the heating unit 30 so that the object to be heated is heated for a heating time corresponding to the name of the object to be heated estimated by the estimating unit 11 .

計測部13は、被加熱物が加熱された時間を計測する。例えば、計測部13は、加熱部30が被加熱物への加熱を開始してから、推定部11が被加熱物の名称を推定する時までの、被加熱物が加熱された時間を計測する。 The measurement unit 13 measures the time during which the object to be heated is heated. For example, the measuring unit 13 measures the time during which the object to be heated is heated from when the heating unit 30 starts heating the object to when the estimating unit 11 estimates the name of the object to be heated. .

次に、図1及び図2を参照して、加熱調理器1の動作の概要について説明する。図2は、加熱調理器1の動作の概要を示すブロック図である。 Next, an outline of the operation of the heating cooker 1 will be described with reference to FIGS. 1 and 2. FIG. FIG. 2 is a block diagram showing an overview of the operation of the heating cooker 1. As shown in FIG.

図2に示すように、まず、計測部13は、加熱部30による加熱を開始する指示を操作部50が受け付けた時から、被加熱物が加熱される時間の計測を開始する。 As shown in FIG. 2 , first, the measurement unit 13 starts measuring the time during which the object to be heated is heated when the operation unit 50 receives an instruction to start heating by the heating unit 30 .

一方、推定部11は、被加熱物が加熱されている時に、撮像部40の撮像結果である料理画像HGを学習済みモデルLMに入力する。具体的には、推定部11は、被加熱物の加熱中に、料理画像HGを学習済みモデルLMに入力する。料理画像HGは、撮像部40によって撮像された被加熱物を示す。 On the other hand, the estimating unit 11 inputs the cooking image HG, which is the imaging result of the imaging unit 40, to the learned model LM while the object to be heated is being heated. Specifically, the estimation unit 11 inputs the food image HG to the learned model LM while the object to be heated is being heated. The food image HG shows the object to be heated captured by the imaging unit 40 .

学習済みモデルLMは、入力された料理画像HGに基づいて、入力された料理画像HGが示す被加熱物の名称を示す名称情報MNを出力する。具体的には、学習済みモデルLMは、被加熱物の加熱中に、料理画像HGに示される被加熱物の名称情報MNを出力する。 Based on the input food image HG, the learned model LM outputs name information MN indicating the name of the object to be heated indicated by the input food image HG. Specifically, the learned model LM outputs the name information MN of the object to be heated shown in the food image HG during the heating of the object to be heated.

そして、推定部11は、被加熱物の加熱中に、学習済みモデルLMが出力した名称情報MNを取得する。すなわち、推定部11は、料理画像HGに基づいて、被加熱物の加熱中に、被加熱物の名称を推定する。従って、推定部11は、被加熱物の名称を精度良く推定できる。そして、推定部11は、名称情報MNを加熱制御部12に入力する。 Then, the estimation unit 11 acquires the name information MN output by the learned model LM during heating of the object to be heated. That is, the estimation unit 11 estimates the name of the object to be heated based on the food image HG during the heating of the object to be heated. Therefore, the estimation unit 11 can accurately estimate the name of the object to be heated. The estimation unit 11 then inputs the name information MN to the heating control unit 12 .

加熱制御部12は、名称情報MNに応じて、加熱部30を制御する。すなわち、加熱制御部12は、推定部11の推定結果に応じて、加熱部30を制御する。従って、予めユーザーが操作部50を操作して被加熱物への加熱方法(メニュー)を選択することなく、被加熱物に対して、被加熱物の名称に応じた加熱ができる。その結果、加熱調理器1を操作するユーザーの手間を軽減できる。 The heating control unit 12 controls the heating unit 30 according to the name information MN. That is, the heating control section 12 controls the heating section 30 according to the estimation result of the estimation section 11 . Therefore, the object to be heated can be heated according to the name of the object to be heated without the need for the user to select a heating method (menu) for the object to be heated by operating the operation unit 50 in advance. As a result, the user's trouble of operating the heating cooker 1 can be reduced.

具体的には、加熱制御部12は、推定部11の推定結果に応じて、被加熱物に応じた加熱時間と、加熱強度とを決定する。従って、予めユーザーが操作部50を操作して被加熱物への加熱時間と加熱強度とを選択することなく、被加熱物に対して、被加熱物の名称に応じた加熱ができる。その結果、ユーザーが加熱調理器1を操作する手間を軽減しつつ、被加熱物の名称に応じた加熱時間と加熱強度とで、被加熱物を加熱できる。すなわち、被加熱物の名称に応じて、適切に被加熱物を加熱できる。 Specifically, the heating control unit 12 determines the heating time and heating intensity according to the object to be heated according to the estimation result of the estimation unit 11 . Therefore, the object to be heated can be heated in accordance with the name of the object to be heated without the need for the user to operate the operation unit 50 in advance to select the heating time and the heating intensity for the object to be heated. As a result, the object to be heated can be heated with the heating time and heating intensity according to the name of the object to be heated, while reducing the user's trouble of operating the heating cooker 1 . That is, the object to be heated can be appropriately heated according to the name of the object to be heated.

具体的には、例えば、被加熱物がトーストである場合、推定部11は、被加熱物がトーストであると推定する。一方、例えば、記憶部20が記憶するテーブルTbにおいて、トーストに対して、11分を示す加熱時間、及び180℃を示す加熱強度が関連付けられている。そこで、加熱制御部12は、被加熱物を加熱する時間を11分に決定し、被加熱物を加熱する加熱強度を180℃に決定する。従って、加熱制御部12は、例えば、被加熱物が11分にわたって180℃で加熱されるように、加熱部30を制御する。その結果、適切にトーストが焼き上がる。 Specifically, for example, when the object to be heated is toast, the estimation unit 11 estimates that the object to be heated is toast. On the other hand, for example, in the table Tb stored in the storage unit 20, the toast is associated with a heating time of 11 minutes and a heating intensity of 180°C. Therefore, the heating control unit 12 sets the time for heating the object to be heated to 11 minutes, and the heating intensity to heat the object to be heated to 180°C. Therefore, the heating control unit 12 controls the heating unit 30 so that the object to be heated is heated at 180° C. for 11 minutes, for example. As a result, the toast is properly baked.

より具体的には、実施形態1において、加熱制御部12は、決定した加熱時間と、計測部13の計測結果とに基づいて、被加熱物に対する残りの加熱時間を決定する。従って、加熱制御部12は、決定した残りの加熱時間にわたって被加熱物を加熱するように加熱部30を制御する。その結果、加熱部30によって被加熱物が過剰に加熱されることを防止できる。すなわち、被加熱物を適切に加熱できる。 More specifically, in Embodiment 1, the heating control unit 12 determines the remaining heating time for the object to be heated based on the determined heating time and the measurement result of the measuring unit 13 . Therefore, the heating control unit 12 controls the heating unit 30 so as to heat the object to be heated for the determined remaining heating time. As a result, the object to be heated can be prevented from being excessively heated by the heating unit 30 . That is, the object to be heated can be appropriately heated.

次に、図3を参照して、学習済みモデルLMを生成する学習装置100について説明する。図3は、学習装置100を示すブロック図である。学習装置100は、例えば、コンピューターである。学習装置100は、学習データTDを機械学習することによって、学習済みモデルLMを生成する。そして、学習装置100は学習済みモデルLMを出力する。学習済みモデルLMは、上述したように、入力された料理画像HGが示す被加熱物の名称を推定する。学習データTDは、学習装置100による機械学習の対象である。 Next, the learning device 100 that generates the trained model LM will be described with reference to FIG. FIG. 3 is a block diagram showing the learning device 100. As shown in FIG. Learning device 100 is, for example, a computer. The learning device 100 generates a trained model LM by performing machine learning on the learning data TD. Then, the learning device 100 outputs the trained model LM. The learned model LM estimates the name of the object to be heated indicated by the input food image HG, as described above. The learning data TD is a target of machine learning by the learning device 100 .

図3に示すように、学習装置100は、処理部110と、記憶部120とを備える。 As shown in FIG. 3, learning device 100 includes processing unit 110 and storage unit 120 .

処理部110は、CPU及びGPU等のプロセッサーを備える。記憶部120は、記憶装置を含み、データ及びコンピュータープログラムを記憶する。処理部110のプロセッサーは、記憶部120の記憶装置が記憶しているコンピュータープログラムを実行して、各種処理を実行する。例えば、記憶部120は、加熱調理器1の記憶部20と同様に、主記憶装置と、補助記憶装置とを備え、リムーバブルメディアを備えていてもよい。記憶部120は、例えば、非一時的コンピューター読取可能記憶媒体である。 The processing unit 110 includes processors such as CPU and GPU. The storage unit 120 includes a storage device and stores data and computer programs. The processor of the processing unit 110 executes computer programs stored in the storage device of the storage unit 120 to perform various processes. For example, the storage unit 120 may include a main storage device, an auxiliary storage device, and a removable medium, similar to the storage unit 20 of the heating cooker 1 . Storage unit 120 is, for example, a non-transitory computer-readable storage medium.

記憶部120は、学習プログラムLPを記憶している。学習プログラムLPは、複数の学習データTDの中から一定の規則を見出し、見出した規則を表現する学習済みモデルLMを生成するための機械学習アルゴリズムを実行するためのプログラムである。 The storage unit 120 stores a learning program LP. The learning program LP is a program for executing a machine learning algorithm for finding certain rules out of a plurality of learning data TD and generating a trained model LM expressing the found rules.

機械学習アルゴリズムは、教師あり学習であれば、特に限定されず、例えば、決定木、最近傍法、単純ベイズ分類器、サポートベクターマシン、又は、ニューラルネットワークである。従って、学習済みモデルLMは、決定木、最近傍法、単純ベイズ分類器、サポートベクターマシン、又は、ニューラルネットワークを含む。学習済みモデルLMを生成する機械学習において、誤差逆伝搬法を利用してもよい。 The machine learning algorithm is not particularly limited as long as it is supervised learning, and examples thereof include decision tree, nearest neighbor method, naive Bayes classifier, support vector machine, or neural network. Thus, the trained model LM includes decision trees, nearest neighbors, naive Bayes classifiers, support vector machines, or neural networks. In the machine learning that generates the trained model LM, error backpropagation may be used.

例えば、ニューラルネットワークは、入力層、単数又は複数の中間層、及び、出力層を含む。具体的には、ニューラルネットワークは、ディープニューラルネットワーク(DNN:Deep Neural Network)、再帰型ニューラルネットワーク(RNN:Recurrent Neural Network)、又は、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)であり、ディープラーニングを行う。例えば、ディープニューラルネットワークは、入力層、複数の中間層、及び、出力層を含む。 For example, a neural network includes an input layer, one or more hidden layers, and an output layer. Specifically, the neural network is a deep neural network (DNN: Deep Neural Network), a recurrent neural network (RNN: Recurrent Neural Network), or a convolutional neural network (CNN: Convolutional Neural Network), and deep learning conduct. For example, a deep neural network includes an input layer, multiple hidden layers, and an output layer.

処理部110は、学習プログラムLPに基づいて複数の学習データTDを機械学習する。その結果、複数の学習データTDの中から一定の規則が見出されて、学習済みモデルLMが生成される。つまり、学習済みモデルLMは、学習データTDを機械学習することで構築される。記憶部120は、学習済みモデルLMを記憶する。 The processing unit 110 machine-learns a plurality of learning data TD based on the learning program LP. As a result, a certain rule is found out of the plurality of learning data TD, and a trained model LM is generated. That is, the learned model LM is constructed by machine learning the learning data TD. The storage unit 120 stores the trained model LM.

具体的には、処理部110は、学習データTDに含まれる学習対象料理画像LGと名称情報MNとの間における一定の規則を見出して、学習済みモデルLMを生成する。学習対象料理画像LGは説明変数であり、名称情報MNは目的変数である。実施形態1において、学習対象料理画像LGは料理を示す。名称情報MNは、学習対象料理画像LGに示される料理の名称を示す。 Specifically, the processing unit 110 finds a certain rule between the learning target dish image LG and the name information MN included in the learning data TD, and generates the learned model LM. The learning target food image LG is an explanatory variable, and the name information MN is an objective variable. In the first embodiment, the learning target food image LG represents food. The name information MN indicates the name of the dish shown in the learning target dish image LG.

さらに具体的には、処理部110は、学習プログラムLPに基づいて複数の学習データTDを機械学習することによって、複数の学習済みパラメータを算出し、複数の学習済みパラメータが適用された1以上の関数を含む学習済みモデルLMを生成する。学習済みパラメータは、複数の学習データTDを用いた機械学習の結果に基づいて取得されるパラメータ(係数)である。 More specifically, the processing unit 110 calculates a plurality of learned parameters by performing machine learning on a plurality of learning data TD based on the learning program LP, and calculates one or more parameters to which the plurality of learned parameters are applied. Generate a trained model LM containing functions. A learned parameter is a parameter (coefficient) obtained based on the result of machine learning using a plurality of learning data TD.

学習済みモデルLMは、入力情報を入力して、出力情報を出力するように、コンピューターを機能させる。換言すれば、学習済みモデルLMは、入力情報を入力して、出力情報を出力する。具体的には、学習済みモデルLMは、入力された料理画像HGが示す料理の名称を推定するように、コンピューターを機能させる。換言すれば、学習済みモデルLMは、入力された料理画像HGが示す料理の名称を推定する。 The trained model LM operates a computer to receive input information and output output information. In other words, the trained model LM receives input information and outputs output information. Specifically, the learned model LM causes the computer to estimate the name of the dish indicated by the input dish image HG. In other words, the learned model LM estimates the name of the dish indicated by the input dish image HG.

次に、図4A~図4Fを参照して、学習データTDについて説明する。図4Aは、学習データTDの一例を示す。図4B~図4Fの各々は、学習データTDの他の一例を示す。以下、図4Aに示す学習データTDを学習データTD1と記載し、図4Bに示す学習データTDを学習データTD2と記載し、図4Cに示す学習データTDを学習データTD3と記載し、図4Dに示す学習データTDを学習データTD4と記載し、図4Eに示す学習データTDを学習データTD5と記載し、図4Fに示す学習データTDを学習データTD6と記載する場合がある。 Next, the learning data TD will be described with reference to FIGS. 4A to 4F. FIG. 4A shows an example of learning data TD. Each of FIGS. 4B to 4F shows another example of the learning data TD. 4A is referred to as learning data TD1, the learning data TD illustrated in FIG. 4B is referred to as learning data TD2, the learning data TD illustrated in FIG. 4C is referred to as learning data TD3, and FIG. The learning data TD shown in FIG. 4E may be referred to as learning data TD4, the learning data TD illustrated in FIG. 4E may be referred to as learning data TD5, and the learning data TD illustrated in FIG. 4F may be referred to as learning data TD6.

実施形態1において、学習データTDは、学習対象料理画像LGと、名称情報MNとを含む。また、実施形態1において、学習対象料理画像LGに示される料理の名称を、例えばユーザーが判断する。すなわち、学習対象料理画像LGには、ユーザーによって判断された料理の名称を示す名称情報MNがラベル付けされている。理解を容易にするため、料理の焼き色をハッチングで示している。具体的には、ハッチングの間隔が広いほど焼き色が薄く、ハッチングの間隔が狭いほど焼き色が濃いように示している。 In Embodiment 1, the learning data TD includes learning target dish images LG and name information MN. Further, in the first embodiment, for example, the user determines the name of the dish shown in the learning target dish image LG. That is, the learning object dish image LG is labeled with the name information MN indicating the name of the dish determined by the user. To make it easier to understand, hatching indicates the brown color of the food. Specifically, the wider the hatching interval, the lighter the baked color, and the narrower the hatched interval, the darker the baked color.

図4A~図4Fに示すように、複数の学習データTDは、それぞれ、複数の料理(例えば、ピザ及びトースト等)に対応する。具体的には、図4A~図4Cに示す複数の学習データTDは、ピザに対応する。また、図4D~図4Fに示す複数の学習データTDは、トーストに対応する。また、複数の学習データTDの各々の学習対象料理画像LGは、それぞれ、1つの料理が加熱される過程において、異なる時の料理を示す。 As shown in FIGS. 4A to 4F, the multiple learning data TD correspond to multiple dishes (eg, pizza, toast, etc.). Specifically, the plurality of learning data TD shown in FIGS. 4A to 4C correspond to pizza. A plurality of pieces of learning data TD shown in FIGS. 4D to 4F correspond to toast. In addition, each of the learning target food images LG of the plurality of learning data TD indicates the food at different times in the process of heating one food.

例えば、図4A~図4Cに示す学習データTD1~学習データTD3の各々は、ピザが加熱される過程において、異なる時のピザを示す。 For example, each of learning data TD1 to learning data TD3 shown in FIGS. 4A to 4C indicates pizza at different times during the pizza heating process.

図4Aに示すように、学習データTD1の学習対象料理画像LGが示すピザは、学習データTD2の学習対象料理画像LGが示すピザ及び学習データTD3の学習対象料理画像LGが示すピザよりも前の段階のピザを示す。実施形態1において、学習データTD1の学習対象料理画像LGには、「ピザ」を示す名称情報MNがラベル付けされている。本明細書において、「ピザ」を示す名称情報MNを、名称情報MN1と記載する場合がある。 As shown in FIG. 4A, the pizza indicated by the learning target food image LG of the learning data TD1 is located before the pizza indicated by the learning target food image LG of the learning data TD2 and the pizza indicated by the learning target food image LG of the learning data TD3. Showing pizza in stages. In the first embodiment, the learning target food image LG of the learning data TD1 is labeled with name information MN indicating "pizza". In this specification, the name information MN indicating "pizza" may be referred to as name information MN1.

また、図4Bに示すように、学習データTD2の学習対象料理画像LGが示すピザは、学習データTD1の学習対象料理画像LGが示すピザと学習データTD3の学習対象料理画像LGが示すピザとの間の段階のピザを示す。また、実施形態1において、学習データTD2の学習対象料理画像LGには、「ピザ」を示す名称情報MN1がラベル付けされている。 Also, as shown in FIG. 4B, the pizza indicated by the learning target food image LG of the learning data TD2 is different from the pizza indicated by the learning target food image LG of the learning data TD1 and the pizza indicated by the learning target food image LG of the learning data TD3. shows a pizza in between stages. Further, in the first embodiment, the learning target dish image LG of the learning data TD2 is labeled with the name information MN1 indicating "pizza".

さらに、図4Cに示すように、学習データTD3の学習対象料理画像LGが示すピザは、学習データTD1の学習対象料理画像LGが示すピザ及び学習データTD2の学習対象料理画像LGが示すピザよりも後の段階のピザを示す。また、実施形態1において、学習データTD3の学習対象料理画像LGには、「ピザ」を示す名称情報MN1がラベル付けされている。 Furthermore, as shown in FIG. 4C, the pizza indicated by the learning target food image LG of the learning data TD3 is higher than the pizza indicated by the learning target food image LG of the learning data TD1 and the pizza indicated by the learning target food image LG of the learning data TD2. A later stage pizza is shown. Further, in the first embodiment, the learning target food image LG of the learning data TD3 is labeled with the name information MN1 indicating "pizza".

また、例えば、図4D~図4Fに示す学習データTD4~学習データTD6の各々は、トーストが加熱される過程において、異なる時のトーストを示す。 Further, for example, each of learning data TD4 to learning data TD6 shown in FIGS. 4D to 4F indicates toast at different times in the process of heating the toast.

図4Dに示すように、学習データTD4の学習対象料理画像LGが示すトーストは、学習データTD5の学習対象料理画像LGが示すトースト及び学習データTD6の学習対象料理画像LGが示すトーストよりも前の段階のトーストを示す。また、実施形態1において、学習データTD4の学習対象料理画像LGには、「トースト」を示す名称情報MNがラベル付けされている。本明細書において、「トースト」を示す名称情報MNを、名称情報MN2と記載する場合がある。 As shown in FIG. 4D, the toast indicated by the learning target food image LG of the learning data TD4 precedes the toast indicated by the learning target food image LG of the learning data TD5 and the toast indicated by the learning target food image LG of the learning data TD6. Indicates a staged toast. Further, in the first embodiment, the learning target food image LG of the learning data TD4 is labeled with name information MN indicating "toast". In this specification, the name information MN indicating "toast" may be referred to as name information MN2.

また、図4Eに示すように、学習データTD5の学習対象料理画像LGが示すトーストは、学習データTD4の学習対象料理画像LGが示すトーストと学習データTD6の学習対象料理画像LGが示すトーストとの間の段階のトーストを示す。また、実施形態1において、学習データTD5の学習対象料理画像LGには、「トースト」を示す名称情報MN2がラベル付けされている。 Also, as shown in FIG. 4E, the toast indicated by the learning target food image LG of the learning data TD5 is different from the toast indicated by the learning target food image LG of the learning data TD4 and the toast indicated by the learning target food image LG of the learning data TD6. Indicates a toast in the middle stage. Further, in the first embodiment, the learning target dish image LG of the learning data TD5 is labeled with the name information MN2 indicating "toast".

さらに、図4Fに示すように、学習データTD6の学習対象料理画像LGが示すトーストは、学習データTD4の学習対象料理画像LGが示すトースト及び学習データTD5の学習対象料理画像LGが示すトーストよりも後の段階のトーストを示す。実施形態1において、学習データTD6の学習対象料理画像LGには、「トースト」を示す名称情報MN2がラベル付けされている。 Furthermore, as shown in FIG. 4F, the toast indicated by the learning target food image LG of the learning data TD6 is higher than the toast indicated by the learning target food image LG of the learning data TD4 and the toast indicated by the learning target food image LG of the learning data TD5. Indicates a later stage toast. In the first embodiment, the learning target food image LG of the learning data TD6 is labeled with the name information MN2 indicating "toast".

なお、名称情報MNは、「ピザ」又は「トースト」等という文字列で表されていてもよいし、「ピザ」及び「トースト」の各々に対応する識別情報(ID)で示されてもよい。 The name information MN may be represented by a character string such as "pizza" or "toast", or may be represented by identification information (ID) corresponding to each of "pizza" and "toast". .

次に、図5を参照して、学習済みモデルLMの入力情報及び出力情報について説明する。図5は、学習済みモデルLMの入力情報及び出力情報を示すブロック図である。 Next, input information and output information of the trained model LM will be described with reference to FIG. FIG. 5 is a block diagram showing input information and output information of the trained model LM.

図5に示すように、学習済みモデルLMの入力情報は、撮像部40の撮像結果である料理画像HGである。学習済みモデルLMは、入力された料理画像HGに基づいて、料理画像HGが示す被加熱物の名称情報MNを出力する。図5に示す例において、学習済みモデルLMは、料理画像HGが示す被加熱物の名称は「トースト」であると推定する。従って、学習済みモデルLMは、「トースト」を示す名称情報MNを出力する。 As shown in FIG. 5, the input information of the learned model LM is the food image HG, which is the imaging result of the imaging unit 40 . Based on the input food image HG, the learned model LM outputs name information MN of the object to be heated indicated by the food image HG. In the example shown in FIG. 5, the learned model LM estimates that the name of the object to be heated indicated by the cooking image HG is "toast". Therefore, the trained model LM outputs name information MN indicating "toast".

次に、図3及び図6を参照して、学習装置100が実行する学習方法を説明する。図6は、実施形態1に係る学習済みモデル生成方法を示すフローチャートである。図6に示すように、学習済みモデル生成方法は、ステップS41~ステップS44を含む。 Next, a learning method executed by the learning device 100 will be described with reference to FIGS. 3 and 6. FIG. FIG. 6 is a flowchart showing a learned model generation method according to the first embodiment. As shown in FIG. 6, the learned model generation method includes steps S41 to S44.

図3及び図6に示すように、ステップS41において、学習装置100の処理部110は、学習データTDを取得する。例えば、処理部110は、ユーザーによって入力された学習データTDを取得する。 As shown in FIGS. 3 and 6, in step S41, the processing unit 110 of the learning device 100 acquires learning data TD. For example, the processing unit 110 acquires learning data TD input by the user.

次に、ステップS42において、処理部110は、学習プログラムLPに基づいて、学習データTDを機械学習する。 Next, in step S42, the processing unit 110 machine-learns the learning data TD based on the learning program LP.

次に、ステップS43において、処理部110は、学習終了条件を満たすか否かを判定する。学習終了条件は、機械学習を終了するために予め定められた条件である。学習終了条件は、例えば、反復回数が規定回数に到達したことである。 Next, in step S43, the processing unit 110 determines whether or not the learning end condition is satisfied. A learning termination condition is a predetermined condition for terminating machine learning. The learning end condition is, for example, that the number of iterations reaches a specified number.

ステップS43において、否定的判定(No)がされた場合は、処理はステップS41に進む。その結果、機械学習が繰り返される。 If a negative determination (No) is made in step S43, the process proceeds to step S41. As a result, machine learning is repeated.

一方、ステップS43で肯定的判定(Yes)された場合は、処理はステップS44に進む。 On the other hand, if the determination in step S43 is affirmative (Yes), the process proceeds to step S44.

ステップS44において、処理部110は、最新の複数のパラメータ(係数)つまり、複数の学習済みパラメータ(係数)を適用したモデル(1以上の関数)を、学習済みモデルLMとして出力する。そして、記憶部120は学習済みモデルLMを記憶する。 In step S44, the processing unit 110 outputs a model (one or more functions) to which a plurality of latest parameters (coefficients), that is, a plurality of learned parameters (coefficients) are applied, as a learned model LM. Then, the storage unit 120 stores the learned model LM.

以上、学習装置100がステップS41~ステップS44を実行することで、学習済みモデルLMが生成される。 As described above, the learned model LM is generated by the learning device 100 executing steps S41 to S44.

次に、図7~図9を参照して、加熱調理器1の動作について説明する。まず、加熱庫に被加熱物が載置された状態で、操作部50は、加熱部30による加熱開始の指示を受け付ける。そして、加熱制御部12は、被加熱物を加熱するように加熱部30を制御する。その結果、加熱部30は被加熱物への加熱を開始する。このとき、加熱部30は、例えば、所定の加熱強度で被加熱物を加熱する。また、加熱部30が被加熱物への加熱を開始するとともに、計測部13は、被加熱物が加熱される時間の計測を開始する。 Next, the operation of the heating cooker 1 will be described with reference to FIGS. 7 to 9. FIG. First, the operation unit 50 receives an instruction to start heating by the heating unit 30 while the object to be heated is placed in the heating chamber. Then, the heating control section 12 controls the heating section 30 so as to heat the object to be heated. As a result, the heating unit 30 starts heating the object to be heated. At this time, the heating unit 30 heats the object to be heated at a predetermined heating intensity, for example. In addition, the heating unit 30 starts heating the object to be heated, and the measurement unit 13 starts measuring the time during which the object to be heated is heated.

図7は、撮像部40の撮像結果である料理画像HGを示す図である。図7に示すように、推定部11は、撮像部40の撮像結果である料理画像HGを学習済みモデルLMに入力する。学習済みモデルLMは、入力された料理画像HGに基づいて、「ピザ」を示す名称情報MNを出力する。そして、推定部11は、学習済みモデルLMが出力した名称情報MNを取得する。 FIG. 7 is a diagram showing a food image HG that is the imaging result of the imaging unit 40. As shown in FIG. As shown in FIG. 7, the estimation unit 11 inputs the food image HG, which is the imaging result of the imaging unit 40, to the learned model LM. The learned model LM outputs name information MN representing "pizza" based on the input food image HG. Then, the estimation unit 11 acquires the name information MN output by the learned model LM.

図8は、記憶部20が記憶するテーブルTbを示す図である。図8に示すように、テーブルTbにおいて、名称情報MNに対して、加熱時間Htと、加熱強度Hsとが関連付けられている。加熱制御部12は、推定部11の推定結果、すなわち、推定部11が取得した名称情報MNに応じて、被加熱物に対する加熱時間Htと加熱強度Hsとを決定する。例えば、図7に示す料理画像HGが示す被加熱物の名称情報MNが「ピザ」であると推定されたため、加熱制御部12は、加熱時間Htを「25分」に決定し、加熱強度Hsを「250℃」に決定する。 FIG. 8 is a diagram showing a table Tb stored in the storage unit 20. As shown in FIG. As shown in FIG. 8, in table Tb, name information MN is associated with heating time Ht and heating intensity Hs. The heating control unit 12 determines the heating time Ht and the heating intensity Hs for the object to be heated according to the estimation result of the estimation unit 11, that is, the name information MN acquired by the estimation unit 11. FIG. For example, since the name information MN of the object to be heated indicated by the cooking image HG shown in FIG. is determined to be "250°C".

図9は、加熱部30の動作の一例を示す図である。図9に示すように、推定部11が名称情報MNを取得したときの計測部13の計測結果、すなわち被加熱物の加熱時間Ctは4分である。つまり、加熱部30によって被加熱物への加熱が開始してから4分が経過したときに、撮像結果である料理画像HGに基づいて名称情報MNが取得されている。そして、加熱制御部12は、加熱時間Htを「25分」に決定し、加熱強度Hsを「250℃」に決定している。従って、加熱制御部12は、計測部13の計測結果(加熱時間Ct)と、決定した加熱時間Htとに基づいて、被加熱物に対する残りの加熱時間Rtを決定する。そして、推定部11が名称情報MNを取得してから、残りの加熱時間Rtが経過することに応じて被加熱物への加熱が終了するように、加熱制御部12は加熱部30を制御する。 9A and 9B are diagrams showing an example of the operation of the heating unit 30. FIG. As shown in FIG. 9, the measurement result of the measuring unit 13 when the estimating unit 11 acquires the name information MN, that is, the heating time Ct of the object to be heated is 4 minutes. In other words, the name information MN is acquired based on the food image HG, which is the imaging result, when four minutes have passed since the heating unit 30 started heating the object to be heated. The heating control unit 12 sets the heating time Ht to "25 minutes" and the heating intensity Hs to "250°C". Therefore, the heating control unit 12 determines the remaining heating time Rt for the object to be heated based on the measurement result (heating time Ct) of the measuring unit 13 and the determined heating time Ht. Then, the heating control unit 12 controls the heating unit 30 so that the heating of the object to be heated ends when the remaining heating time Rt elapses after the estimating unit 11 acquires the name information MN. .

次に、図10を参照して、加熱調理器1が実行する処理について説明する。図10は、実施形態1に係る加熱調理器1が実行する処理を示すフローチャートである。加熱調理器1が実行する処理は、ステップS1~ステップS10を含む。 Next, with reference to FIG. 10, processing executed by the heating cooker 1 will be described. FIG. 10 is a flow chart showing the processing executed by the heating cooker 1 according to the first embodiment. The processing executed by the cooking device 1 includes steps S1 to S10.

図10に示すように、ステップS1において、操作部50は、加熱部30による加熱開始の指示を受け付ける。そして、加熱制御部12は、被加熱物を加熱するように加熱部30を制御する。その結果、加熱部30は被加熱物を加熱する。また、加熱部30が被加熱物への加熱を開始するとともに、計測部13は、被加熱物が加熱される時間の計測を開始する。 As shown in FIG. 10 , in step S<b>1 , the operation unit 50 receives an instruction to start heating by the heating unit 30 . Then, the heating control section 12 controls the heating section 30 so as to heat the object to be heated. As a result, the heating unit 30 heats the object to be heated. In addition, the heating unit 30 starts heating the object to be heated, and the measurement unit 13 starts measuring the time during which the object to be heated is heated.

ステップS2において、制御部10は、被加熱物を撮像するように撮像部40を制御する。その結果、撮像部40は、被加熱物を撮像する。 In step S2, the control unit 10 controls the imaging unit 40 to image the object to be heated. As a result, the imaging unit 40 images the object to be heated.

ステップS3において、推定部11は、撮像結果である料理画像HGを学習済みモデルLMに入力する。 In step S3, the estimation unit 11 inputs the food image HG, which is the imaging result, to the learned model LM.

ステップS4において、推定部11は、ステップS3で入力された料理画像HGに基づいて、学習済みモデルLMが名称情報MNを出力したか否かを判定する。ステップS4において否定的判定(No)がされる場合、すなわち、学習済みモデルLMが名称情報MNを出力しなかった場合、又は、学習済みモデルLMが「不明」を出力した場合、処理はステップS2に進む。一方、ステップS4において肯定的判定(Yes)がされる場合、すなわち、学習済みモデルLMが名称情報MNを出力した場合、処理はステップS5に進む。学習済みモデルLMが名称情報MNを出力しなかった場合、及び、学習済みモデルLMが「不明」を出力した場合については後述する。 In step S4, the estimation unit 11 determines whether or not the learned model LM has output the name information MN based on the food image HG input in step S3. If a negative determination (No) is made in step S4, that is, if the learned model LM does not output the name information MN, or if the learned model LM outputs "unknown", the process proceeds to step S2. proceed to On the other hand, if an affirmative determination (Yes) is made in step S4, that is, if the trained model LM outputs the name information MN, the process proceeds to step S5. A case where the learned model LM does not output the name information MN and a case where the learned model LM outputs "unknown" will be described later.

ステップS5において、推定部11は、学習済みモデルLMが出力した名称情報MNを取得する。そして、推定部11は、取得した状態情報SBを加熱制御部12に入力する。 In step S5, the estimation unit 11 acquires the name information MN output by the trained model LM. Then, the estimation unit 11 inputs the acquired state information SB to the heating control unit 12 .

ステップS6において、加熱制御部12は、推定部11の推定結果に応じて、被加熱物に対する加熱時間Htと、加熱強度Hsとを決定する。 In step S<b>6 , the heating control unit 12 determines the heating time Ht and the heating intensity Hs for the object to be heated according to the estimation result of the estimation unit 11 .

ステップS7において、加熱制御部12は、計測部13の計測結果と、ステップS6で決定した加熱時間Htとに基づいて、被加熱物に対する残りの加熱時間Rtを決定する。 In step S7, the heating control unit 12 determines the remaining heating time Rt for the object to be heated based on the measurement result of the measuring unit 13 and the heating time Ht determined in step S6.

ステップS8において、加熱制御部12は、ステップS6で決定した加熱強度Hsに基づいて、加熱部30の加熱強度を調整する。 In step S8, the heating control unit 12 adjusts the heating intensity of the heating unit 30 based on the heating intensity Hs determined in step S6.

ステップS9において、加熱制御部12は、ステップS7で残りの加熱時間Rtが決定されたときから、ステップS7で決定された残りの加熱時間Rtが経過したか否かを判定する。ステップS9において肯定的判定(Yes)がされる場合、処理はステップS10に進む。一方、ステップS9において否定的判定(No)がされる場合、処理は、ステップS9に戻る。 In step S9, the heating control unit 12 determines whether the remaining heating time Rt determined in step S7 has elapsed since the remaining heating time Rt was determined in step S7. If affirmative determination (Yes) is made in step S9, the process proceeds to step S10. On the other hand, if a negative determination (No) is made in step S9, the process returns to step S9.

ステップS10において、加熱制御部12は、被加熱物への加熱を停止するように加熱部30を制御する。その結果、加熱部30は、加熱を停止する。 In step S10, the heating control unit 12 controls the heating unit 30 to stop heating the object to be heated. As a result, the heating unit 30 stops heating.

(実施形態2)
次に、図11を参照して、実施形態2に係る加熱調理器1aについて説明する。図11は、実施形態2に係る加熱調理器1aを示すブロック図である。実施形態2では、加熱調理器1aがターンテーブル60を備える点と、推定部11aがパターンマッチングによって被加熱物の名称を推定する点とで、実施形態2は実施形態1と主に異なる。以下、実施形態2が実施形態1と異なる点を主に説明する。
(Embodiment 2)
Next, a heating cooker 1a according to Embodiment 2 will be described with reference to FIG. FIG. 11 is a block diagram showing a heating cooker 1a according to Embodiment 2. As shown in FIG. Embodiment 2 differs from Embodiment 1 mainly in that the heating cooker 1a includes a turntable 60 and the estimation unit 11a estimates the name of the object to be heated by pattern matching. In the following, differences of the second embodiment from the first embodiment will be mainly described.

加熱調理器1aは、制御部10aと、記憶部20aと、加熱部30と、撮像部40と、操作部50と、ターンテーブル60とを備える。 The heating cooker 1 a includes a control section 10 a , a storage section 20 a , a heating section 30 , an imaging section 40 , an operation section 50 and a turntable 60 .

ターンテーブル60には、被加熱物が載置される。実施形態2において、加熱部30が被加熱物を加熱する間、ターンテーブル60は、例えば、略一定の角速度で回転する。すなわち、ターンテーブル60は、被加熱物が載置されて回転する。 An object to be heated is placed on the turntable 60 . In Embodiment 2, the turntable 60 rotates, for example, at a substantially constant angular velocity while the heating unit 30 heats the object to be heated. That is, the turntable 60 rotates with the object to be heated placed thereon.

制御部10aは、CPU及びMPUのようなプロセッサーを含む。制御部10のプロセッサーは、記憶部20aの記憶装置に記憶されたコンピュータープログラムを実行して、記憶部20a、加熱部30、撮像部40、操作部50、及びターンテーブル60を回転させるためのモーター(不図示)を制御する。 The control unit 10a includes processors such as CPU and MPU. The processor of the control unit 10 executes a computer program stored in the storage device of the storage unit 20a, and a motor for rotating the storage unit 20a, the heating unit 30, the imaging unit 40, the operation unit 50, and the turntable 60. (not shown).

また、制御部10のプロセッサーは、記憶部20aの記憶装置に記憶されたコンピュータープログラムを実行して、推定部11a、加熱制御部12、計測部13、及び補正部14として機能する。つまり、制御部10は、推定部11a、加熱制御部12、計測部13、及び補正部14を含む。推定部11a及び補正部14については後述する。 The processor of the control unit 10 also functions as the estimation unit 11a, the heating control unit 12, the measurement unit 13, and the correction unit 14 by executing computer programs stored in the storage device of the storage unit 20a. That is, the control unit 10 includes an estimation unit 11a, a heating control unit 12, a measurement unit 13, and a correction unit 14. The estimation unit 11a and the correction unit 14 will be described later.

記憶部20aは、パターンマッチング用データPDと、テーブルTbとを記憶する。パターンマッチング用データPDは、複数の料理画像MGと、名称情報MNとを含む。 The storage unit 20a stores pattern matching data PD and a table Tb. The pattern matching data PD includes a plurality of food images MG and name information MN.

次に、図12A~図12Fを参照して、記憶部20aが記憶するパターンマッチング用データPDについて説明する。図12Aは、パターンマッチング用データPDの一例を示す。図12B~図12Fの各々は、パターンマッチング用データPDの他の一例を示す。以下、図12Aに示すパターンマッチング用データPDをパターンマッチング用データPD1と記載し、図12Bに示すパターンマッチング用データPDをパターンマッチング用データPD2と記載し、図12Cに示すパターンマッチング用データPDをパターンマッチング用データPD3と記載し、図12Dに示すパターンマッチング用データPDをパターンマッチング用データPD4と記載し、図12Eに示すパターンマッチング用データPDをパターンマッチング用データPD5と記載し、図12Fに示すパターンマッチング用データPDをパターンマッチング用データPD6と記載する場合がある。 Next, the pattern matching data PD stored in the storage unit 20a will be described with reference to FIGS. 12A to 12F. FIG. 12A shows an example of pattern matching data PD. Each of FIGS. 12B to 12F shows another example of pattern matching data PD. Hereinafter, the pattern matching data PD shown in FIG. 12A is referred to as pattern matching data PD1, the pattern matching data PD illustrated in FIG. 12B is referred to as pattern matching data PD2, and the pattern matching data PD illustrated in FIG. The pattern matching data PD shown in FIG. 12D is denoted as pattern matching data PD3, the pattern matching data PD shown in FIG. 12D is denoted as pattern matching data PD4, the pattern matching data PD shown in FIG. 12E is denoted as pattern matching data PD5, and FIG. The pattern matching data PD shown may be referred to as pattern matching data PD6.

図12A~図12Fに示すように、複数のパターンマッチング用データPDの料理画像MGは、それぞれ、複数の料理(例えば、ピザ及びトースト等)に対応する。また、複数の料理画像MGは、それぞれ、1つの料理が加熱される過程において、異なる時の料理を示す。 As shown in FIGS. 12A to 12F, the dish images MG of the plurality of pattern matching data PD respectively correspond to a plurality of dishes (eg, pizza, toast, etc.). Also, the plurality of food images MG each show the food at different times during the process of heating one food.

例えば、図12A~図12Cに示すパターンマッチング用データPD1~パターンマッチング用データPD3の各々の料理画像MGは、ピザが加熱される過程において、異なる時のピザを示す。 For example, each dish image MG of pattern matching data PD1 to pattern matching data PD3 shown in FIGS. 12A to 12C shows pizza at different times during the pizza heating process.

図12Aに示すように、パターンマッチング用データPD1の料理画像MGが示すピザは、パターンマッチング用データPD2の料理画像MGが示すピザ及びパターンマッチング用データPD3の料理画像MGが示すピザよりも前の段階のピザを示す。実施形態2において、パターンマッチング用データPD1の料理画像MGには、「ピザ」を示す名称情報MN1がラベル付けされている。 As shown in FIG. 12A, the pizza indicated by the dish image MG of the pattern matching data PD1 is located before the pizza indicated by the dish image MG of the pattern matching data PD2 and the pizza indicated by the dish image MG of the pattern matching data PD3. Showing pizza in stages. In the second embodiment, the dish image MG in the pattern matching data PD1 is labeled with the name information MN1 indicating "pizza".

また、図12Bに示すように、パターンマッチング用データPD2の料理画像MGが示すピザは、パターンマッチング用データPD1の料理画像MGが示すピザとパターンマッチング用データPD3の料理画像MGが示すピザとの間の段階のピザを示す。実施形態2において、パターンマッチング用データPD2の料理画像MGには、「ピザ」を示す名称情報MN1がラベル付けされている。 Also, as shown in FIG. 12B, the pizza indicated by the dish image MG of the pattern matching data PD2 is different from the pizza indicated by the dish image MG of the pattern matching data PD1 and the pizza indicated by the dish image MG of the pattern matching data PD3. shows a pizza in between stages. In the second embodiment, the food image MG in the pattern matching data PD2 is labeled with the name information MN1 indicating "pizza".

さらに、図12Cに示すように、パターンマッチング用データPD3の料理画像MGが示すピザは、パターンマッチング用データPD1の料理画像MGが示すピザ及びパターンマッチング用データPD2の料理画像MGが示すピザよりも後の段階のピザを示す。実施形態2において、パターンマッチング用データPD3の料理画像MGには、「ピザ」を示す名称情報MN1がラベル付けされている。 Furthermore, as shown in FIG. 12C, the pizza indicated by the dish image MG of the pattern matching data PD3 is higher than the pizza indicated by the dish image MG of the pattern matching data PD1 and the pizza indicated by the dish image MG of the pattern matching data PD2. A later stage pizza is shown. In the second embodiment, the dish image MG in the pattern matching data PD3 is labeled with the name information MN1 indicating "pizza".

また、例えば、図12D~図12Fに示すパターンマッチング用データPD4~パターンマッチング用データPD6の各々は、トーストが加熱される過程において、異なる時のトーストを示す。 Also, for example, each of pattern matching data PD4 to pattern matching data PD6 shown in FIGS. 12D to 12F indicates toast at different times during the process of heating the toast.

図12Dに示すように、パターンマッチング用データPD4の料理画像MGが示すトーストは、パターンマッチング用データPD5の料理画像MGが示すトースト及びパターンマッチング用データPD6の料理画像MGが示すトーストよりも前の段階のトーストを示す。実施形態2において、料理画像MG4には、「トースト」を示す名称情報MN2がラベル付けされている。 As shown in FIG. 12D, the toast indicated by the dish image MG of the pattern matching data PD4 is an earlier toast than the toast indicated by the dish image MG of the pattern matching data PD5 and the toast indicated by the dish image MG of the pattern matching data PD6. Indicates a staged toast. In the second embodiment, the food image MG4 is labeled with name information MN2 indicating "toast".

また、図12Eに示すように、パターンマッチング用データPD5の料理画像MGが示すトーストは、パターンマッチング用データPD5の料理画像MGが示すトーストとパターンマッチング用データPD6の料理画像MGが示すトーストとの間の段階のトーストを示す。実施形態2において、パターンマッチング用データPD5の料理画像MGには、「トースト」を示す名称情報MN2がラベル付けされている。 Also, as shown in FIG. 12E, the toast indicated by the food image MG of the pattern matching data PD5 is different from the toast indicated by the food image MG of the pattern matching data PD5 and the toast indicated by the food image MG of the pattern matching data PD6. Indicates a toast in the middle stage. In the second embodiment, the dish image MG in the pattern matching data PD5 is labeled with name information MN2 indicating "toast".

さらに、図12Fに示すように、パターンマッチング用データPD6の料理画像MGが示すトーストは、パターンマッチング用データPD4の料理画像MG4が示すトースト及びパターンマッチング用データPD5の料理画像MG5が示すトーストよりも後の段階のトーストを示す。実施形態2において、パターンマッチング用データPD6の料理画像MG6には、「トースト」を示す名称情報MN2がラベル付けされている。 Furthermore, as shown in FIG. 12F, the toast indicated by the food image MG of the pattern matching data PD6 is higher than the toast indicated by the food image MG4 of the pattern matching data PD4 and the toast indicated by the food image MG5 of the pattern matching data PD5. Indicates a later stage toast. In the second embodiment, the dish image MG6 in the pattern matching data PD6 is labeled with name information MN2 indicating "toast".

次に、図13を参照して、撮像結果の向きの補正について説明する。図13は、撮像部40の撮像結果である料理画像HGと、補正後の撮像結果である料理画像HGAとを示す図である。図13に示すように、被加熱物がピザPzである場合を例に挙げて説明する。すなわち、図13に示す例において、ターンテーブル60にピザPzが載置されている。 Next, with reference to FIG. 13, correction of the orientation of the imaging result will be described. FIG. 13 is a diagram showing a food image HG that is the imaging result of the imaging unit 40 and a food image HGA that is the imaging result after correction. As shown in FIG. 13, the case where the object to be heated is a pizza Pz will be described as an example. That is, in the example shown in FIG. 13, a pizza Pz is placed on the turntable 60 .

補正部14は、ターンテーブル60が回転するときの角速度ωに基づいて、料理画像HGの向きを補正する。料理画像HGAは、補正部14によって、角速度ωと被加熱物が加熱された計測部13の計測結果とに基づき料理画像HGの向きを補正したものである。計測部13の計測結果は、被加熱物が加熱部30によって加熱された時間tのことである。具体的には、θ=ω×tによって、料理画像HGの向きを補正する角度θが算出される。補正部14は、角度θだけ、ターンテーブル60が回転する方向と反対の方向に料理画像HGを回転させることによって、料理画像HGを補正する。 The correction unit 14 corrects the orientation of the food image HG based on the angular velocity ω when the turntable 60 rotates. The food image HGA is obtained by correcting the orientation of the food image HG by the correction unit 14 based on the angular velocity ω and the measurement result of the measurement unit 13 in which the object to be heated is heated. The measurement result of the measurement unit 13 is the time t during which the object to be heated is heated by the heating unit 30 . Specifically, the angle θ for correcting the orientation of the food image HG is calculated by θ=ω×t. The correction unit 14 corrects the food image HG by rotating the food image HG by an angle θ in the direction opposite to the direction in which the turntable 60 rotates.

推定部11aは、補正後の料理画像HGAと、記憶部20aに記憶される料理画像MGとを比較して、比較結果に基づいて、被加熱物の名称を推定する。従って、料理画像HGの向きを補正せずに被加熱物の名称を推定する場合よりも、精度よく被加熱物の名称を推定できる。 The estimation unit 11a compares the corrected food image HGA with the food image MG stored in the storage unit 20a, and estimates the name of the object to be heated based on the comparison result. Therefore, the name of the object to be heated can be estimated with higher accuracy than when estimating the name of the object to be heated without correcting the orientation of the food image HG.

本実施形態において、推定部11aは、比較結果が示すマッチング率が閾値以上であるか否かを判定する。マッチング率とは、料理画像HGAが示す被加熱物と、記憶部20aに記憶される料理画像MGとのマッチングする比率を示す。閾値は、例えば90%である。すなわち、料理画像HGAと、料理画像MGとのマッチング率が90%以上である場合、推定部11aは、被加熱物の名称が、料理画像MGに関連付けられた名称情報MNであると推定する。そして、加熱制御部12は、推定部11aの推定結果に応じて、加熱部30を制御する。 In this embodiment, the estimation unit 11a determines whether or not the matching rate indicated by the comparison result is equal to or greater than the threshold. The matching ratio indicates the ratio of matching between the object to be heated indicated by the food image HGA and the food image MG stored in the storage unit 20a. A threshold is, for example, 90%. That is, when the matching rate between the food image HGA and the food image MG is 90% or more, the estimation unit 11a estimates that the name of the object to be heated is the name information MN associated with the food image MG. Then, the heating control unit 12 controls the heating unit 30 according to the estimation result of the estimation unit 11a.

次に、図14を参照して、実施形態2の加熱調理器1aが実行する処理について説明する。図14は、加熱調理器1aが実行する処理を示すフローチャートである。 Next, with reference to FIG. 14, the process performed by the heating cooker 1a of Embodiment 2 will be described. FIG. 14 is a flow chart showing the process executed by the heating cooker 1a.

図14に示すように、ステップS21において、操作部50は、加熱部30による加熱開始の指示を受け付ける。そして、加熱制御部12は、被加熱物を加熱するように加熱部30を制御する。その結果、加熱部30は被加熱物を加熱する。また、加熱部30が被加熱物への加熱を開始するとともに、計測部13は、被加熱物が加熱される時間の計測を開始する。 As shown in FIG. 14 , in step S<b>21 , the operation unit 50 receives an instruction to start heating by the heating unit 30 . Then, the heating control section 12 controls the heating section 30 so as to heat the object to be heated. As a result, the heating unit 30 heats the object to be heated. In addition, the heating unit 30 starts heating the object to be heated, and the measurement unit 13 starts measuring the time during which the object to be heated is heated.

ステップS22において、制御部10は、被加熱物を撮像するように撮像部40を制御する。その結果、撮像部40は、被加熱物を撮像する。 In step S22, the control unit 10 controls the imaging unit 40 to image the object to be heated. As a result, the imaging unit 40 images the object to be heated.

ステップS23において、補正部14は、ターンテーブル60が回転しているか否かを判定する。ステップS23で肯定的判定(Yes)がされる場合、すなわち、ターンテーブル60が回転していると補正部14が判定した場合、処理はステップS24に進む。一方。ステップS23で否定的判定(No)がされる場合、すなわち、ターンテーブル60が回転していないと補正部14が判定した場合、処理はステップS25に進む。ここで、補正部14は、ターンテーブル60を回転させるモーターが駆動しているか否かを判定することで、ターンテーブル60が回転しているか否かを判定してもよい。 In step S23, the correction unit 14 determines whether the turntable 60 is rotating. If affirmative determination (Yes) is made in step S23, that is, if the correction unit 14 determines that the turntable 60 is rotating, the process proceeds to step S24. on the other hand. If a negative determination (No) is made in step S23, that is, if the correction unit 14 determines that the turntable 60 is not rotating, the process proceeds to step S25. Here, the correction unit 14 may determine whether or not the turntable 60 is rotating by determining whether or not the motor that rotates the turntable 60 is being driven.

ステップS24において、補正部14は、ターンテーブル60が回転するときの角速度ωと、計測部13の計測結果とに基づいて、ステップS22での撮像部40の撮像結果である料理画像HGを補正する。 In step S24, the correction unit 14 corrects the food image HG, which is the imaging result of the imaging unit 40 in step S22, based on the angular velocity ω when the turntable 60 rotates and the measurement result of the measurement unit 13. .

ステップS25において、推定部11は、撮像結果である料理画像HGと、料理画像MGとを比較する。なお、ステップS24で撮像結果である料理画像HGが補正部14によって補正された場合、推定部11は、補正後の撮像結果である料理画像HGAと料理画像MGとを比較する。 In step S25, the estimating unit 11 compares the food image HG, which is the imaged result, with the food image MG. Note that when the food image HG, which is the imaged result, is corrected by the correction unit 14 in step S24, the estimation unit 11 compares the food image HGA, which is the imaged result after correction, with the food image MG.

ステップS26において、推定部11は、ステップS25における比較結果が示すマッチング率が閾値以上であるか否かを判定する。ステップS26において否定的判定(No)がされる場合、すなわち、撮像結果と料理画像MGとのマッチング率が閾値未満である場合、処理はステップS22に進む。一方、ステップS26において肯定的判定(Yes)がされる場合、すなわち、撮像結果と料理画像MGとのマッチング率が閾値以上である場合、処理はステップS27に進む。 In step S26, the estimation unit 11 determines whether or not the matching rate indicated by the comparison result in step S25 is equal to or greater than a threshold. If a negative determination (No) is made in step S26, that is, if the matching rate between the imaging result and the dish image MG is less than the threshold, the process proceeds to step S22. On the other hand, if an affirmative determination (Yes) is made in step S26, that is, if the matching rate between the imaging result and the food image MG is equal to or higher than the threshold, the process proceeds to step S27.

ステップS27において、推定部11は、被加熱物の名称を推定する。具体的には、マッチング率が閾値以上であった料理画像MGに関連づけられている名称情報MNを取得する。 In step S27, the estimation unit 11 estimates the name of the object to be heated. Specifically, the name information MN associated with the food image MG whose matching rate is equal to or higher than the threshold is acquired.

ステップS28において、加熱制御部12は、推定部11の推定結果に応じて、被加熱物に対する加熱時間Htと、加熱強度Hsとを決定する。 In step S<b>28 , the heating control unit 12 determines the heating time Ht and the heating intensity Hs for the object to be heated according to the estimation result of the estimation unit 11 .

ステップS29において、加熱制御部12は、計測部13の計測結果と、ステップS6で決定した加熱時間Htとに基づいて、被加熱物に対する残りの加熱時間Rtを決定する。 In step S29, the heating control unit 12 determines the remaining heating time Rt for the object to be heated based on the measurement result of the measuring unit 13 and the heating time Ht determined in step S6.

ステップS30において、加熱制御部12は、ステップS29で決定した加熱強度Hsに基づいて、加熱部30の加熱強度を調整する。 In step S30, the heating control unit 12 adjusts the heating intensity of the heating unit 30 based on the heating intensity Hs determined in step S29.

ステップS31において、加熱制御部12は、ステップS29で残りの加熱時間Rtが決定されたときから、加熱時間Rtが経過したか否かを判定する。ステップS31において肯定的判定(Yes)がされる場合、処理はステップS32に進む。一方、ステップS31において否定的判定(No)がされる場合、処理は、ステップS31に戻る。 In step S31, the heating control unit 12 determines whether or not the heating time Rt has elapsed since the remaining heating time Rt was determined in step S29. If affirmative determination (Yes) is made in step S31, the process proceeds to step S32. On the other hand, if a negative determination (No) is made in step S31, the process returns to step S31.

ステップS32において、加熱制御部12は、被加熱物への加熱を停止するように加熱部30を制御する。その結果、加熱部30は、加熱を停止する。 In step S32, the heating control unit 12 controls the heating unit 30 to stop heating the object. As a result, the heating unit 30 stops heating.

(変形例)
次に、図15を参照して、実施形態1の変形例に係る加熱調理器1について説明する。図15は、実施形態1の変形例に係る加熱調理器1の学習済みモデルLMが機械学習した学習データTdaを示す図である。変形例では、1つの学習データTdaが複数の学習対象料理画像LDを含む点で、変形例は実施形態1と主に異なる。以下、変形例が実施形態1と異なる点を主に説明する。
(Modification)
Next, referring to FIG. 15, the heating cooker 1 according to the modification of the first embodiment will be described. FIG. 15 is a diagram showing learning data Tda machine-learned by the learned model LM of the heating cooker 1 according to the modification of the first embodiment. The modification mainly differs from the first embodiment in that one piece of learning data Tda includes a plurality of learning target food images LD. Differences of the modified example from the first embodiment will be mainly described below.

図15に示すように、1つの学習データTdaは、複数の学習対象料理画像LDと、名称情報MNとを含む。具体的には、学習データTdaは、複数の学習対象料理画像LD1~LDNXを含む。理解を容易にするため、料理の焼き色をハッチングで示している。具体的には、ハッチングの間隔が広いほど焼き色が薄く、ハッチングの間隔が狭いほど焼き色が濃いように示している。 As shown in FIG. 15, one piece of learning data Tda includes a plurality of learning target dish images LD and name information MN. Specifically, the learning data Tda includes a plurality of learning target food images LD1 to LDNX. To make it easier to understand, the browning color of the food is indicated by hatching. Specifically, the wider the hatching interval, the lighter the baked color, and the narrower the hatched interval, the darker the baked color.

複数の学習対象料理画像LDは、それぞれ、料理が加熱される過程において、異なる時の料理を示す。具体的には、複数の学習対象料理画像LDは、それぞれ、1つの料理が加熱される過程において、所定時間ごとに撮像された料理を示す。変形例において、所定時間は例えば2秒である。すなわち、変形例に係る学習済みモデルLMが学習する学習対象料理画像LDは、料理動画である。 A plurality of learning object food images LD each show the food at different times during the process of heating the food. Specifically, each of the plurality of learning object food images LD indicates a food imaged at predetermined time intervals during the process of heating one food. In a variant, the predetermined time is, for example, 2 seconds. That is, the learning target cooking image LD learned by the learned model LM according to the modified example is a cooking video.

変形例に係る撮像部40は、例えば、所定時間ごとに被加熱物を撮像する。そして、推定部11は、所定時間ごとに撮像された複数の撮像結果である料理動画を学習済みモデルLMに入力する。すなわち、変形例において、学習済みモデルLMの入力情報は、撮像部40によって撮像された動画である。学習済みモデルLMは、入力された料理動画に基づいて、料理動画が示す被加熱物の名称情報MNを出力する。 The imaging unit 40 according to the modification images the object to be heated, for example, at predetermined time intervals. Then, the estimating unit 11 inputs cooking videos, which are a plurality of imaging results captured at predetermined time intervals, to the learned model LM. That is, in the modified example, the input information of the trained model LM is the moving image captured by the imaging unit 40 . Based on the input cooking animation, the learned model LM outputs name information MN of the object to be heated indicated by the cooking animation.

以上、図面を参照しながら本発明の実施形態及び変形例について説明した。但し、本発明は、上記の実施形態に限られるものではなく、その要旨を逸脱しない範囲で種々の態様において実施することが可能である。また、上記の実施形態に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明の形成が可能である。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。図面は、理解しやすくするために、それぞれの構成要素を主体に模式的に示しており、図示された各構成要素の個数等は、図面作成の都合から実際とは異なる場合もある。また、上記の実施形態で示す各構成要素は一例であって、特に限定されるものではなく、本発明の効果から実質的に逸脱しない範囲で種々の変更が可能である。 The embodiments and modifications of the present invention have been described above with reference to the drawings. However, the present invention is not limited to the above-described embodiments, and can be implemented in various aspects without departing from the gist of the present invention. Various inventions can be formed by appropriately combining the plurality of constituent elements disclosed in the above embodiments. For example, some components may be omitted from all components shown in the embodiments. In order to facilitate understanding, the drawings mainly show each component schematically, and the number of each component shown in the figure may differ from the actual number for convenience of drawing preparation. Also, each component shown in the above embodiment is an example and is not particularly limited, and various modifications are possible within a range that does not substantially deviate from the effects of the present invention.

(1)図7を参照して説明したように、学習済みモデルLMは、推定部11によって入力された料理画像HGに基づいて、料理画像HGが示す被加熱物の名称示す名称情報MNを出力した。ただし、推定部11によって入力された料理画像HGに基づいて、学習済みモデルLMが被加熱物の名称を推定できない場合、学習済みモデルLMは、例えば、名称情報MNを出力しなくてもよいし、「不明」を示す名称情報MNを出力してもよい。学習済みモデルLMが名称情報MNを出力しない場合、又は学習済みモデルLMが「不明」を示す名称情報MNを出力する場合、推定部11は、再度、撮像部40が被加熱物を撮像するように撮像部40を制御する。具体的には、推定部11は、前回撮像部40が被加熱物を撮像してから所定時間後に被加熱物を撮像するように撮像部40を制御する。すなわち、推定部11が被加熱物の名称を推定するまで、撮像部40は、所定時間ごとに被加熱物を撮像する。従って、被加熱物にとって適切でない加熱強度と加熱時間とで、被加熱物が加熱されることを抑制できる。 (1) As described with reference to FIG. 7, based on the food image HG input by the estimation unit 11, the learned model LM outputs name information MN indicating the name of the object to be heated indicated by the food image HG. did. However, if the trained model LM cannot estimate the name of the object to be heated based on the food image HG input by the estimation unit 11, the trained model LM does not have to output the name information MN, for example. , name information MN indicating "unknown" may be output. When the learned model LM does not output the name information MN, or when the learned model LM outputs the name information MN indicating “unknown”, the estimating unit 11 instructs the imaging unit 40 to image the object to be heated again. to control the imaging unit 40. Specifically, the estimating unit 11 controls the imaging unit 40 so that the object to be heated is imaged a predetermined time after the object to be heated is imaged by the imaging unit 40 last time. That is, until the estimation unit 11 estimates the name of the object to be heated, the imaging unit 40 takes an image of the object to be heated at predetermined time intervals. Therefore, it is possible to suppress heating of the object to be heated with heating intensity and heating time that are inappropriate for the object to be heated.

(2)図9を参照して説明したように、加熱制御部12は、計測部13の計測結果(加熱時間Ct)と、決定した加熱時間Htとに基づいて、被加熱物に対する残りの加熱時間Rtを決定した。そして、推定部11が名称情報MNを取得してから、残りの加熱時間Rtが経過することに応じて被加熱物への加熱が終了するように、加熱制御部12は加熱部30を制御した。ただし、加熱制御部12は、残りの加熱時間Rtが経過した時から、さらに一定の時間が経過した上で被加熱物への加熱が終了するように、加熱部30を制御してもよい。 (2) As described with reference to FIG. 9, the heating control unit 12 determines the remaining heating time for the object to be heated based on the measurement result (heating time Ct) of the measuring unit 13 and the determined heating time Ht. Time Rt was determined. Then, the heating control unit 12 controls the heating unit 30 so that the heating of the object to be heated ends when the remaining heating time Rt elapses after the estimating unit 11 acquires the name information MN. . However, the heating control unit 12 may control the heating unit 30 so that the heating of the object to be heated is completed after a certain period of time has elapsed after the remaining heating time Rt has elapsed.

(3)図10のステップS1~ステップS10の順番は、適宜変更し得る。 (3) The order of steps S1 to S10 in FIG. 10 can be changed as appropriate.

(4)図14のステップS21~図15のステップS32の順番は、適宜変更し得る。 (4) The order of steps S21 in FIG. 14 to step S32 in FIG. 15 can be changed as appropriate.

(5)図4A~図4Cを参照して説明したように、1つの料理に対して、3つの学習対象料理画像LGを学習済みモデルLMに入力させた。ただし、学習済みモデルLMが被加熱物の名称を推定できる限り、1つの料理に対して1つまたは2つの学習対象料理画像LGを学習してもよいし、4つ以上の学習対象料理画像LGを学習してもよい。 (5) As described with reference to FIGS. 4A to 4C, for one dish, three learning target dish images LG are input to the learned model LM. However, as long as the trained model LM can estimate the name of the object to be heated, one or two learning target food images LG may be learned for one dish, or four or more learning target food images LG may be learned. may be learned.

(6)図12及び図13を参照して説明したように、実施形態2に係る加熱調理器1aは、ターンテーブル60を備えていた。ただし、加熱調理器1aが被加熱物を加熱する限り、加熱調理器1aは、ターンテーブル60を備えていなくてもよい。この場合、補正部14は、撮像結果を補正しない。 (6) As described with reference to FIGS. 12 and 13, the cooker 1a according to Embodiment 2 includes the turntable 60. FIG. However, the heating cooker 1a does not have to include the turntable 60 as long as the heating cooker 1a heats the object to be heated. In this case, the correction unit 14 does not correct the imaging result.

(7)図12及び図13を参照して説明したように、実施形態2に係る加熱調理器1aの推定部11aは、撮像結果である料理画像HGと記憶部20aに記憶される料理画像MGとを比較して、比較結果に基づいて、被加熱物の名称を推定した。ただし、推定部11aが被加熱物の名称を推定できる限り、推定部11aは、複数の撮像結果である料理画像HGの差分と、記憶部20aに記憶される複数の料理画像MGの差分とを比較して、比較結果に基づいて、被加熱物の名称を推定してもよい。この場合、記憶部20aに記憶される複数の料理画像MGの差分とは、1つの料理が加熱される過程において異なる時の料理を示す複数の料理画像MGの差分のことである。 (7) As described with reference to FIGS. 12 and 13, the estimating unit 11a of the heating cooker 1a according to the second embodiment calculates the food image HG that is the imaging result and the food image MG stored in the storage unit 20a. and the name of the object to be heated was estimated based on the comparison result. However, as long as the estimating unit 11a can estimate the name of the object to be heated, the estimating unit 11a calculates the difference between the food images HG, which are the results of a plurality of imaging, and the differences between the food images MG stored in the storage unit 20a. The name of the object to be heated may be estimated based on the comparison result. In this case, the difference between the plurality of food images MG stored in the storage unit 20a is the difference between the plurality of food images MG showing the food at different times in the process of heating one food.

本発明は、加熱調理器及び学習済みモデル生成方法の分野に利用可能である。 INDUSTRIAL APPLICABILITY The present invention can be used in the fields of heat cookers and learned model generation methods.

1 加熱調理器
11 推定部
12 加熱制御部
13 計測部
14 補正部
20 記憶部
30 加熱部
40 撮像部
50 操作部
60 ターンテーブル
HG 料理画像
Ht 加熱時間
Hs 加熱強度
LM 学習済みモデル
LG 学習対象料理画像
MG 仕上げ画像
ST 状態情報
TD 学習データ
1 heating cooker 11 estimation unit 12 heating control unit 13 measurement unit 14 correction unit 20 storage unit 30 heating unit 40 imaging unit 50 operation unit 60 turntable HG cooking image Ht heating time Hs heating intensity LM learned model LG learning target cooking image MG Finished image ST State information TD Learning data

Claims (7)

被加熱物を加熱する加熱部と、
前記被加熱物が加熱されている時に、前記被加熱物を撮像する撮像部と、
前記撮像部の撮像結果に基づいて、前記被加熱物の加熱中に、前記被加熱物の名称を推定する推定部と、
前記推定部の推定結果に応じて、前記加熱部を制御する加熱制御部と
を備える、加熱調理器。
a heating unit that heats an object to be heated;
an imaging unit that captures an image of the object to be heated while the object to be heated is being heated;
an estimating unit for estimating the name of the object to be heated based on the imaging result of the imaging unit while the object to be heated is being heated;
and a heating control unit that controls the heating unit according to the estimation result of the estimation unit.
学習データを機械学習することで構築された学習済みモデルを記憶する記憶部をさらに備え、
前記学習データは、料理を示す学習対象料理画像と、前記料理の名称を示す名称情報とを含み、
前記推定部は、前記撮像結果である料理画像を前記学習済みモデルに入力し、
前記学習済みモデルは、前記入力された料理画像に基づいて、前記被加熱物の名称を示す名称情報を出力し、
前記推定部は、前記学習済みモデルが出力した前記名称情報を取得する、請求項1に記載の加熱調理器。
further comprising a storage unit that stores a learned model constructed by machine learning the learning data,
The learning data includes a learning target food image representing a food and name information representing the name of the food,
The estimating unit inputs the food image, which is the imaging result, into the learned model,
The learned model outputs name information indicating the name of the object to be heated based on the input food image,
The heating cooker according to claim 1, wherein the estimating unit acquires the name information output by the learned model.
複数の前記学習データの各々の前記学習対象料理画像は、それぞれ、一つの前記料理が加熱される過程において、異なる時の前記料理を示す、請求項2に記載の加熱調理器。 3. The heating cooker according to claim 2, wherein said learning target dish images of each of said plurality of said learning data respectively represent said dish at different times in the process of heating one said dish. 一つの料理に対して、複数の料理画像と前記料理の名称とを記憶する記憶部をさらに備え、
前記複数の料理画像は、それぞれ、前記料理が加熱される過程において、異なる時の前記料理を示し、
前記推定部は、前記撮像結果と前記料理画像とを比較して、比較結果に基づいて、前記被加熱物の名称を推定する、請求項1に記載の加熱調理器。
further comprising a storage unit for storing a plurality of food images and the name of the food for one food,
the plurality of food images respectively show the food at different times in the process of heating the food,
The heating cooker according to claim 1, wherein the estimating unit compares the imaging result with the food image, and estimates the name of the object to be heated based on the comparison result.
前記被加熱物が載置されて回転するターンテーブルと、
前記被加熱物が加熱された時間を計測する計測部と、
前記ターンテーブルが回転するときの角速度と、前記計測部の計測結果とに基づいて、前記撮像結果の向きを補正する補正部と
をさらに備え、
前記推定部は、補正後の前記撮像結果に基づいて、前記被加熱物の名称を推定する、請求項4に記載の加熱調理器。
a turntable on which the object to be heated is placed and rotated;
a measurement unit that measures the time the object to be heated is heated;
a correction unit that corrects the orientation of the imaging result based on the angular velocity when the turntable rotates and the measurement result of the measurement unit;
The heating cooker according to claim 4, wherein the estimation unit estimates the name of the object to be heated based on the corrected imaging result.
料理の名称に対して、前記料理に応じた加熱時間と、前記料理に応じた加熱強度とを関連付けて記憶する記憶部をさらに備え、
前記加熱制御部は、前記推定部の前記推定結果に応じて、前記被加熱物に対する前記加熱時間と、前記加熱強度とを決定する、請求項1から請求項5のいずれか1項に記載の加熱調理器。
further comprising a storage unit that stores, in association with a name of a dish, a heating time corresponding to the dish and a heating intensity corresponding to the dish;
6. The heating control unit according to any one of claims 1 to 5, wherein the heating control unit determines the heating time and the heating intensity for the object to be heated according to the estimation result of the estimation unit. heating cooker.
学習データを取得するステップと、
被加熱物の名称を推定する学習済みモデルを、前記学習データを機械学習することによって生成するステップと
を含み、
前記学習データは、料理を示す学習対象料理画像と、前記料理の名称を示す名称情報とを含む、学習済みモデル生成方法。
obtaining training data;
generating a trained model for estimating the name of the object to be heated by performing machine learning on the learning data;
The learned model generation method, wherein the learning data includes a learning target food image representing a food and name information representing a name of the food.
JP2021004942A 2021-01-15 2021-01-15 Cooker and learned model generation method Pending JP2022109554A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021004942A JP2022109554A (en) 2021-01-15 2021-01-15 Cooker and learned model generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021004942A JP2022109554A (en) 2021-01-15 2021-01-15 Cooker and learned model generation method

Publications (1)

Publication Number Publication Date
JP2022109554A true JP2022109554A (en) 2022-07-28

Family

ID=82560646

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021004942A Pending JP2022109554A (en) 2021-01-15 2021-01-15 Cooker and learned model generation method

Country Status (1)

Country Link
JP (1) JP2022109554A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013133718A (en) * 2011-12-26 2013-07-08 Shinya Fukuno Natural energy power generator
JP3234872U (en) * 2021-08-05 2021-11-11 五郎 五十嵐 A tandem diamond thin-film solar cell device installed in a vehicle.

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013133718A (en) * 2011-12-26 2013-07-08 Shinya Fukuno Natural energy power generator
JP3234872U (en) * 2021-08-05 2021-11-11 五郎 五十嵐 A tandem diamond thin-film solar cell device installed in a vehicle.

Similar Documents

Publication Publication Date Title
CN111481049B (en) Cooking equipment control method and device, cooking equipment and storage medium
US11382455B2 (en) Air fry cooking method and apparatus
JP6704125B2 (en) Cooker
CN113287947B (en) Steaming and baking cooking method and device, steaming and baking cooking equipment and storage medium
CN102538041B (en) For controlling the method hotting plate process in cooking equipment and cooking equipment
CN107752794B (en) Baking method and device
KR102342815B1 (en) System and method for providing recipe
US20210385917A1 (en) Method for operating a domestic cooking appliance and domestic cooking appliance
CN107647789A (en) Cooking control method, device and computer-readable recording medium
JP2007103289A (en) Induction heating cooker
US20210386239A1 (en) Method for treating products to be cooked, and domestic cooking appliance
US20230314003A1 (en) System and method for individual heating element control
CN113167477A (en) Method for operating a domestic cooking appliance and domestic cooking appliance
US20220357043A1 (en) Method and system for controlling an oven, and oven for heating food items
JP7300648B2 (en) heating cooker
JP2022109554A (en) Cooker and learned model generation method
JP2021063608A (en) Heat cooking system
JP5496168B2 (en) Cooker
US20210207811A1 (en) Method for preparing a cooking product, cooking device, and cooking device system
US20240044498A1 (en) Method for determining the cooking end time of food, and household cooking appliance
US20230200586A1 (en) Air fry cooking method and apparatus
CN111290446A (en) Control method, cooking appliance and computer-readable storage medium
JP2022110855A (en) Cooker and learned model creating method
WO2015141208A1 (en) High-frequency heating device
US20220117274A1 (en) Intelligent cooking system and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230920

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240304

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240402