JP2021181871A - Heating cooking system and heating cooking method, and learning device and learning method - Google Patents

Heating cooking system and heating cooking method, and learning device and learning method Download PDF

Info

Publication number
JP2021181871A
JP2021181871A JP2020088290A JP2020088290A JP2021181871A JP 2021181871 A JP2021181871 A JP 2021181871A JP 2020088290 A JP2020088290 A JP 2020088290A JP 2020088290 A JP2020088290 A JP 2020088290A JP 2021181871 A JP2021181871 A JP 2021181871A
Authority
JP
Japan
Prior art keywords
heating
image
learning
cooking menu
heated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020088290A
Other languages
Japanese (ja)
Other versions
JP7482683B2 (en
Inventor
喜輝 杉本
Yoshiteru Sugimoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rinnai Corp
Original Assignee
Rinnai Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rinnai Corp filed Critical Rinnai Corp
Priority to JP2020088290A priority Critical patent/JP7482683B2/en
Priority claimed from JP2020088290A external-priority patent/JP7482683B2/en
Publication of JP2021181871A publication Critical patent/JP2021181871A/en
Application granted granted Critical
Publication of JP7482683B2 publication Critical patent/JP7482683B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Induction Heating Cooking Devices (AREA)
  • Electric Stoves And Ranges (AREA)

Abstract

To provide a technology capable of controlling a heating amount of a heating portion, corresponding to a cooking menu cooked by a user.SOLUTION: A heating cooking system is equipped with a heating portion that heats a heating object, an image obtaining portion, a cooking menu estimating portion, and a heating amount control portion. The image obtaining portion obtains an object image before heating, from an imaging device configured to pick up the object image before heating that is an image including a state of the heating object subjected to preparation before heating the heating object with the heating portion. The cooking menu estimating portion inputs the object image before heating obtained by the image obtaining portion in a learned learning apparatus that has performed mechanical learning for estimating a cooking menu that a user cooks by heating the heating object with the heating portion, on the basis of the object image before heating, and executes computing processing of the learned learning apparatus to obtain the cooking menu from the learning apparatus. The heating amount control portion controls a heating amount of the heating portion on the basis of the cooking menu estimated by the cooking menu estimating portion.SELECTED DRAWING: Figure 7

Description

本明細書が開示する技術は、加熱調理システムおよび加熱調理方法、学習装置および学習方法に関する。 The techniques disclosed herein relate to cooking systems and cooking methods, learning devices and learning methods.

特許文献1に、撮像装置(例えば、カメラ)で加熱対象物(特許文献1では被写体画像と称している)の画像を撮像し、その画像に基づいて加熱部の加熱量を制御する加熱調理器が開示されている。特許文献1の加熱調理器は、撮像装置が撮像した加熱対象物の画像から加熱対象物を収容している調理容器の種類を識別する。特許文献1の加熱調理器は、識別した調理容器の種類に基づいて、加熱部の加熱量を制御する。 In Patent Document 1, an image of an object to be heated (referred to as a subject image in Patent Document 1) is imaged by an image pickup device (for example, a camera), and a heating cooker that controls the heating amount of a heating unit based on the image. Is disclosed. The cooking device of Patent Document 1 identifies the type of cooking container containing the heating object from the image of the heating object captured by the image pickup apparatus. The cooking device of Patent Document 1 controls the heating amount of the heating unit based on the type of the identified cooking container.

特開2015−68542号公報Japanese Unexamined Patent Publication No. 2015-68542

特許文献1の加熱調理器では、調理メニューが異なる場合であっても、同じ種類の調理容器で調理する場合には、同じ加熱量で加熱部が制御される。このため、調理メニューによっては、加熱部の加熱量が過大になったり過少になったりするおそれがある。本明細書では、ユーザが調理する調理メニューに対応して、加熱部の加熱量を制御することができる技術を提供する。 In the cooking device of Patent Document 1, even if the cooking menu is different, when cooking in the same type of cooking container, the heating unit is controlled by the same amount of heating. Therefore, depending on the cooking menu, the heating amount of the heating unit may be excessive or excessive. The present specification provides a technique capable of controlling the heating amount of the heating unit according to the cooking menu to be cooked by the user.

上記一側面に係る加熱調理システムは、加熱部と、画像取得部と、調理メニュー推定部と、加熱量制御部と、を備えている。加熱部は、加熱対象物を加熱する。画像取得部は、前記加熱対象物を前記加熱部で加熱する前の準備が施されている前記加熱対象物の状態を含む画像である加熱前対象物画像を撮像可能に構成されている撮像装置から、前記加熱前対象物画像を取得する。調理メニュー推定部は、ユーザが前記加熱対象物を前記加熱部で加熱して調理する調理メニューを、前記加熱前対象物画像に基づいて推定するための機械学習を行った学習済みの学習器に、前記画像取得部が取得した前記加熱前対象物画像を入力し、前記学習済みの学習器の演算処理を実行することで、前記調理メニューを前記学習器から取得する。加熱量制御部は、前記調理メニュー推定部が推定した前記調理メニューに基づいて、前記加熱部の加熱量を制御する。 The cooking system according to the above aspect includes a heating unit, an image acquisition unit, a cooking menu estimation unit, and a heating amount control unit. The heating unit heats the object to be heated. The image acquisition unit is an image pickup device capable of capturing an image of the object to be heated, which is an image including the state of the object to be heated, which is prepared before the object to be heated is heated by the heating unit. The image of the object before heating is acquired from. The cooking menu estimation unit is a learned learning device that has been machine-learned for the user to estimate the cooking menu in which the heating object is heated by the heating unit and cooked based on the image of the object before heating. The cooking menu is acquired from the learning device by inputting the image of the object before heating acquired by the image acquisition unit and executing the arithmetic processing of the learned learning device. The heating amount control unit controls the heating amount of the heating unit based on the cooking menu estimated by the cooking menu estimation unit.

上記の加熱調理システムによれば、調理する際にユーザが実行する加熱前準備の画像に基づいて、調理メニューを推定し、推定された調理メニューに対応して加熱部の加熱量を制御することができる。 According to the above cooking system, the cooking menu is estimated based on the image of the preheating preparation performed by the user during cooking, and the heating amount of the heating unit is controlled according to the estimated cooking menu. Can be done.

また、上記一側面に係る加熱調理システムは、前記加熱前対象物画像に基づいて前記加熱対象物が含んでいる食材に関する情報である食材情報を解析する食材情報解析部をさらに備えていてもよい。その場合、前記学習器は、前記食材情報にも基づいて前記調理メニューを推定するための機械学習を行ってもよい。前記調理メニュー推定部は、前記食材情報解析部が解析した前記食材情報も前記学習器に入力し、前記学習済みの学習器の演算処理を実行することで、前記調理メニューを前記学習器から取得してもよい。 Further, the cooking system according to the above aspect may further include a food material information analysis unit that analyzes food material information which is information about food materials contained in the heating object based on the image of the object before heating. .. In that case, the learning device may perform machine learning for estimating the cooking menu based on the food material information. The cooking menu estimation unit also inputs the food material information analyzed by the food material information analysis unit into the learning device, and executes arithmetic processing of the learned learning device to acquire the cooking menu from the learning device. You may.

上記の加熱調理システムによれば、食材情報解析部が解析した食材情報にも基づいて調理メニューを推定することで、調理メニューの推定精度を向上させることができる。 According to the above-mentioned cooking system, the estimation accuracy of the cooking menu can be improved by estimating the cooking menu based on the food information analyzed by the food information analysis unit.

さらに、上記一側面に係る加熱調理システムでは、前記撮像装置は、前記加熱部により加熱されている前記加熱対象物の状態を含む画像である加熱中対象物画像も撮像可能に構成されてもよい。その場合、前記画像取得部は、前記撮像装置から前記加熱中対象物画像も取得してもよい。前記学習器は、前記加熱中対象物画像にも基づいて前記調理メニューを推定するための機械学習を行ってもよい。前記調理メニュー推定部は、前記画像取得部が取得した前記加熱中対象物画像も前記学習器に入力し、前記学習済みの学習器の演算処理を実行することで前記調理メニューを前記学習器から取得してもよい。 Further, in the cooking system according to the one aspect, the image pickup device may be configured to be able to capture an image of the object being heated, which is an image including the state of the object to be heated, which is heated by the heating unit. .. In that case, the image acquisition unit may also acquire the image of the object being heated from the image pickup device. The learning device may perform machine learning for estimating the cooking menu based on the image of the object being heated. The cooking menu estimation unit also inputs the image of the object being heated acquired by the image acquisition unit into the learning device, and executes arithmetic processing of the learned learning device to obtain the cooking menu from the learning device. You may get it.

上記の加熱調理システムによれば、加熱中対象物画像にも基づいて調理メニューを推定することで、調理メニューの推定精度を向上させることができる。 According to the above-mentioned cooking system, the estimation accuracy of the cooking menu can be improved by estimating the cooking menu based on the image of the object being heated.

また、上記一側面に係る加熱調理システムでは、前記撮像装置は、前記加熱部により前記加熱対象物を加熱している前記ユーザの状態を含む画像である加熱中ユーザ画像も撮像可能に構成されてもよい。その場合、前記画像取得部は、前記撮像装置から前記加熱中ユーザ画像も取得してもよい。前記学習器は、前記加熱中ユーザ画像にも基づいて前記調理メニューを推定するための機械学習を行ってもよい。前記調理メニュー推定部は、前記画像取得部が取得した前記加熱中ユーザ画像も前記学習器に入力し、前記学習済みの学習器の演算処理を実行することで、前記調理メニューを前記学習器から取得してもよい。 Further, in the cooking system according to the one aspect, the image pickup device is configured to be able to capture a heating user image which is an image including the state of the user who is heating the heating object by the heating unit. May be good. In that case, the image acquisition unit may also acquire the heating user image from the image pickup device. The learning device may perform machine learning for estimating the cooking menu based on the user image during heating. The cooking menu estimation unit also inputs the heating user image acquired by the image acquisition unit into the learning device, and executes arithmetic processing of the learned learning device to obtain the cooking menu from the learning device. You may get it.

上記の加熱調理システムによれば、加熱中ユーザ画像にも基づいて調理メニューを推定することで、調理メニューの推定精度を向上させることができる。 According to the above-mentioned cooking system, the estimation accuracy of the cooking menu can be improved by estimating the cooking menu based on the user image during heating.

また、上記一側面に係る加熱調理システムは、前記加熱中ユーザ画像に基づいて前記ユーザに関する情報であるユーザ情報を解析するユーザ情報解析部をさらに備えてもよい。その場合、前記学習器は、前記ユーザ情報にも基づいて前記調理メニューを推定するための機械学習を行ってもよい。前記調理メニュー推定部は、前記ユーザ情報解析部が解析した前記ユーザ情報も前記学習器に入力し、前記学習済みの学習器の演算処理を実行することで、前記調理メニューを前記学習器から取得してもよい。 Further, the cooking system according to the above aspect may further include a user information analysis unit that analyzes user information that is information about the user based on the heating user image. In that case, the learning device may perform machine learning for estimating the cooking menu based on the user information. The cooking menu estimation unit also inputs the user information analyzed by the user information analysis unit into the learning device, and executes arithmetic processing of the learned learning device to acquire the cooking menu from the learning device. You may.

上記の加熱調理システムによれば、ユーザ情報にも基づいて調理メニューを推定することで、調理メニューの推定精度を向上させることができる。 According to the above-mentioned cooking system, the estimation accuracy of the cooking menu can be improved by estimating the cooking menu based on the user information.

上記一側面に係る加熱調理方法では、コンピュータが、加熱前画像取得ステップと、調理メニュー推定ステップと、加熱量制御ステップと、を実行してもよい。加熱前画像取得ステップでは、コンピュータが、加熱対象物を加熱部で加熱する前の準備が施されている前記加熱対象物の状態を含む画像である加熱前対象物画像を撮像可能に構成されている撮像装置から、前記加熱前対象物画像を取得する。調理メニュー推定ステップでは、コンピュータが、ユーザが前記加熱対象物を前記加熱部で加熱して調理する調理メニューを、前記加熱前対象物画像に基づいて推定するための機械学習を行った学習済みの学習器に、取得した前記加熱前対象物画像を入力し、前記学習済みの学習器の演算処理を実行することで、前記調理メニューを前記学習器から取得する。加熱量制御ステップでは、コンピュータが、前記調理メニュー推定ステップで取得した前記調理メニューに基づいて、前記加熱部の加熱量を制御する。 In the cooking method according to the above aspect, the computer may execute the pre-heating image acquisition step, the cooking menu estimation step, and the heating amount control step. In the pre-heating image acquisition step, the computer is configured to be able to capture an image of the pre-heating object, which is an image including the state of the pre-heating object that has been prepared before the heating object is heated by the heating unit. The image of the object before heating is acquired from the image pickup device. In the cooking menu estimation step, the computer has performed machine learning to estimate the cooking menu in which the user heats the heated object in the heating unit and cooks it based on the image of the object before heating. The cooking menu is acquired from the learning device by inputting the acquired image of the object before heating into the learning device and executing the arithmetic processing of the learned learning device. In the heating amount control step, the computer controls the heating amount of the heating unit based on the cooking menu acquired in the cooking menu estimation step.

上記一側面に係る加熱調理方法では、前記コンピュータが、前記加熱前対象物画像に基づいて前記加熱対象物が含んでいる食材に関する情報である食材情報を解析する食材情報解析ステップをさらに実行してもよい。その場合、前記学習器は、前記食材情報にも基づいて前記調理メニューを推定するための機械学習を行ってもよい。前記コンピュータは、前記調理メニュー推定ステップにおいて、前記食材情報解析ステップで解析した前記食材情報も前記学習器に入力し、前記学習済みの学習器の演算処理を実行することで前記調理メニューを前記学習器から取得してもよい。 In the cooking method according to the above aspect, the computer further executes a food information analysis step of analyzing food information, which is information about the food contained in the heating target, based on the image of the object to be heated. May be good. In that case, the learning device may perform machine learning for estimating the cooking menu based on the food material information. In the cooking menu estimation step, the computer also inputs the foodstuff information analyzed in the foodstuff information analysis step into the learning device, and executes the arithmetic processing of the learned learning device to learn the cooking menu. It may be obtained from a vessel.

上記一側面に係る加熱調理方法では、前記撮像装置は、前記加熱部により加熱されている前記加熱対象物の状態を含む画像である加熱中対象物画像も撮像可能に構成されていてもよい。その場合、前記学習器は、前記加熱中対象物画像にも基づいて前記調理メニューを推定するための機械学習を行ってもよい。前記コンピュータは、前記撮像装置から前記加熱中対象物画像を取得する加熱中対象物画像取得ステップをさらに実行してもよい。コンピュータは、前記調理メニュー推定ステップにおいて、前記加熱中対象物画像取得ステップで取得した前記加熱中対象物画像も前記学習器に入力し、前記学習済みの学習器の演算処理を実行することで前記調理メニューを前記学習器から取得してもよい。 In the cooking method according to the above aspect, the image pickup apparatus may be configured to be able to capture an image of the object being heated, which is an image including the state of the object being heated by the heating unit. In that case, the learner may perform machine learning for estimating the cooking menu based on the image of the object being heated. The computer may further perform the heating object image acquisition step of acquiring the heating object image from the image pickup device. In the cooking menu estimation step, the computer also inputs the heating object image acquired in the heating object image acquisition step into the learning device, and executes the arithmetic processing of the learned learning device. The cooking menu may be obtained from the learning device.

上記一側面に係る加熱調理方法では、前記撮像装置は、前記加熱部により前記加熱対象物を加熱している前記ユーザの状態を含む画像である加熱中ユーザ画像も撮像可能に構成されてもよい。その場合、前記学習器は、前記加熱中ユーザ画像にも基づいて前記調理メニューを推定するための機械学習を行ってもよい。前記コンピュータは、前記撮像装置から前記加熱中ユーザ画像を取得する加熱中ユーザ画像取得ステップをさらに実行してもよい。コンピュータは、前記調理メニュー推定ステップにおいて、前記加熱中ユーザ画像取得ステップで取得した前記加熱中ユーザ画像も前記学習器に入力し、前記学習済みの学習器の演算処理を実行することで、前記調理メニューを前記学習器から取得してもよい。 In the cooking method according to the one aspect, the image pickup apparatus may be configured to be able to capture a heating user image which is an image including a state of the user who is heating the heating object by the heating unit. .. In that case, the learning device may perform machine learning for estimating the cooking menu based on the user image during heating. The computer may further perform a heating user image acquisition step of acquiring the heating user image from the image pickup device. In the cooking menu estimation step, the computer also inputs the heating user image acquired in the heating user image acquisition step into the learning device, and executes the arithmetic processing of the learned learning device to perform the cooking. The menu may be acquired from the learner.

上記一側面に係る加熱調理方法では、前記コンピュータが、前記加熱中ユーザ画像に基づいて前記ユーザに関する情報であるユーザ情報を解析するユーザ情報解析ステップをさらに実行してもよい。その場合、前記学習器は、前記ユーザ情報にも基づいて前記調理メニューを推定するための機械学習を行ってもよい。前記コンピュータは、前記調理メニュー推定ステップにおいて、前記ユーザ情報解析ステップで解析した前記ユーザ情報も前記学習器に入力し、前記学習済みの学習器の演算処理を実行することで前記調理メニューを前記学習器から取得してもよい。 In the cooking method according to the above aspect, the computer may further perform a user information analysis step of analyzing user information which is information about the user based on the heating user image. In that case, the learning device may perform machine learning for estimating the cooking menu based on the user information. In the cooking menu estimation step, the computer also inputs the user information analyzed in the user information analysis step into the learning device, and executes the arithmetic processing of the learned learning device to learn the cooking menu. You may get it from the vessel.

上記一側面に係る学習装置は、学習データ取得部と、学習処理部と、を備えてもよい。学習データ取得部は、ユーザが加熱対象物を加熱部で加熱して調理する調理メニューと、前記調理メニューに対応付けられており、前記加熱対象物を前記加熱部で加熱する前の準備が施されている前記加熱対象物の状態を含む画像である加熱前対象物画像を撮像可能に構成されている撮像装置から取得される前記加熱前対象物画像と、を含む学習データを取得する。学習処理部は、前記加熱前対象物画像を含む入力に対して、前記調理メニューに対応する出力値を含む出力を得るように学習器の機械学習を行う。 The learning device according to the above aspect may include a learning data acquisition unit and a learning processing unit. The learning data acquisition unit is associated with a cooking menu in which the user heats and cooks the object to be heated in the heating unit and the cooking menu, and preparations are made before heating the object to be heated in the heating unit. The learning data including the pre-heated object image acquired from the image pickup apparatus configured to be able to capture the pre-heated object image which is the image including the state of the pre-heated object is acquired. The learning processing unit performs machine learning of the learning device so as to obtain an output including an output value corresponding to the cooking menu for an input including the image of the object before heating.

上記の学習装置によれば、調理する際にユーザが実行する加熱前準備の画像に基づいて、ユーザが調理する調理メニューを推定するための学習済みの学習器を構築することができる。 According to the above-mentioned learning device, it is possible to construct a learned learning device for estimating the cooking menu to be cooked by the user based on the image of the preheating preparation performed by the user during cooking.

上記一側面に係る学習装置では、前記学習データは、前記調理メニューに対応付けられており、前記加熱前対象物画像に基づいて解析される情報であるとともに前記加熱対象物が含んでいる食材に関する情報である食材情報をさらに含んでもよい。その場合、前記学習器の前記機械学習における前記入力が、前記食材情報も含んでもよい。 In the learning device according to the above aspect, the learning data is associated with the cooking menu, is information analyzed based on the image of the object before heating, and is related to the foodstuff contained in the object to be heated. Ingredient information, which is information, may be further included. In that case, the input in the machine learning of the learning device may also include the food material information.

上記の学習装置によれば、食材情報にも基づいて、ユーザが調理する調理メニューを推定するための学習済みの学習器を構築することができる。 According to the above-mentioned learning device, it is possible to construct a learned learning device for estimating a cooking menu to be cooked by a user based on food material information.

上記一側面に係る学習装置では、前記撮像装置は、前記加熱部により加熱されている前記加熱対象物の状態を含む画像である加熱中対象物画像も撮像可能に構成されてもよい。その場合、前記学習データは、前記調理メニューに対応付けられた前記加熱中対象物画像をさらに含んでもよく、前記学習器の前記機械学習における前記入力が、前記加熱中対象物画像も含んでもよい。 In the learning device according to the one aspect, the image pickup device may be configured to be able to capture an image of the object being heated, which is an image including the state of the object to be heated being heated by the heating unit. In that case, the learning data may further include the image of the heated object associated with the cooking menu, and the input in the machine learning of the learner may also include the image of the heated object. ..

上記の学習装置によれば、加熱中対象物画像にも基づいて、ユーザが調理する調理メニューを推定するための学習済みの学習器を構築することができる。 According to the above-mentioned learning device, it is possible to construct a learned learning device for estimating the cooking menu to be cooked by the user based on the image of the object being heated.

上記一側面に係る学習装置では、前記撮像装置は、前記加熱部により前記加熱対象物を加熱している前記ユーザの状態を含む画像である加熱中ユーザ画像も撮像可能に構成されてもよい。その場合、前記学習データは、前記調理メニューに対応付けられた前記加熱中ユーザ画像をさらに含んでもよく、前記学習器の前記機械学習における前記入力が、前記加熱中ユーザ画像も含んでもよい。 In the learning device according to the one aspect, the image pickup device may be configured to be able to capture a heating user image which is an image including the state of the user who is heating the heating object by the heating unit. In that case, the learning data may further include the heating user image associated with the cooking menu, and the input in the machine learning of the learning device may also include the heating user image.

上記の学習装置によれば、加熱中ユーザ画像にも基づいて、ユーザが調理する調理メニューを推定するための学習済みの学習器を構築することができる。 According to the above-mentioned learning device, it is possible to construct a learned learning device for estimating a cooking menu to be cooked by a user based on a user image during heating.

上記一側面に係る学習装置では、前記学習データは、前記調理メニューに対応付けられており、前記加熱中ユーザ画像に基づいて解析される情報であるとともに前記ユーザに関する情報であるユーザ情報をさらに含んでもよい。その場合、前記学習器の前記機械学習における前記入力が、前記ユーザ情報も含んでもよい。 In the learning device according to the one aspect, the learning data is associated with the cooking menu, and further includes user information which is information about the user as well as information analyzed based on the heating user image. But it may be. In that case, the input in the machine learning of the learner may also include the user information.

上記の学習装置によれば、ユーザ情報にも基づいて、ユーザが調理する調理メニューを推定するための学習済みの学習器を構築することができる。 According to the above-mentioned learning device, it is possible to construct a learned learning device for estimating the cooking menu to be cooked by the user based on the user information.

上記一側面に係る学習方法では、コンピュータが、学習データ取得ステップと、学習処理ステップと、を備えてもよい。学習データ取得ステップでは、コンピュータが、ユーザが加熱対象物を加熱部で加熱して調理する調理メニューと、前記調理メニューに対応付けられており、前記加熱対象物を前記加熱部で加熱する前の準備が施されている前記加熱対象物の状態を含む画像である加熱前対象物画像を撮像可能に構成されている撮像装置から取得される前記加熱前対象物画像と、を含む学習データを取得する。学習処理ステップでは、コンピュータが、前記加熱前対象物画像を含む入力に対して、前記調理メニューに対応する出力値を含む出力を得るように学習器の機械学習を行う。 In the learning method according to the above aspect, the computer may include a learning data acquisition step and a learning processing step. In the learning data acquisition step, the computer is associated with a cooking menu in which the user heats and cooks the object to be heated in the heating unit, and the cooking menu before the computer heats the object to be heated in the heating unit. Acquisition of training data including the preheated object image acquired from an image pickup apparatus configured to be capable of capturing an unheated object image which is an image including the state of the preheated object that has been prepared. do. In the learning process step, the computer performs machine learning of the learning device so as to obtain an output including an output value corresponding to the cooking menu for the input including the image of the object before heating.

上記一側面に係る学習方法では、前記学習データは、前記調理メニューに対応付けられており、前記加熱前対象物画像に基づいて解析される情報であるとともに前記加熱対象物が含んでいる食材に関する情報である食材情報をさらに含んでもよい。その場合、前記学習器の前記機械学習における前記入力が、前記食材情報も含んでもよい。 In the learning method according to the above aspect, the learning data is associated with the cooking menu, is information analyzed based on the image of the object to be heated, and is related to the foodstuff contained in the object to be heated. Ingredient information, which is information, may be further included. In that case, the input in the machine learning of the learning device may also include the food material information.

上記一側面に係る学習方法では、前記撮像装置は、前記加熱部により加熱されている前記加熱対象物の状態を含む画像である加熱中対象物画像も撮像可能に構成されてもよい。その場合、前記学習データは、前記調理メニューに対応付けられた前記加熱中対象物画像をさらに含んでもよく、前記学習器の前記機械学習における前記入力が、前記加熱中対象物画像も含んでもよい。 In the learning method according to the above aspect, the image pickup apparatus may be configured to be able to capture an image of the object being heated, which is an image including the state of the object to be heated being heated by the heating unit. In that case, the learning data may further include the image of the heated object associated with the cooking menu, and the input in the machine learning of the learner may also include the image of the heated object. ..

上記一側面に係る学習方法では、前記撮像装置は、前記加熱部により前記加熱対象物を加熱している前記ユーザの状態を含む画像である加熱中ユーザ画像も撮像可能に構成されてもよい。その場合、前記学習データは、前記調理メニューに対応付けられた前記加熱中ユーザ画像をさらに含んでもよく、前記学習器の前記機械学習における前記入力が、前記加熱中ユーザ画像も含んでもよい。 In the learning method according to the above aspect, the image pickup apparatus may be configured to be able to capture a heating user image which is an image including the state of the user who is heating the heating object by the heating unit. In that case, the learning data may further include the heating user image associated with the cooking menu, and the input in the machine learning of the learning device may also include the heating user image.

上記一側面に係る学習方法では、前記学習データは、前記調理メニューに対応付けられており、前記加熱中ユーザ画像に基づいて解析される情報であるとともに前記ユーザに関する情報であるユーザ情報をさらに含んでもよい。その場合、前記学習器の前記機械学習における前記入力が、前記ユーザ情報も含んでもよい。 In the learning method according to the above aspect, the learning data is associated with the cooking menu, and further includes user information which is information about the user as well as information analyzed based on the heating user image. But it may be. In that case, the input in the machine learning of the learner may also include the user information.

本明細書が開示する技術の詳細とさらなる改良は以下の「発明を実施するための形態」にて説明する。 Details and further improvements to the techniques disclosed herein will be described in the "Modes for Carrying Out the Invention" section below.

一側面に係る実施形態の加熱調理システムの斜視図を示す。The perspective view of the cooking system of embodiment which concerns on one aspect is shown. レンジフードを下方から見た斜視図を示す。A perspective view of the range hood as viewed from below is shown. 加熱調理システムのハードウェアの構成を示す。The hardware configuration of the cooking system is shown. 学習装置のハードウェアの構成を示す。The hardware configuration of the learning device is shown. 制御装置のソフトウェアの構成を示す。The software configuration of the control device is shown. 学習装置のソフトウェアの構成を示す。The software configuration of the learning device is shown. 加熱調理システムの正面図を示す。The front view of the cooking system is shown. 加熱調理システムの使用状況の一例を示す。An example of the usage status of the cooking system is shown. 加熱調理システムの使用状況の別の一例を示す。Another example of the usage of the cooking system is shown. 制御装置が実行する処理のフロー図(1)を示す。The flow chart (1) of the process executed by a control device is shown. 制御装置が実行する処理のフロー図(2)を示す。The flow chart (2) of the process executed by a control device is shown. 学習装置が実行する処理のフロー図を示す。The flow diagram of the process executed by the learning device is shown.

(実施形態)
図1は、一側面に係る実施形態の加熱調理システム2を模式的に示した斜視図である。図1に示されるように、加熱調理システム2は、レンジフード4と、加熱調理器10を備えている。加熱調理器10は、システムキッチンに組み込んで使用されるガス燃焼式のビルトインコンロである。レンジフード4は、加熱調理器10の上方に配置された換気装置である。
(Embodiment)
FIG. 1 is a perspective view schematically showing the cooking system 2 of the embodiment according to one aspect. As shown in FIG. 1, the cooking system 2 includes a range hood 4 and a cooking device 10. The cooking cooker 10 is a gas combustion type built-in stove used by incorporating it into a system kitchen. The range hood 4 is a ventilation device arranged above the cooking device 10.

加熱調理器10の天板10uには、第1コンロ11aと、第2コンロ11bと、第3コンロ11cと、グリル28に連通する排気口17が配置されている。また、加熱調理器10の前側(すなわち、図1の右側)の面である前面10fには、コンロ操作部20と、グリル28が設けられている。本明細書では、理解を助けるため、加熱調理器10の前面10fが設けられている側を単に「前側」と表現し、その反対側を単に「後側」と表現することがある。また、前側と後側を結ぶ方向を前後方向とする。前後方向と直交する水平方向の左右については、加熱調理器10の前側に位置し、前面10fと対向するユーザの右側および左側と同様とする。また、加熱調理器10の前面10fの左側には、グリル28内のグリルバーナ29a(図3参照)を操作するグリル操作部が設けられているが、本明細書では説明を省略する。 On the top plate 10u of the cooking device 10, a first stove 11a, a second stove 11b, a third stove 11c, and an exhaust port 17 communicating with the grill 28 are arranged. Further, a stove operation unit 20 and a grill 28 are provided on the front surface 10f, which is the front side (that is, the right side of FIG. 1) of the cooking device 10. In the present specification, in order to help understanding, the side where the front surface 10f of the cooking device 10 is provided may be simply referred to as "front side", and the opposite side thereof may be simply referred to as "rear side". The direction connecting the front side and the rear side is the front-back direction. The left and right sides in the horizontal direction orthogonal to the front-back direction are the same as the right side and the left side of the user located on the front side of the cooking cooker 10 and facing the front surface 10f. Further, on the left side of the front surface 10f of the cooking cooker 10, a grill operation unit for operating the grill burner 29a (see FIG. 3) in the grill 28 is provided, but the description thereof is omitted in the present specification.

第1コンロ11aと、第2コンロ11bと、第3コンロ11cは、天板10uの上面に前後方向に2列に配置されている。第1コンロ11aは、第1コンロバーナ12aと、第1センサ14aと、五徳16aを備えている。第1コンロバーナ12aには、ガス供給路(図示省略)が接続されている。ガス供給路には、第1コンロバーナ12aへのガス供給量を調整するための流量調整弁(図示省略)が設けられている。第1コンロバーナ12aは、第1コンロバーナ12aにガスが供給されている状態でイグナイタ(図示省略)を動作させることによって点火する。第1コンロ11aは、点火した第1コンロバーナ12aによって、上方に載置される鍋やフライパン等の調理容器を加熱する。第1コンロバーナ12aへのガス供給量を調整することにより、第1コンロバーナ12aの加熱量を調整することができる。また、第1コンロバーナ12aへのガスの供給が停止されることにより、第1コンロバーナ12aは消火される。なお、第2コンロ11bが備えている第2コンロバーナ12bと、第3コンロ11cが備えている第3コンロバーナ12cは、第1コンロバーナ12aと同様の構造を有している。 The first stove 11a, the second stove 11b, and the third stove 11c are arranged in two rows in the front-rear direction on the upper surface of the top plate 10u. The first stove 11a includes a first stove burner 12a, a first sensor 14a, and a trivet 16a. A gas supply path (not shown) is connected to the first stove burner 12a. The gas supply path is provided with a flow rate adjusting valve (not shown) for adjusting the amount of gas supplied to the first stove burner 12a. The first stove burner 12a is ignited by operating an igniter (not shown) with gas supplied to the first stove burner 12a. The first stove 11a heats a cooking container such as a pan or a frying pan placed above by the ignited first stove burner 12a. By adjusting the gas supply amount to the first stove burner 12a, the heating amount of the first stove burner 12a can be adjusted. Further, the fire of the first stove burner 12a is extinguished by stopping the supply of gas to the first stove burner 12a. The second stove burner 12b included in the second stove 11b and the third stove burner 12c included in the third stove 11c have the same structure as the first stove burner 12a.

第1センサ14aは、第1コンロ11aの調理容器の存在を検出するとともに、調理容器の温度を検出する。第1コンロ11aの上に調理容器が配置されると、第1センサ14aが調理容器によって押圧される。第1センサ14aは、調理容器によって押圧されると、第1コンロ11aの上に調理容器が載置されたことを検知する。第1コンロ11aの上に調理容器が載置されていない場合は、第1センサ14aが押圧されない。第1センサ14a内には熱電対が配置されており、第1センサ14aに接触している対象物の温度を検出することができる。なお、第2コンロ11bが備えている第2センサ14bと、第3コンロ11cが備えている第3センサ14cは、第1センサ14aと同様の構造を有する。また、五徳16a〜16cは、それぞれのコンロの上方に載置される調理容器を、それぞれのコンロバーナから一定の距離を維持して支持する。 The first sensor 14a detects the presence of the cooking container of the first stove 11a and also detects the temperature of the cooking container. When the cooking container is arranged on the first stove 11a, the first sensor 14a is pressed by the cooking container. When pressed by the cooking container, the first sensor 14a detects that the cooking container is placed on the first stove 11a. When the cooking container is not placed on the first stove 11a, the first sensor 14a is not pressed. A thermocouple is arranged in the first sensor 14a, and the temperature of the object in contact with the first sensor 14a can be detected. The second sensor 14b included in the second stove 11b and the third sensor 14c included in the third stove 11c have the same structure as the first sensor 14a. Further, the trivets 16a to 16c support the cooking container placed above each stove while maintaining a certain distance from each stove burner.

コンロ操作部20は、加熱調理器10の電源スイッチ24と、第1加熱量操作部20aと、第2加熱量操作部20bと第3加熱量操作部20cと、パネル操作部22を備えている。電源スイッチ24は、加熱調理器10を起動させるスイッチであり、電源スイッチ24をオンすることで各コンロバーナへの点火が可能になる。第1加熱量操作部20aは、第1コンロ11aに対応する。同様に、第2加熱量操作部20bは第2コンロ11bに対応し、第3加熱量操作部20cは第3コンロ11cに対応する。第1加熱量操作部20aは、第1コンロバーナ12aの点火および消火を行うとともに、第1コンロバーナ12aの加熱量の調整を行うためのオルタネイト型のスイッチである。第2加熱量操作部20bと第3加熱量操作部20cも、第1加熱量操作部20aと同様の構造を有している。 The stove operation unit 20 includes a power switch 24 of the cooking device 10, a first heating amount operating unit 20a, a second heating amount operating unit 20b, a third heating amount operating unit 20c, and a panel operating unit 22. .. The power switch 24 is a switch for activating the cooking cooker 10, and by turning on the power switch 24, each stove burner can be ignited. The first heating amount operation unit 20a corresponds to the first stove 11a. Similarly, the second heating amount operating unit 20b corresponds to the second stove 11b, and the third heating amount operating unit 20c corresponds to the third stove 11c. The first heating amount operating unit 20a is an alternate type switch for igniting and extinguishing the first stove burner 12a and adjusting the heating amount of the first stove burner 12a. The second heating amount operating unit 20b and the third heating amount operating unit 20c also have the same structure as the first heating amount operating unit 20a.

パネル操作部22には、第1コンロバーナ12a、第2コンロバーナ12b、第3コンロバーナ12c、グリルバーナ29a(図3参照)の動作状態などが表示される。ユーザは、パネル操作部22によって各コンロバーナおよびグリルバーナ29aを所定の時間経過後に消火する、消火タイマーの設定等をすることができる。また、パネル操作部22は、後述する自動加熱モードを設定可能である。 The panel operation unit 22 displays the operating states of the first stove burner 12a, the second stove burner 12b, the third stove burner 12c, the grill burner 29a (see FIG. 3), and the like. The user can use the panel operation unit 22 to set a fire extinguishing timer for extinguishing each stove burner and grill burner 29a after a predetermined time has elapsed. Further, the panel operation unit 22 can set an automatic heating mode, which will be described later.

加熱調理器10は、制御装置40を内部に収容している。制御装置40は、第1コンロ11aと、第2コンロ11bと、第3コンロ11cと、グリル28内のグリルバーナ29a(図3参照)の火力(すなわち、加熱量)を自動制御するためのコンピュータである。制御装置40は、インターネットを介して、学習装置30に接続されている。制御装置40および学習装置30の詳細については後述する。 The cooking device 10 houses the control device 40 inside. The control device 40 is a computer for automatically controlling the thermal power (that is, the amount of heat) of the first stove 11a, the second stove 11b, the third stove 11c, and the grill burner 29a (see FIG. 3) in the grill 28. be. The control device 40 is connected to the learning device 30 via the Internet. Details of the control device 40 and the learning device 30 will be described later.

次に、レンジフード4について説明する。レンジフード4は、内部に不図示のファンを収容している。レンジフード4は、ファンを下方から覆うレンジカバー6と、カメラカバー8と、スピーカ9cと、を備えている。 Next, the range hood 4 will be described. The range hood 4 houses a fan (not shown) inside. The range hood 4 includes a range cover 6 that covers the fan from below, a camera cover 8, and a speaker 9c.

図2に示されるように、カメラカバー8は、レンジカバー6の後側中央部に配置されている。カメラカバー8の左右両側の端部には、下方に延びているフランジが設けられている。カメラカバー8の中央部には、加熱中カメラ9bと、加熱前カメラ9aが配置されている。加熱中カメラ9bと、加熱前カメラ9aは、ともに半球形状を有している。加熱前カメラ9aと加熱中カメラ9bは、同様の構造を備えており、それぞれの撮像可能な範囲が異なるだけである。加熱前カメラ9aと加熱中カメラ9bが画像を撮像する技術については、既知であるためここでは説明を省略する。 As shown in FIG. 2, the camera cover 8 is arranged in the rear central portion of the range cover 6. Flange extending downward is provided at the left and right end portions of the camera cover 8. A heating camera 9b and a preheating camera 9a are arranged at the center of the camera cover 8. Both the heating camera 9b and the preheating camera 9a have a hemispherical shape. The pre-heating camera 9a and the heating camera 9b have the same structure, and the imaging range is different from each other. Since the techniques for capturing images by the preheating camera 9a and the heating camera 9b are known, the description thereof will be omitted here.

また、図1に示されるように、レンジフード4の前面の左側端部には、スピーカ9cが配置されている。スピーカ9cは、加熱調理器10のユーザに音声を伝える。 Further, as shown in FIG. 1, a speaker 9c is arranged at the left end portion of the front surface of the range hood 4. The speaker 9c transmits voice to the user of the cooking device 10.

図3を参照して、加熱調理システム2が備えている制御構成について説明する。なお、図3では、第1コンロ11aの第1コンロバーナ12aのみを記載して、第2コンロバーナ12bと第3コンロバーナ12cの記載を省略している。同様に、図3では、第1コンロ11aの第1センサ14aのみを記載して、第2センサ14bと第3センサ14cの記載を省略している。電源スイッチ24がオンされると、コンロ操作部20、パネル操作部22、制御装置40等が起動する。 A control configuration included in the cooking system 2 will be described with reference to FIG. In FIG. 3, only the first stove burner 12a of the first stove 11a is described, and the description of the second stove burner 12b and the third stove burner 12c is omitted. Similarly, in FIG. 3, only the first sensor 14a of the first stove 11a is described, and the description of the second sensor 14b and the third sensor 14c is omitted. When the power switch 24 is turned on, the stove operation unit 20, the panel operation unit 22, the control device 40, and the like are activated.

制御装置40は、ハードウェアプロセッサであるCPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)を備えている。コンロ操作部20が操作されると、その操作に基づいて、制御装置40は、第1コンロバーナ12aの火力を調整する。制御装置40は、例えば、ECU(Electronic Control Unit)により構成される。 The control device 40 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), and a ROM (Read Only Memory), which are hardware processors. When the stove operation unit 20 is operated, the control device 40 adjusts the thermal power of the first stove burner 12a based on the operation. The control device 40 is configured by, for example, an ECU (Electronic Control Unit).

制御装置40は、例えばRAM,ROM等で構成されている学習記憶部46と、メニュー記憶部48と、外部インターフェース(図3では外部I/Fと記載されている)42と、を備えている。学習記憶部46は、プログラム46pと、学習結果データ32rを記憶している。プログラム46pは、制御装置40に加熱調理器10でユーザが調理する調理メニューを推定する処理を実行させるための命令を含んでいる。学習結果データ32rは、学習済みの学習器の設定を行うためのデータであり、図1に示す学習装置30で生成され、インターネットを介して制御装置40に送信される。 The control device 40 includes, for example, a learning storage unit 46 composed of RAM, ROM, or the like, a menu storage unit 48, and an external interface (described as an external I / F in FIG. 3) 42. .. The learning storage unit 46 stores the program 46p and the learning result data 32r. The program 46p includes an instruction for causing the control device 40 to execute a process of estimating a cooking menu to be cooked by the user in the cooking device 10. The learning result data 32r is data for setting the learned learning device, is generated by the learning device 30 shown in FIG. 1, and is transmitted to the control device 40 via the Internet.

メニュー記憶部48は、複数のメニュー名称と、各メニュー名称のそれぞれに対応する加熱量のパターンによって構成された加熱量テーブル48tを記憶している。メニュー名称は、例えばカレー、煮物のようなユーザが加熱調理器10を利用して調理するメニューの名称である。加熱量のパターンは、例えば第1コンロバーナ12aの火力を、15分間強火で設定し、その後火力を弱めて20分間弱火に設定するといった経時的な制御パターンである。なお、加熱量テーブル48tは、加熱調理器10の製造時にメニュー記憶部48に予め記憶されていてもよいし、外部サーバとの通信が可能な外部インターフェース42を介して、外部サーバからダウンロードしてメニュー記憶部48に記憶されていてもよい。 The menu storage unit 48 stores a heating amount table 48t composed of a plurality of menu names and a heating amount pattern corresponding to each of the menu names. The menu name is the name of a menu such as curry or simmered food that a user cooks using the cooking device 10. The heating amount pattern is, for example, a control pattern over time in which the heating power of the first stove burner 12a is set to high heat for 15 minutes, and then the heating power is reduced and set to low heat for 20 minutes. The heating amount table 48t may be stored in advance in the menu storage unit 48 at the time of manufacturing the cooking cooker 10, or may be downloaded from an external server via an external interface 42 capable of communicating with an external server. It may be stored in the menu storage unit 48.

外部インターフェース42は、制御装置40と外部の装置を接続するインターフェースである。図3に示されるように、外部インターフェース42は、制御装置40と加熱前カメラ9a、加熱中カメラ9b、スピーカ9cを接続する。外部インターフェース42は、例えば、Wi−Fi(登録商標)方式によって、加熱前カメラ9a、加熱中カメラ9b、スピーカ9cに接続される。 The external interface 42 is an interface for connecting the control device 40 and the external device. As shown in FIG. 3, the external interface 42 connects the control device 40 to the preheating camera 9a, the heating camera 9b, and the speaker 9c. The external interface 42 is connected to the preheating camera 9a, the heating camera 9b, and the speaker 9c by, for example, a Wi-Fi (registered trademark) method.

図4を参照して、学習装置30について説明する。学習装置30は、記憶部32と、入力装置34iと、出力装置34оと、制御部36と、通信インターフェース(図4では、通信I/Fと記載している)38と、ドライブ39を備えている。図3に示されるように、学習装置30は、各デバイスが電気的に接続されているコンピュータである。 The learning device 30 will be described with reference to FIG. The learning device 30 includes a storage unit 32, an input device 34i, an output device 34о, a control unit 36, a communication interface (described as a communication I / F in FIG. 4) 38, and a drive 39. There is. As shown in FIG. 3, the learning device 30 is a computer to which each device is electrically connected.

制御部36は、ハードウェアプロセッサであるCPU、RAM、ROM等を含み、プログラムおよびデータに基づいて各種情報処理を実行するように構成される。記憶部32は、例えば、ハードディスクドライブ、ソリッドステートドライブ等で構成される。記憶部32は、制御部36で実行される学習プログラム32p、学習器の機械学習に利用する学習データ32d、学習プログラム32pを実行して作成した学習結果データ32rを記憶する。 The control unit 36 includes a CPU, RAM, ROM, etc., which are hardware processors, and is configured to execute various information processing based on programs and data. The storage unit 32 is composed of, for example, a hard disk drive, a solid state drive, or the like. The storage unit 32 stores the learning program 32p executed by the control unit 36, the learning data 32d used for machine learning of the learning device, and the learning result data 32r created by executing the learning program 32p.

学習プログラム32pは、後述する機械学習の処理(図12)を学習装置30に実行させ、当該機械学習の結果として学習結果データ32rを生成させるためのプログラムである。学習データ32dは、入力された情報から調理メニューを推定するように学習器の機械学習を行うためのデータである。詳細は後述する。 The learning program 32p is a program for causing the learning device 30 to execute a machine learning process (FIG. 12) described later and generate learning result data 32r as a result of the machine learning. The learning data 32d is data for performing machine learning of the learning device so as to estimate the cooking menu from the input information. Details will be described later.

通信インターフェース38は、例えば、有線LAN(Local Area Network)モジュール、無線LANモジュール等であり、ネットワークを介した有線又は無線通信を行うためのインターフェースである。学習装置30は、当該通信インターフェース38を介して、作成した学習結果データ32rを外部の装置に配信してもよい。 The communication interface 38 is, for example, a wired LAN (Local Area Network) module, a wireless LAN module, or the like, and is an interface for performing wired or wireless communication via a network. The learning device 30 may distribute the created learning result data 32r to an external device via the communication interface 38.

入力装置34iは、例えば、マウス、キーボード等の入力を行うための装置である。また、出力装置34оは、例えば、ディスプレイ、スピーカ等の出力を行うための装置である。学習装置30のオペレータは、入力装置34iおよび出力装置34оを介して、学習装置30を操作することができる。 The input device 34i is, for example, a device for inputting a mouse, a keyboard, or the like. The output device 34о is, for example, a device for outputting a display, a speaker, or the like. The operator of the learning device 30 can operate the learning device 30 via the input device 34i and the output device 34о.

ドライブ39は、例えば、CDドライブ、DVDドライブ等であり、記憶媒体30mに記憶されたプログラムを読み込むためのドライブ装置である。ドライブ39の種類は、記憶媒体30mの種類に応じて適宜選択されてよい。上記学習プログラム32pおよび学習結果データ32rは、この記憶媒体30mに記憶されていてもよい。 The drive 39 is, for example, a CD drive, a DVD drive, or the like, and is a drive device for reading a program stored in the storage medium 30 m. The type of the drive 39 may be appropriately selected according to the type of the storage medium 30 m. The learning program 32p and the learning result data 32r may be stored in the storage medium 30m.

記憶媒体30mは、コンピュータその他の装置、機械等が記録されたプログラム等の情報を読み取り可能なように、当該プログラム等の情報を、電気的、磁気的、光学的、機械的又は化学的作用によって蓄積する媒体である。学習装置30は、この記憶媒体30mから、学習プログラム32p、学習データ32dを取得してもよい。 The storage medium 30 m transfers the information of the program or the like by electrical, magnetic, optical, mechanical or chemical action so that the information of the program or the like recorded by the computer or other device, the machine or the like can be read. It is a medium to accumulate. The learning device 30 may acquire the learning program 32p and the learning data 32d from the storage medium 30m.

図4では、記憶媒体30mの一例として、CD、DVD等のディスク型の記憶媒体を例示している。しかしながら、記憶媒体30mは、ディスク型に限定されない。記憶媒体30mは、例えば、フラッシュメモリ等の半導体メモリであってもよい。 FIG. 4 illustrates a disc-type storage medium such as a CD or DVD as an example of the storage medium 30 m. However, the storage medium 30 m is not limited to the disk type. The storage medium 30m may be, for example, a semiconductor memory such as a flash memory.

なお、学習装置30の具体的なハードウェア構成に関しては、実施形態に応じて、適宜、構成要素の省略、置換および追加が可能である。例えば、制御部36は、複数のハードウェアプロセッサを含んでもよい。ハードウェアプロセッサは、マイクロプロセッサ、FPGA(field−programmable gate array)等で構成されてよい。学習装置30は、複数台の情報処理装置で構成されてもよい。また、学習装置30は、提供されるサービス専用に設計された情報処理装置の他、汎用のサーバ装置、PC(Personal Computer)等であってもよい。 Regarding the specific hardware configuration of the learning device 30, components can be omitted, replaced, or added as appropriate according to the embodiment. For example, the control unit 36 may include a plurality of hardware processors. The hardware processor may be composed of a microprocessor, an FPGA (field-programmable gate array), or the like. The learning device 30 may be composed of a plurality of information processing devices. Further, the learning device 30 may be a general-purpose server device, a PC (Personal Computer), or the like, in addition to an information processing device designed exclusively for the provided service.

図5を参照して、制御装置40の制御構成について説明する。図5では、制御装置40の制御構成を模式的に示している。 The control configuration of the control device 40 will be described with reference to FIG. FIG. 5 schematically shows the control configuration of the control device 40.

制御装置40は、学習記憶部46に記憶されたプログラム46pをRAMに展開する。制御装置40は、RAMに展開されたプログラム46pをCPUにより解釈および実行して、各構成要素を制御する。これによって、図5に示されるとおり、制御装置40は、ソフトウェアモジュールとして、画像取得部51、画像解析部52、解像度変換部53、加熱量情報取得部54、調理メニュー推定部55、警報部56、および加熱量制御部57を備えるコンピュータとして構成される。 The control device 40 expands the program 46p stored in the learning storage unit 46 into the RAM. The control device 40 controls each component by interpreting and executing the program 46p expanded in the RAM by the CPU. As a result, as shown in FIG. 5, the control device 40 has an image acquisition unit 51, an image analysis unit 52, a resolution conversion unit 53, a heating amount information acquisition unit 54, a cooking menu estimation unit 55, and an alarm unit 56 as software modules. , And a computer including a heating amount control unit 57.

画像取得部51は、加熱前カメラ9a、加熱中カメラ9bから撮像画像9iを取得する。詳細は図7から図9を参照して説明するが、撮像画像9iには、加熱調理器10の各コンロバーナで加熱する前の準備が施されている食材の状態や、加熱中のユーザ、食材、調理容器等の状態が含まれている。なお、画像取得部51は、例えばユーザが携帯端末で撮像した画像を受信してもよい。 The image acquisition unit 51 acquires the captured image 9i from the preheating camera 9a and the heating camera 9b. The details will be described with reference to FIGS. 7 to 9, but in the captured image 9i, the state of the foodstuff prepared before heating in each stove burner of the cooking cooker 10 and the user during heating are shown. The condition of ingredients, cooking containers, etc. is included. The image acquisition unit 51 may receive, for example, an image captured by the user with a mobile terminal.

画像解析部52は、画像取得部51が取得した撮像画像9iを解析して、撮像画像9iから食材に関する情報である食材情報52fとユーザに関する情報であるユーザ情報52uを抽出する。また、加熱量情報取得部54は、加熱調理器10の各コンロバーナから、各コンロバーナの加熱量に関する情報である加熱量情報57qを取得する。 The image analysis unit 52 analyzes the captured image 9i acquired by the image acquisition unit 51, and extracts the food material information 52f, which is information about the foodstuff, and the user information 52u, which is information about the user, from the captured image 9i. Further, the heating amount information acquisition unit 54 acquires heating amount information 57q, which is information on the heating amount of each stove burner, from each stove burner of the cooking device 10.

解像度変換部53は、画像取得部51により取得した撮像画像9iの解像度を低下させる。これにより、解像度変換部53は、低解像度撮像画像62を生成する。 The resolution conversion unit 53 reduces the resolution of the captured image 9i acquired by the image acquisition unit 51. As a result, the resolution conversion unit 53 generates the low-resolution captured image 62.

調理メニュー推定部55は、ユーザが加熱調理器10の各コンロバーナで加熱して調理する調理メニューを推定するための機械学習を行った学習済みの学習器(ニューラルネットワーク70)に、撮像画像9iを低解像度化することで得られた低解像度撮像画像62を入力する。また、食材情報52f、ユーザ情報52u、加熱量情報57qも、補足情報60として同様に入力される。これにより、調理メニュー推定部55は、調理メニュー情報64を学習器から取得する。低解像度化することで得られた低解像度撮像画像62をニューラルネットワーク70に入力することで、ニューラルネットワーク70の演算処理の計算量を低減することができ、プロセッサの負荷を低減することができる。なお、低解像度化の処理は省略されてもよい。この場合、調理メニュー推定部55は、撮像画像9iを学習器(ニューラルネットワーク70)に入力してもよい。 The cooking menu estimation unit 55 is attached to a trained learner (neural network 70) that has been machine-learned to estimate a cooking menu that the user heats and cooks on each stove of the cooker 10. The low-resolution captured image 62 obtained by reducing the resolution of the image 62 is input. Further, the food material information 52f, the user information 52u, and the heating amount information 57q are also input as supplementary information 60 in the same manner. As a result, the cooking menu estimation unit 55 acquires the cooking menu information 64 from the learning device. By inputting the low-resolution captured image 62 obtained by reducing the resolution to the neural network 70, the amount of calculation of the arithmetic processing of the neural network 70 can be reduced, and the load on the processor can be reduced. The process of reducing the resolution may be omitted. In this case, the cooking menu estimation unit 55 may input the captured image 9i into the learning device (neural network 70).

調理メニュー情報64は、図3のメニュー記憶部48が記憶している加熱量テーブル48tのメニュー名称を含んでいる。加熱量制御部57は、調理メニュー推定部55が学習器から取得した調理メニュー情報64に含まれるメニュー名称に対応する加熱量パターンで、加熱調理器10の各コンロバーナおよびグリル28内のグリルバーナ29aの加熱量(すなわち、火力)を制御する。 The cooking menu information 64 includes the menu name of the heating amount table 48t stored in the menu storage unit 48 of FIG. The heating amount control unit 57 has a heating amount pattern corresponding to the menu name included in the cooking menu information 64 acquired from the learning device by the cooking menu estimation unit 55, and has a heating amount pattern corresponding to each stove burner of the cooking device 10 and the grill burner 29a in the grill 28. Controls the amount of heat (ie, thermal power) of the stove.

また、警報部56は、調理メニュー情報64に含まれるメニュー名称に対応する加熱量のパターンが終了したときに、スピーカ9c(図3参照)を介してユーザに加熱が終了したことを報知する。また、警報部56は、例えば撮像画像9iが正常に取得されなかった場合等に、ユーザにそのことを報知してもよい。また、警報部56は、スピーカ9cを介してユーザに報知せずに、例えば、ユーザの携帯端末にメッセージを送ることで加熱が終了したことを報知してもよい。さらに、スピーカ9cは、加熱調理器10に配置されていてもよい。 Further, when the pattern of the heating amount corresponding to the menu name included in the cooking menu information 64 is completed, the alarm unit 56 notifies the user that the heating is completed via the speaker 9c (see FIG. 3). Further, the alarm unit 56 may notify the user, for example, when the captured image 9i is not normally acquired. Further, the alarm unit 56 may notify the user that the heating has been completed by, for example, sending a message to the user's mobile terminal without notifying the user via the speaker 9c. Further, the speaker 9c may be arranged in the cooking device 10.

図5に示されるとおり、制御装置40は、ユーザが加熱調理器10の各コンロバーナで加熱する調理メニューを推定するための機械学習を行った学習済みの学習器として、ニューラルネットワーク70を利用する。ニューラルネットワーク70は、複数種類のニューラルネットワークを組み合わせることで構成されている。 As shown in FIG. 5, the control device 40 uses the neural network 70 as a trained learner that has undergone machine learning for the user to estimate the cooking menu to be heated by each stove burner of the cooker 10. .. The neural network 70 is configured by combining a plurality of types of neural networks.

ニューラルネットワーク70は、全結合ニューラルネットワーク72、畳み込みニューラルネットワーク74、結合層76、およびLSTMネットワーク78の4つの部分に分かれている。全結合ニューラルネットワーク72および畳み込みニューラルネットワーク74は入力側に並列に配置されており、全結合ニューラルネットワーク72には補足情報60が入力され、畳み込みニューラルネットワーク74には低解像度撮像画像62が入力される。結合層76は、全結合ニューラルネットワーク72および畳み込みニューラルネットワーク74の出力を結合する。LSTMネットワーク78は、結合層76からの出力を受けて、調理メニュー情報64を出力する。 The neural network 70 is divided into four parts: a fully coupled neural network 72, a convolutional neural network 74, a coupled layer 76, and an LSTM network 78. The fully connected neural network 72 and the convolutional neural network 74 are arranged in parallel on the input side, supplementary information 60 is input to the fully connected neural network 72, and a low-resolution captured image 62 is input to the convolutional neural network 74. .. The coupling layer 76 couples the outputs of the fully coupled neural network 72 and the convolutional neural network 74. The LSTM network 78 receives the output from the coupling layer 76 and outputs the cooking menu information 64.

全結合ニューラルネットワーク72は、いわゆる多層構造のニューラルネットワークであり、入力側から順に、入力層72i、中間層(隠れ層)72m、および出力層72оを備えている。ただし、全結合ニューラルネットワーク72の層の数は、このような例に限定されなくてもよく、実施形態に応じて適宜選択されてよい。 The fully connected neural network 72 is a so-called multi-layered neural network, and includes an input layer 72i, an intermediate layer (hidden layer) 72m, and an output layer 72о in this order from the input side. However, the number of layers of the fully connected neural network 72 does not have to be limited to such an example, and may be appropriately selected depending on the embodiment.

全結合ニューラルネットワーク72の各層72i、72m、72оは、1又は複数のニューロン(ノード)を備えている。各層に含まれるニューロンの個数は、実施形態に応じて適宜設定されてよい。各層に含まれる各ニューロンが、隣接する層に含まれる全てのニューロンに結合されていることで、全結合ニューラルネットワーク72は構成される。各結合には、重み(結合荷重)が適宜設定されている。 Each layer 72i, 72m, 72о of the fully connected neural network 72 comprises one or more neurons (nodes). The number of neurons included in each layer may be appropriately set according to the embodiment. The fully connected neural network 72 is formed by connecting each neuron included in each layer to all the neurons included in the adjacent layer. Weights (bonding loads) are appropriately set for each bond.

畳み込みニューラルネットワーク74は、畳み込み層74aおよびプーリング層74bを交互に接続した構造を有する順伝播型ニューラルネットワークである。本実施形態に係る畳み込みニューラルネットワーク74では、複数の畳み込み層74aおよびプーリング層74bが入力側に交互に配置されている。そして、最も出力側に配置されたプーリング層74bの出力が全結合層74cに入力され、全結合層74cの出力が出力層74оに入力される。 The convolutional neural network 74 is a feedforward neural network having a structure in which convolutional layers 74a and pooling layers 74b are alternately connected. In the convolutional neural network 74 according to the present embodiment, a plurality of convolutional layers 74a and pooling layers 74b are alternately arranged on the input side. Then, the output of the pooling layer 74b arranged on the most output side is input to the fully connected layer 74c, and the output of the fully connected layer 74c is input to the output layer 74о.

畳み込み層74aは、画像の畳み込みの演算を行う層である。画像の畳み込みとは、画像と所定のフィルタとの相関を算出する処理に相当する。そのため、画像の畳み込みを行うことで、例えば、フィルタの濃淡パターンと類似する濃淡パターンを入力される画像から検出することができる。 The convolution layer 74a is a layer that performs an operation for convolution of an image. Image convolution corresponds to a process of calculating the correlation between an image and a predetermined filter. Therefore, by convolving the image, for example, a shading pattern similar to the shading pattern of the filter can be detected from the input image.

プーリング層74bは、プーリング処理を行う層である。プーリング処理は、画像のフィルタに対する応答の強かった位置の情報を一部捨て、画像内に現れる特徴の微小な位置変化に対する応答の不変性を実現する。 The pooling layer 74b is a layer for performing a pooling treatment. The pooling process discards part of the information on the position where the response to the image filter is strong, and realizes the invariance of the response to the minute position change of the feature appearing in the image.

全結合層74cは、隣接する層の間のニューロン全てを結合した層である。すなわち、全結合層74cに含まれる各ニューロンは、隣接する層に含まれる全てのニューロンに結合される。全結合層74cは、2層以上で構成されてもよい。また、全結合層74cに含まれるニューロンの個数は、実施形態に応じて適宜設定されてもよい。 The fully connected layer 74c is a layer that connects all neurons between adjacent layers. That is, each neuron contained in the fully connected layer 74c is connected to all neurons contained in the adjacent layer. The fully bonded layer 74c may be composed of two or more layers. Further, the number of neurons included in the fully connected layer 74c may be appropriately set according to the embodiment.

出力層74оは、畳み込みニューラルネットワーク74の最も出力側に配置される層である。出力層74оに含まれるニューロンの個数は、実施形態に応じて適宜設定されてよい。なお、畳み込みニューラルネットワーク74の構成は、このような例に限定されなくてもよく、実施形態に応じて適宜設定されてもよい。 The output layer 74о is a layer arranged on the most output side of the convolutional neural network 74. The number of neurons included in the output layer 74о may be appropriately set according to the embodiment. The configuration of the convolutional neural network 74 may not be limited to such an example, and may be appropriately set according to the embodiment.

結合層76は、全結合ニューラルネットワーク72および畳み込みニューラルネットワーク74とLSTMネットワーク78との間に配置される。結合層76は、全結合ニューラルネットワーク72の出力層72оからの出力および畳み込みニューラルネットワーク74の出力層74оからの出力を結合する。結合層76の出力は、LSTMネットワーク78に入力される。結合層76に含まれるニューロンの個数は、全結合ニューラルネットワーク72および畳み込みニューラルネットワーク74の出力の数に応じて適宜設定されてもよい。 The coupling layer 76 is arranged between the fully coupled neural network 72 and the convolutional neural network 74 and the LSTM network 78. The coupling layer 76 combines the output from the output layer 72о of the fully coupled neural network 72 and the output from the output layer 74о of the convolutional neural network 74. The output of the coupling layer 76 is input to the LSTM network 78. The number of neurons included in the connecting layer 76 may be appropriately set according to the number of outputs of the fully connected neural network 72 and the convolutional neural network 74.

LSTMネットワーク78は、LSTMブロック78bを備える再帰型ニューラルネットワークである。再帰型ニューラルネットワークは、例えば、中間層から入力層への経路のように、内部にループを有するニューラルネットワークのことである。LSTMネットワーク78は、一般的な再帰型ニューラルネットワークの中間層をLSTMブロック78bに置き換えた構造を有する。 The LSTM network 78 is a recurrent neural network including an LSTM block 78b. A recurrent neural network is a neural network having an internal loop, for example, a path from an intermediate layer to an input layer. The LSTM network 78 has a structure in which the intermediate layer of a general recurrent neural network is replaced with an LSTM block 78b.

LSTMネットワーク78は、入力側から順に、入力層78i、LSTMブロック78b、および出力層78оを備えており、順伝播の経路の他、LSTMブロック78bから入力層78iに戻る経路を有している。入力層78iおよび出力層78оに含まれるニューロンの個数は、実施形態に応じて適宜設定されてもよい。 The LSTM network 78 includes an input layer 78i, an LSTM block 78b, and an output layer 78о in this order from the input side, and has a path for forward propagation and a path for returning from the LSTM block 78b to the input layer 78i. The number of neurons included in the input layer 78i and the output layer 78о may be appropriately set according to the embodiment.

LSTMブロック78bは、入力ゲートおよび出力ゲートを備え、情報の記憶および出力のタイミングを学習可能に構成されたブロックである。また、LSTMブロック78bは、情報の忘却のタイミングを調節する忘却ゲートを備えてもよい。LSTMネットワーク78の構成は、実施形態に応じて適宜設定可能である。 The LSTM block 78b is a block including an input gate and an output gate so that the timing of information storage and output can be learned. Further, the LSTM block 78b may include a forgetting gate for adjusting the timing of forgetting information. The configuration of the LSTM network 78 can be appropriately set according to the embodiment.

各ニューロンには閾値が設定されており、基本的には、各入力と各重みとの積の和が閾値を超えているか否かによって各ニューロンの出力が決定される。制御装置40は、全結合ニューラルネットワーク72に補足情報60を入力し、畳み込みニューラルネットワーク74に低解像度撮像画像62を入力する。そして、制御装置40は、入力側から順に、各層に含まれる各ニューロンの発火判定を行う。このように、ニューラルネットワーク70は、入力に対する演算処理を実行する。制御装置40は、調理メニュー情報64に対応する出力値をニューラルネットワーク70の出力層78оから取得する。 A threshold is set for each neuron, and basically, the output of each neuron is determined by whether or not the sum of the products of each input and each weight exceeds the threshold. The control device 40 inputs the supplementary information 60 to the fully connected neural network 72, and inputs the low-resolution captured image 62 to the convolutional neural network 74. Then, the control device 40 determines the firing of each neuron included in each layer in order from the input side. In this way, the neural network 70 executes arithmetic processing on the input. The control device 40 acquires the output value corresponding to the cooking menu information 64 from the output layer 78о of the neural network 70.

なお、このようなニューラルネットワーク70の構成(例えば、各ネットワークの層数、各層におけるニューロンの個数、ニューロン同士の結合関係、各ニューロンの伝達関数)、各ニューロン間の結合の重み、および各ニューロンの閾値を示す情報は、学習結果データ32rに含まれている。制御装置40は、学習結果データ32rを参照して、ユーザが加熱調理器10の各コンロバーナで加熱する調理メニューを推定する処理に用いる学習済みニューラルネットワーク70の設定を行う。 The configuration of such a neural network 70 (for example, the number of layers in each network, the number of neurons in each layer, the connection relationship between neurons, the transmission function of each neuron), the weight of the connection between each neuron, and each neuron The information indicating the threshold value is included in the learning result data 32r. The control device 40 sets the trained neural network 70 used for the process of estimating the cooking menu to be heated by the user in each stove burner of the cooking cooker 10 with reference to the learning result data 32r.

図6を用いて、学習装置30について説明する。学習装置30の制御部36は、記憶部32に記憶された学習プログラム32pをRAMに展開する。そして、制御部36は、RAMに展開された学習プログラム32pをCPUにより解釈および実行して、各構成要素を制御する。これによって、図6に示されるとおり、学習装置30は、ソフトウェアモジュールとして、学習データ取得部31および学習処理部33を備えるコンピュータとして構成される。 The learning device 30 will be described with reference to FIG. The control unit 36 of the learning device 30 expands the learning program 32p stored in the storage unit 32 into the RAM. Then, the control unit 36 interprets and executes the learning program 32p expanded in the RAM by the CPU, and controls each component. As a result, as shown in FIG. 6, the learning device 30 is configured as a software module as a computer including a learning data acquisition unit 31 and a learning processing unit 33.

学習データ取得部31は、加熱前カメラ9aおよび加熱中カメラ9bが撮像した撮像画像9iを低解像度化することで得られた低解像度撮像画像62tと、加熱量情報57qと食材情報52fとユーザ情報52uからなる補足情報60tと、低解像度撮像画像62tおよび補足情報60tに対応する調理メニュー情報64tの組を学習データ66として取得する。低解像度撮像画像62tおよび補足情報60tはそれぞれ、図5を参照して説明した低解像度撮像画像62および補足情報60に対応し、入力データとして利用される。調理メニュー情報64tは、図5の調理メニュー情報64に対応し、教師データ(正解データ)として利用される。学習処理部33は、低解像度撮像画像62tおよび補足情報60tを入力すると、調理メニュー情報64tに対応する出力値を出力するように学習器の機械学習を行う。 The learning data acquisition unit 31 includes low-resolution captured images 62t obtained by lowering the resolution of the captured images 9i captured by the pre-heating camera 9a and the heating camera 9b, heating amount information 57q, food material information 52f, and user information. A set of supplementary information 60t composed of 52u, low-resolution captured image 62t, and cooking menu information 64t corresponding to supplementary information 60t is acquired as learning data 66. The low-resolution captured image 62t and the supplementary information 60t correspond to the low-resolution captured image 62 and the supplementary information 60 described with reference to FIG. 5, respectively, and are used as input data. The cooking menu information 64t corresponds to the cooking menu information 64 in FIG. 5 and is used as teacher data (correct answer data). When the low-resolution captured image 62t and the supplementary information 60t are input, the learning processing unit 33 performs machine learning of the learning device so as to output an output value corresponding to the cooking menu information 64t.

図6に示されるとおり、制御装置40(図5参照)と同様に、学習装置30は、ニューラルネットワーク70tを備えている。学習装置30のニューラルネットワーク70tは、全結合ニューラルネットワーク72t、畳み込みニューラルネットワーク74t、結合層76t、およびLSTMネットワーク78tを備えている。学習装置30のニューラルネットワーク70tは、制御装置40のニューラルネットワーク70と同様に構成される。そのため、学習装置30の全結合ニューラルネットワーク72t、畳み込みニューラルネットワーク74t、結合層76t、およびLSTMネットワーク78tはそれぞれ、制御装置40の全結合ニューラルネットワーク72、畳み込みニューラルネットワーク74、結合層76、およびLSTMネットワーク78と同様である。すなわち、学習装置30のニューラルネットワーク70tは、制御装置40のニューラルネットワーク70と同様に演算処理を実行する。 As shown in FIG. 6, like the control device 40 (see FIG. 5), the learning device 30 includes a neural network 70t. The neural network 70t of the learning device 30 includes a fully coupled neural network 72t, a convolutional neural network 74t, a coupling layer 76t, and an LSTM network 78t. The neural network 70t of the learning device 30 is configured in the same manner as the neural network 70 of the control device 40. Therefore, the fully connected neural network 72t, the convolutional neural network 74t, the connecting layer 76t, and the LSTM network 78t of the learning device 30 are the fully connected neural network 72, the convolutional neural network 74, the connecting layer 76, and the LSTM network of the control device 40, respectively. It is the same as 78. That is, the neural network 70t of the learning device 30 executes arithmetic processing in the same manner as the neural network 70 of the control device 40.

学習処理部33は、全結合ニューラルネットワーク72tに補足情報60tを入力し、畳み込みニューラルネットワーク74tに低解像度撮像画像62tを入力すると、調理メニュー情報64tに対応する出力値をLSTMネットワーク78tから出力するニューラルネットワーク70tを構築する。そして、学習処理部33は、構築したニューラルネットワーク70の構成、各ニューロン間の結合の重みおよび各ニューロンの閾値を示す情報を、学習結果データ32rとして記憶部32に格納する。学習処理部33は、記憶部32に格納した学習結果データ32rを、インターネットを介して定期的に制御装置40に送信する。これにより、制御装置40の学習結果データ32rが定期的に更新される。 When the learning processing unit 33 inputs supplementary information 60t to the fully connected neural network 72t and inputs a low-resolution captured image 62t to the convolutional neural network 74t, the learning processing unit 33 outputs an output value corresponding to the cooking menu information 64t from the LSTM network 78t. Build a network 70t. Then, the learning processing unit 33 stores information indicating the configuration of the constructed neural network 70, the weight of the connection between each neuron, and the threshold value of each neuron in the storage unit 32 as learning result data 32r. The learning processing unit 33 periodically transmits the learning result data 32r stored in the storage unit 32 to the control device 40 via the Internet. As a result, the learning result data 32r of the control device 40 is periodically updated.

図7〜図9を参照して、加熱調理システム2が、制御装置40に入力する撮像画像9iを撮像する構造について説明する。なお、以下では、主に加熱調理器10の第1コンロ11aおよびグリル28で食材を加熱する場合について説明するが、第2コンロ11b、第3コンロ11cを用いて加熱する場合も同様である。 With reference to FIGS. 7 to 9, the structure in which the cooking system 2 captures the captured image 9i input to the control device 40 will be described. In the following, the case where the foodstuff is heated mainly by the first stove 11a and the grill 28 of the cooking device 10 will be described, but the same applies to the case where the second stove 11b and the third stove 11c are used for heating.

加熱前カメラ9aと加熱中カメラ9bは、左右方向に並べて配置されている。加熱前カメラ9aは右側に配置されている。加熱前カメラ9aは、右方に延びる撮像エリアa20を有している。加熱調理器10の右側には、加熱前準備スペース80が設けられている。すなわち、加熱前カメラ9aは、カメラカバー8の加熱前準備スペース80側に設けられている。 The pre-heating camera 9a and the heating camera 9b are arranged side by side in the left-right direction. The preheating camera 9a is arranged on the right side. The preheating camera 9a has an imaging area a20 extending to the right. A pre-heating preparation space 80 is provided on the right side of the heating cooker 10. That is, the preheating camera 9a is provided on the preheating preparation space 80 side of the camera cover 8.

加熱前準備スペース80には、まな板82が配置されており、まな板82の上面には、加熱前食材84aが載置されている。図7に示されるように、加熱前食材84aの一部は、切断されている。加熱前食材84aは、加熱調理器10の第1コンロ11aで加熱する前の準備が施されている。図7に示されるように、加熱前食材84aは、加熱前カメラ9aの撮像エリアa20内に載置されている。すなわち、加熱前カメラ9aは、加熱前食材84aを第1コンロ11aで加熱する前の準備が施されている加熱前食材84aの状態を含む加熱前食材画像を撮像可能に構成されている。 A cutting board 82 is arranged in the pre-heating preparation space 80, and the pre-heating foodstuff 84a is placed on the upper surface of the cutting board 82. As shown in FIG. 7, a part of the preheated foodstuff 84a is cut. The pre-heated food material 84a is prepared before being heated by the first stove 11a of the cooking device 10. As shown in FIG. 7, the preheated food material 84a is placed in the imaging area a20 of the preheating camera 9a. That is, the pre-heating camera 9a is configured to be able to capture an image of the pre-heating food material including the state of the pre-heating food material 84a in which the pre-heating food material 84a is prepared before being heated by the first stove 11a.

加熱前食材画像には、加熱前食材84aの食材の種類、切り方、加熱前準備において加熱前食材84aに加えられた調味料の種類、量などの情報が含まれる。このため、図5を参照して説明したように、画像解析部52が加熱前食材画像を解析して、調理メニュー推定部55がこれらの情報を補足情報60としてニューラルネットワーク70に入力することができる。これにより、調理メニュー推定部55の推定精度を向上させることができる。 The pre-heated food image contains information such as the type of food of the pre-heated food 84a, how to cut it, and the type and amount of seasoning added to the pre-heated food 84a in the pre-heating preparation. Therefore, as described with reference to FIG. 5, the image analysis unit 52 analyzes the preheating food material image, and the cooking menu estimation unit 55 inputs these information to the neural network 70 as supplementary information 60. can. As a result, the estimation accuracy of the cooking menu estimation unit 55 can be improved.

加熱中カメラ9bは、下方に延びる撮像エリアa10を有している。図7に示されるように、加熱中カメラ9bの撮像エリアa10は、第1コンロ11a、第2コンロ11b、第3コンロ11cを収めている。加熱中カメラ9bは、第1コンロ11aの上に載置されている鍋86の内部に収容されている加熱中食材84bが、第1コンロ11aによって加熱されている状態を撮像することができる。すなわち、加熱中カメラ9bは、第1コンロ11aにより加熱されている加熱中食材84bの状態を含む加熱中食材画像を撮像可能に構成されている。なお、加熱前カメラ9aと加熱中カメラ9bは一体で形成されていてもよく、その場合、撮像エリアが左右方向に変更可能に構成されてもよい。 The heating camera 9b has an imaging area a10 extending downward. As shown in FIG. 7, the imaging area a10 of the heating camera 9b includes the first stove 11a, the second stove 11b, and the third stove 11c. The heating camera 9b can take an image of a state in which the heating foodstuff 84b housed inside the pot 86 placed on the first stove 11a is heated by the first stove 11a. That is, the heating camera 9b is configured to be able to capture an image of the heated food material including the state of the heated food material 84b heated by the first stove 11a. The pre-heating camera 9a and the heating camera 9b may be integrally formed, and in that case, the imaging area may be configured to be changeable in the left-right direction.

加熱中食材画像には、調理容器(図7では、鍋86)の大きさ、調理容器の種類(例えば、フライパンなど)、加熱中食材84bの加熱状況(色、沸騰状況など)、調理容器内の水分量、油分量、調理容器内に加えられた調味料の種類、量などの情報が含まれる。このため、図5を参照して説明したように、画像解析部52が加熱中食材画像を解析して、調理メニュー推定部55がこれらの情報を補足情報60としてニューラルネットワーク70に入力することができる。これにより、調理メニュー推定部55の推定精度を向上させることができる。 The image of the food being heated includes the size of the cooking container (pot 86 in FIG. 7), the type of cooking container (for example, a frying pan, etc.), the heating status (color, boiling status, etc.) of the food being heated 84b, and the inside of the cooking container. Contains information such as the amount of water, the amount of oil, and the type and amount of seasoning added to the cooking pan. Therefore, as described with reference to FIG. 5, the image analysis unit 52 analyzes the image of the food being heated, and the cooking menu estimation unit 55 inputs these information to the neural network 70 as supplementary information 60. can. As a result, the estimation accuracy of the cooking menu estimation unit 55 can be improved.

図8に示されるように、加熱中カメラ9bは、撮像エリアa11も撮像可能に構成されている。これにより、加熱中カメラ9bは、加熱調理器10によって調理を実行するユーザ100の加熱中ユーザ画像も撮像することができる。 As shown in FIG. 8, the heating camera 9b is configured so that the imaging area a11 can also be imaged. As a result, the heating camera 9b can also capture a heating user image of the user 100 who executes cooking by the heating cooker 10.

加熱中ユーザ画像には、ユーザ100の姿勢(頭や体の向き、手の位置など)、ユーザ100が所持している調理具(図8では、おたま90)の大きさ、調理具の種類(例えば、菜箸など)の情報も含まれる。また、加熱中カメラ9bがユーザ100の状態を連続して撮像することで、ユーザ100の動き(例えば、調味料を入れる動き、調理容器内をかき混ぜる動きなど)の情報も加熱中ユーザ画像に含めることができる。このため、図5を参照して説明したように、画像解析部52が加熱中ユーザ画像を解析して、調理メニュー推定部55がこれらの情報を補足情報60としてニューラルネットワーク70に入力することができる。これにより、調理メニュー推定部55の推定精度を向上させることができる。 In the heating user image, the posture of the user 100 (head and body orientation, hand position, etc.), the size of the cooking utensil (ladle 90 in FIG. 8) possessed by the user 100, and the type of cooking utensil (in FIG. 8). For example, information such as chopsticks) is also included. Further, by continuously capturing the state of the user 100 by the heating camera 9b, information on the movement of the user 100 (for example, the movement of adding seasonings, the movement of stirring the inside of the cooking container, etc.) is also included in the heating user image. be able to. Therefore, as described with reference to FIG. 5, the image analysis unit 52 analyzes the user image during heating, and the cooking menu estimation unit 55 inputs these information to the neural network 70 as supplementary information 60. can. As a result, the estimation accuracy of the cooking menu estimation unit 55 can be improved.

図9に示されるように、加熱中カメラ9bは、撮像エリアa13も撮像可能に構成されている。これにより、加熱中カメラ9bは、グリル28内で加熱されている加熱中食材88の状態を含むグリル内食材画像も撮像することができる。 As shown in FIG. 9, the heating camera 9b is configured so that the imaging area a13 can also be imaged. As a result, the heating camera 9b can also capture an image of the food in the grill including the state of the food 88 being heated in the grill 28.

グリル内食材画像にも、加熱中食材画像と同様に、加熱中食材88の加熱状況、グリル28内の水分量、油分量、グリル28内に加えられた調味料の種類、量などの情報が含まれる。このため、図5を参照して説明したように、画像解析部52が加熱中食材画像を解析して、調理メニュー推定部55がこれらの情報を補足情報60としてニューラルネットワーク70に入力することができる。これにより、調理メニュー推定部55の推定精度を向上させることができる。 Similar to the image of the food being heated, the image of the food in the grill also contains information such as the heating status of the food 88 being heated, the amount of water in the grill 28, the amount of oil, and the type and amount of the seasoning added in the grill 28. included. Therefore, as described with reference to FIG. 5, the image analysis unit 52 analyzes the image of the food being heated, and the cooking menu estimation unit 55 inputs these information to the neural network 70 as supplementary information 60. can. As a result, the estimation accuracy of the cooking menu estimation unit 55 can be improved.

また、図5で説明したように、制御装置40は、加熱量情報取得部54によって、各コンロおよびグリル28の加熱量に関する情報である加熱量情報57qも取得可能である。このため、図5を参照して説明したように、調理メニュー推定部55が加熱量情報57qも補足情報としてニューラルネットワーク70に入力することができる。これにより、調理メニュー推定部55の推定精度を向上させることができる。 Further, as described with reference to FIG. 5, the control device 40 can also acquire the heating amount information 57q, which is information on the heating amount of each stove and the grill 28, by the heating amount information acquisition unit 54. Therefore, as described with reference to FIG. 5, the cooking menu estimation unit 55 can input the heating amount information 57q into the neural network 70 as supplementary information. As a result, the estimation accuracy of the cooking menu estimation unit 55 can be improved.

図10および図11を参照して、制御装置40(図3参照)が実行する処理について説明する。なお、図10および図11で説明する制御装置40が実行する処理が、「加熱調理方法」の一例である。 A process executed by the control device 40 (see FIG. 3) will be described with reference to FIGS. 10 and 11. The process executed by the control device 40 described with reference to FIGS. 10 and 11 is an example of the “cooking method”.

ユーザは、電源スイッチ24をオンにして加熱調理器10を起動させる。その後、ユーザは、パネル操作部22で設定することよって自動加熱モードを開始する(ステップS2)。ユーザは、自動加熱モードを設定する際、自動加熱モードで加熱するコンロバーナまたはグリルバーナを選択する。以下では、第1コンロ11aの第1コンロバーナ12aが選択された場合について説明する。 The user turns on the power switch 24 to activate the cooking cooker 10. After that, the user starts the automatic heating mode by setting in the panel operation unit 22 (step S2). When setting the automatic heating mode, the user selects a stove burner or a grill burner to heat in the automatic heating mode. Hereinafter, the case where the first stove burner 12a of the first stove 11a is selected will be described.

自動加熱モードが開始されると、図7を参照して説明したように、制御装置40は、加熱前カメラ9aに加熱前食材画像を撮像させ、加熱前カメラ9aから加熱前食材画像を取得する(ステップS4)。また、制御装置40は、図5に示した画像解析部52によって、食材情報52fを補足情報60として取得する(ステップS6)。次いで、制御装置40は、図5に示した解像度変換部53によって、加熱前食材画像の解像度を低くする(ステップS8)。なお、先に述べたように、加熱前食材画像の解像度を低くするステップS8は、省略可能である。 When the automatic heating mode is started, as described with reference to FIG. 7, the control device 40 causes the preheating camera 9a to take an image of the preheated food material, and acquires the preheating food material image from the preheating camera 9a. (Step S4). Further, the control device 40 acquires the food material information 52f as supplementary information 60 by the image analysis unit 52 shown in FIG. 5 (step S6). Next, the control device 40 lowers the resolution of the preheated food material image by the resolution conversion unit 53 shown in FIG. 5 (step S8). As described above, the step S8 for lowering the resolution of the food material image before heating can be omitted.

その後、制御装置40は、図5を参照して説明したように、調理メニュー推定部55によって、低解像度撮像画像62と補足情報60(すなわち、食材情報52f)をニューラルネットワーク70に入力する。先に述べたように、ニューラルネットワーク70は、学習装置30から学習結果データ32rを、インターネットを介して受信済みである。すなわち、ニューラルネットワーク70は、加熱前食材画像に基づいて調理メニューを推定するための機械学習器を行った学習済みの学習器である。低解像度撮像画像62を入力されたニューラルネットワーク70は、先に述べたように、調理メニュー情報64(図5参照)に対応する出力値を出力する。これにより、制御装置40は、調理メニュー推定部55によって、調理メニュー情報64を取得する(ステップS12)。 After that, the control device 40 inputs the low-resolution captured image 62 and the supplementary information 60 (that is, the food material information 52f) to the neural network 70 by the cooking menu estimation unit 55, as described with reference to FIG. As described above, the neural network 70 has received the learning result data 32r from the learning device 30 via the Internet. That is, the neural network 70 is a trained learner that has performed a machine learner for estimating a cooking menu based on a pre-heated food image. As described above, the neural network 70 to which the low-resolution captured image 62 is input outputs the output value corresponding to the cooking menu information 64 (see FIG. 5). As a result, the control device 40 acquires the cooking menu information 64 by the cooking menu estimation unit 55 (step S12).

その後、ユーザがステップS2で選択した第1コンロバーナ12aに点火する(ステップS14)。制御装置40は、加熱量制御部57によってステップS2で選択された第1コンロバーナ12aに点火したことを検知する。制御装置40は、加熱量制御部57によって、メニュー記憶部48(図3参照)に記憶している加熱量テーブル48t内の、ステップS12にて取得した調理メニュー情報64に対応している加熱量(火力)のパターンを用いて第1コンロバーナ12aの加熱量の制御を開始する(ステップS16)。これにより、加熱量制御部57は、調理メニュー推定部55が推定した調理メニューに基づいて、第1コンロバーナ12aの加熱量を制御する。 After that, the first stove burner 12a selected by the user in step S2 is ignited (step S14). The control device 40 detects that the first stove burner 12a selected in step S2 is ignited by the heating amount control unit 57. The control device 40 has a heating amount corresponding to the cooking menu information 64 acquired in step S12 in the heating amount table 48t stored in the menu storage unit 48 (see FIG. 3) by the heating amount control unit 57. Control of the heating amount of the first stove burner 12a is started using the pattern of (heat) (step S16). As a result, the heating amount control unit 57 controls the heating amount of the first stove burner 12a based on the cooking menu estimated by the cooking menu estimation unit 55.

調理メニュー情報64に対応している加熱量のパターンが終了すると、制御装置40は、加熱量制御部57によって加熱量(火力)のパターン制御を終了する(ステップS18)。その後、制御装置40は、警報部56(図5参照)によってスピーカ9c(図3参照)を介してユーザに加熱が完了したことを報知する(ステップS20)。これにより、制御装置40、ユーザに対して、ユーザが行った加熱前処理によって推定された調理メニューの加熱が完了したことを知らせることができる。 When the pattern of the heating amount corresponding to the cooking menu information 64 is completed, the control device 40 ends the pattern control of the heating amount (heat power) by the heating amount control unit 57 (step S18). After that, the control device 40 notifies the user that the heating is completed via the speaker 9c (see FIG. 3) by the alarm unit 56 (see FIG. 5) (step S20). As a result, the control device 40 and the user can be notified that the heating of the cooking menu estimated by the heating pretreatment performed by the user is completed.

先に述べたように、実施例の加熱調理システム2(図1参照)は、加熱中の画像も取得することができる。図11に示されるように、制御装置40は、図10のステップ16の後に加熱中食材(またはユーザ)画像を取得する(ステップS4b)。図7および図8を参照して説明したように、加熱中カメラ9bによって、加熱中食材(またはユーザ)画像を取得する。ステップ4bで加熱中ユーザ画像を取得した場合には、制御装置40は、図5に示した画像解析部52によって、ユーザ情報52uを補足情報60として取得する(ステップS6b)。また、制御装置40は、図5に示した加熱量情報取得部54によって、加熱量情報57qを補足情報60としても取得してもよい。 As described above, the cooking system 2 of the embodiment (see FIG. 1) can also acquire an image during heating. As shown in FIG. 11, the control device 40 acquires an image of the heated food (or user) after step 16 in FIG. 10 (step S4b). As described with reference to FIGS. 7 and 8, the heating camera 9b acquires images of the food (or user) being heated. When the heating user image is acquired in step 4b, the control device 40 acquires the user information 52u as supplementary information 60 by the image analysis unit 52 shown in FIG. 5 (step S6b). Further, the control device 40 may acquire the heating amount information 57q as supplementary information 60 by the heating amount information acquisition unit 54 shown in FIG.

次いで、制御装置40は、図5に示した解像度変換部53によって、加熱中食材(またはユーザ)画像の解像度を低くする(ステップS8b)。その後、制御装置40は、調理メニュー推定部55によって、低解像度撮像画像62と補足情報60(すなわち、ユーザ情報52uと加熱量情報57q)をニューラルネットワーク70に入力する。先に述べたように、調理メニュー推定部55は、ニューラルネットワーク70によって調理メニューを推定する。以下、図11のステップS10bからステップS16bの処理については、上記の図10のステップと同様であるため説明は省略する。このように、加熱前食材画像および食材情報52fによって調理メニューを推定した後に、加熱中食材画像および加熱中ユーザ画像によって再度推定することで、調理メニュー推定部55(図5参照)の推定精度を向上させることができる。また、加熱中の画像に加え、画像を解析したユーザ情報52uや、加熱中の加熱量に関する情報である加熱量情報57qを補足情報60として取得することで、さらに調理メニュー推定部55(図5参照)の推定精度を向上させることができる。なお、画像取得部51は、加熱中食材画像と加熱中ユーザ画像の双方を同時に取得してもよいし、どちらか一方を先に取得し、その後に他方を取得してもよい。 Next, the control device 40 lowers the resolution of the heated food (or user) image by the resolution conversion unit 53 shown in FIG. 5 (step S8b). After that, the control device 40 inputs the low-resolution captured image 62 and the supplementary information 60 (that is, the user information 52u and the heating amount information 57q) to the neural network 70 by the cooking menu estimation unit 55. As described above, the cooking menu estimation unit 55 estimates the cooking menu by the neural network 70. Hereinafter, the processing from step S10b to step S16b in FIG. 11 is the same as the step in FIG. 10 above, and thus the description thereof will be omitted. In this way, the cooking menu is estimated by the pre-heating food image and the food information 52f, and then re-estimated by the heating food image and the heating user image, whereby the estimation accuracy of the cooking menu estimation unit 55 (see FIG. 5) can be obtained. Can be improved. Further, by acquiring the user information 52u obtained by analyzing the image and the heating amount information 57q which is information on the heating amount during heating as supplementary information 60, in addition to the image during heating, the cooking menu estimation unit 55 (FIG. 5). The estimation accuracy of (see) can be improved. The image acquisition unit 51 may acquire both the image of the food being heated and the image of the user during heating at the same time, or may acquire either one first and then the other.

図12を参照して、学習装置30(図6参照)が実行する処理について説明する。図12を参照して説明する学習装置30が実行する処理が「学習方法」の一例である。 A process executed by the learning device 30 (see FIG. 6) will be described with reference to FIG. The process executed by the learning device 30 described with reference to FIG. 12 is an example of the “learning method”.

学習装置30は、図6に示すように、学習データ取得部31によって、低解像度撮像画像62t、補足情報60t、および調理メニュー情報64tの組を学習データ66として取得する(ステップS30)。 As shown in FIG. 6, the learning device 30 acquires a set of a low-resolution captured image 62t, supplementary information 60t, and cooking menu information 64t as learning data 66 by the learning data acquisition unit 31 (step S30).

学習データ66は、ニューラルネットワーク70tに対して、調理メニューを推定可能にするための機械学習に利用するデータである。このような学習データ66は、加熱前の準備が施された様々な食材の画像と、推定される調理メニューを紐づけることで作成することができる。その際、加熱前の準備が施された様々な食材の画像は、図5の低解像度撮像画像62と同等の解像度で保存される。加熱前の準備が施された様々な食材の画像は、少なくとも食材の切り方や大きさ、色、等を判別可能であればよい。 The learning data 66 is data used for machine learning for making the cooking menu inestifiable for the neural network 70t. Such learning data 66 can be created by associating images of various ingredients prepared before heating with an estimated cooking menu. At that time, images of various foodstuffs prepared before heating are stored at the same resolution as the low-resolution captured image 62 of FIG. Images of various foodstuffs prepared before heating may be at least as long as the cutting method, size, color, etc. of the foodstuff can be discriminated.

また、学習データ66は、加熱中の様々な食材や調理容器の画像と、調理メニューを紐づけても作成することができる。その際、加熱中の様々な食材や調理容器の画像は、図5の低解像度撮像画像62と同等の解像度で保存される。加熱中の様々な食材や調理容器の画像は、少なくとも食材の色、大きさ、色、調理容器の色、大きさ、調理容器内の色等を判別可能であればよい。 Further, the learning data 66 can also be created by associating the images of various foodstuffs and cooking containers being heated with the cooking menu. At that time, images of various foodstuffs and cooking containers being heated are stored at the same resolution as the low-resolution captured image 62 of FIG. The images of various foodstuffs and cooking containers being heated may be at least as long as the color, size, color of foodstuffs, the color and size of the cooking container, the color inside the cooking container, and the like can be discriminated.

さらに、学習データ66は、加熱中のユーザの画像と、調理メニューを紐づけても作成することができる。その際、加熱中のユーザの画像は、図5の低解像度撮像画像62と同等の解像度で保存される。加熱中のユーザの画像は、少なくともユーザの姿勢、顔の向き、所持している調理器具の種類、大きさ、色、を判別可能であればよい。 Further, the learning data 66 can also be created by associating the image of the user being heated with the cooking menu. At that time, the image of the user being heated is stored at the same resolution as the low-resolution captured image 62 of FIG. The image of the user during heating may be at least as long as the posture of the user, the orientation of the face, the type, size, and color of the cooking utensil possessed can be discriminated.

補足情報60に含まれる食材情報52fは、加熱前の準備が施された様々な食材の画像を解析して、食材の種類、切り方などに関する情報を抽出することで取得することができる。同様に、補足情報60に含まれるユーザ情報52uは、加熱中のユーザの画像を解析して、ユーザの姿勢、所持している調理器具などに関する情報を抽出することで取得することができる。学習データ66は、これらの抽出した情報と調理メニューを紐づけることでも作成することができる。 The food ingredient information 52f included in the supplementary information 60 can be obtained by analyzing images of various foodstuffs prepared before heating and extracting information on the type of foodstuff, how to cut the foodstuff, and the like. Similarly, the user information 52u included in the supplementary information 60 can be obtained by analyzing the image of the user during heating and extracting information regarding the posture of the user, the cooking utensils possessed by the user, and the like. The learning data 66 can also be created by associating the extracted information with the cooking menu.

この学習データ66の作成は、オペレータ等が入力装置34i(図4参照)を用いて手動で行ってもよいし、プログラムの処理により自動的に行われてもよい。この学習データ66は、制御装置40から随時収集されてもよい。また、学習データ66の作成は、学習装置30以外の他の情報処理装置により行われてもよい。学習装置30が学習データ66を作成する場合には、制御部36は、本ステップS30において、学習データ66の作成処理を実行することで、学習データ66を取得することができる。一方、学習装置30以外の他の情報処理装置が学習データ66を作成する場合には、学習装置30は、ネットワーク、記憶媒体30m(図4参照)等を介して、他の情報処理装置により作成された学習データ66を取得することができる。なお、本ステップS30で取得する学習データ66の件数は、ニューラルネットワーク70tの機械学習を行うことができるように、実施形態に応じて適宜決定されてよい。 The learning data 66 may be created manually by an operator or the like using the input device 34i (see FIG. 4), or may be automatically created by processing a program. The learning data 66 may be collected from the control device 40 at any time. Further, the learning data 66 may be created by an information processing device other than the learning device 30. When the learning device 30 creates the learning data 66, the control unit 36 can acquire the learning data 66 by executing the learning data 66 creation process in this step S30. On the other hand, when an information processing device other than the learning device 30 creates the learning data 66, the learning device 30 is created by the other information processing device via a network, a storage medium 30 m (see FIG. 4), or the like. The learned data 66 can be acquired. The number of learning data 66 acquired in this step S30 may be appropriately determined according to the embodiment so that machine learning of the neural network 70t can be performed.

次いで、学習装置30は、学習処理部33によって、ステップS30で取得した学習データ66を用いて、低解像度撮像画像62tおよび補足情報60tを入力すると調理メニュー情報64tに対応する出力値を出力するようにニューラルネットワーク70tの機械学習処理を実行する(ステップS32)。 Next, the learning device 30 outputs the output value corresponding to the cooking menu information 64t when the low-resolution captured image 62t and the supplementary information 60t are input by the learning processing unit 33 using the learning data 66 acquired in step S30. The machine learning process of the neural network 70t is executed (step S32).

学習装置30の制御部36(図4参照)は、学習処理を行う対象となるニューラルネットワーク70tを用意する。用意するニューラルネットワーク70tの構成、各ニューロン間の結合の重みの初期値、および各ニューロンの閾値の初期値は、テンプレートにより与えられてもよいし、オペレータの入力により与えられてもよい。また、再学習を行う場合には、制御部36は、再学習を行う対象となる学習結果データ32rに基づいて、ニューラルネットワーク70tを用意してもよい。 The control unit 36 (see FIG. 4) of the learning device 30 prepares a neural network 70t to be subjected to the learning process. The configuration of the prepared neural network 70t, the initial value of the weight of the connection between each neuron, and the initial value of the threshold value of each neuron may be given by the template or by the input of the operator. Further, when performing re-learning, the control unit 36 may prepare a neural network 70t based on the learning result data 32r to be re-learned.

次に、制御部36は、ステップS30で取得した学習データ66に含まれる低解像度撮像画像62tおよび補足情報60tを入力データとして用い、調理メニュー情報64tを教師データ(正解データ)として用いて、ニューラルネットワーク70の学習処理を行う。このニューラルネットワーク70の学習処理には、確率的勾配降下法等が用いられてよい。 Next, the control unit 36 uses the low-resolution captured image 62t and supplementary information 60t included in the learning data 66 acquired in step S30 as input data, and uses the cooking menu information 64t as teacher data (correct answer data), and is neural. The learning process of the network 70 is performed. A stochastic gradient descent method or the like may be used for the learning process of the neural network 70.

例えば、制御部36は、全結合ニューラルネットワーク72tの入力層に補足情報60tを入力し、畳み込みニューラルネットワーク74tの最も入力側に配置された畳み込み層に低解像度撮像画像62tを入力する。そして、制御部36は、入力側から順に、各層に含まれる各ニューロンの発火判定を行う。これにより、制御部36は、LSTMネットワーク78tの出力層から出力値を得る。次に、制御部36は、LSTMネットワーク78tの出力層から取得した出力値と調理メニュー情報64tに対応する値との誤差を算出する。続いて、制御部36は、通時的誤差逆伝搬(Back propagation through time)法により、算出した出力値の誤差を用いて、各ニューロン間の結合の重みおよび各ニューロンの閾値それぞれの誤差を算出する。そして、制御部36は、算出した各誤差に基づいて、各ニューロン間の結合の重みおよび各ニューロンの閾値それぞれの値の更新を行う。 For example, the control unit 36 inputs supplementary information 60t to the input layer of the fully connected neural network 72t, and inputs the low-resolution captured image 62t to the convolutional layer arranged on the most input side of the convolutional neural network 74t. Then, the control unit 36 determines the firing of each neuron included in each layer in order from the input side. As a result, the control unit 36 obtains an output value from the output layer of the LSTM network 78t. Next, the control unit 36 calculates an error between the output value acquired from the output layer of the LSTM network 78t and the value corresponding to the cooking menu information 64t. Subsequently, the control unit 36 calculates the connection weight between each neuron and the error of each threshold value of each neuron using the error of the output value calculated by the backpropagation through time method. do. Then, the control unit 36 updates the weight of the connection between each neuron and the value of each threshold value of each neuron based on each calculated error.

制御部36は、各件の学習データ66について、ニューラルネットワーク70tから出力される出力値が調理メニュー情報64tに対応する値と一致するまでこの一連の処理を繰り返す。これにより、制御部36は、低解像度撮像画像62tおよび補足情報60tを入力すると調理メニュー情報64tに対応する出力値を出力するニューラルネットワーク70tを構築することができる。 The control unit 36 repeats this series of processes for each learning data 66 until the output value output from the neural network 70t matches the value corresponding to the cooking menu information 64t. As a result, the control unit 36 can construct a neural network 70t that outputs an output value corresponding to the cooking menu information 64t when the low-resolution captured image 62t and the supplementary information 60t are input.

制御部36は、学習処理部33によって、構築したニューラルネットワーク70の構成、各ニューロン間の結合の重み、および各ニューロンの閾値を示す情報を学習結果データ32rとして記憶部32に記憶する(ステップS34)。これにより、制御部36は、本動作例に係るニューラルネットワーク70の学習処理を終了する。 The control unit 36 stores information indicating the configuration of the neural network 70 constructed by the learning processing unit 33, the weight of the connection between each neuron, and the threshold value of each neuron in the storage unit 32 as learning result data 32r (step S34). ). As a result, the control unit 36 ends the learning process of the neural network 70 according to this operation example.

なお、制御部36は、上記のステップS36の処理が完了した後に、作成した学習結果データ32rを制御装置40に転送してもよい。また、制御部36は、上記ステップS30〜S36の学習処理を定期的に実行することで、学習結果データ32rを定期的に更新してもよい。そして、制御部36は、作成した学習結果データ32rを当該学習処理の実行毎に制御装置40に転送することで、制御装置40の保持する学習結果データ32rを定期的に更新してもよい。また、例えば、制御部36は、作成した学習結果データ32rを別のデータサーバに保管してもよい。この場合、制御装置40は、このデータサーバから学習結果データ32rを取得してもよい。 The control unit 36 may transfer the created learning result data 32r to the control device 40 after the process of step S36 is completed. Further, the control unit 36 may periodically update the learning result data 32r by periodically executing the learning processes of steps S30 to S36. Then, the control unit 36 may periodically update the learning result data 32r held by the control device 40 by transferring the created learning result data 32r to the control device 40 each time the learning process is executed. Further, for example, the control unit 36 may store the created learning result data 32r in another data server. In this case, the control device 40 may acquire the learning result data 32r from this data server.

(対応関係)食材84a、84b、88が、それぞれ、「加熱対象物」の一例である。加熱調理器10の各コンロバーナおよびグリルバーナ29aが「加熱部」の一例である。加熱前カメラ9aおよび加熱中カメラ9bが「撮像装置」の一例である。画像解析部52が、「食材情報解析部」、「ユーザ情報解析部」の一例である。 (Correspondence) Ingredients 84a, 84b, 88 are examples of "heated objects", respectively. Each stove burner and grill burner 29a of the cooking device 10 is an example of a “heating unit”. The pre-heating camera 9a and the heating camera 9b are examples of the “imaging device”. The image analysis unit 52 is an example of the “food material information analysis unit” and the “user information analysis unit”.

以上、実施例について詳細に説明したが、これらは例示に過ぎず、特許請求の範囲を限定するものではない。特許請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。上記の実施例の変形例を以下に列挙する。 Although the examples have been described in detail above, these are merely examples and do not limit the scope of claims. The techniques described in the claims include various modifications and modifications of the specific examples exemplified above. Modifications of the above embodiment are listed below.

(変形例1)上記の加熱調理システム2では、加熱前食材画像から、画像解析部52によって食材情報52fを抽出し、補足情報60として学習済みの学習器(ニューラルネットワーク70)に入力している。これに代えて、変形例では、食材情報52fを入力しない構成としてもよい。その場合、制御装置40は、画像解析部52を備えなくてもよい。 (Modification 1) In the above-mentioned cooking system 2, the food material information 52f is extracted from the pre-heating food material image by the image analysis unit 52 and input to the learned learner (neural network 70) as supplementary information 60. .. Instead of this, in the modified example, the configuration may be such that the food material information 52f is not input. In that case, the control device 40 does not have to include the image analysis unit 52.

(変形例2)上記の加熱調理システム2では、加熱中カメラ9bが撮像した加熱中食材画像も画像取得部51によって取得し、学習済みの学習器(ニューラルネットワーク70)に入力している。これに代えて、変形例では、加熱中食材画像は取得しなくてもよい。 (Modification 2) In the above-mentioned cooking system 2, the image of the food being heated captured by the heating camera 9b is also acquired by the image acquisition unit 51 and input to the trained learner (neural network 70). Instead of this, in the modified example, it is not necessary to acquire the image of the food material during heating.

(変形例3)上記の加熱調理システム2では、加熱中カメラ9bが撮像した加熱中ユーザ画像も画像取得部51によって取得し、学習済みの学習器(ニューラルネットワーク70)に入力している。これに代えて、変形例では、加熱中ユーザ画像は取得しなくてもよい。 (Modification 3) In the above-mentioned cooking system 2, the heating user image captured by the heating camera 9b is also acquired by the image acquisition unit 51 and input to the trained learner (neural network 70). Instead of this, in the modified example, it is not necessary to acquire the user image during heating.

(変形例4)上記の加熱調理システム2では、加熱中ユーザ画像から、画像解析部52によってユーザ情報52uを抽出し、補足情報60として学習済みの学習器(ニューラルネットワーク70)に入力している。これに代えて、変形例では、ユーザ情報52uを入力しない構成としてもよい。その場合、制御装置40は、画像解析部52を備えなくてもよい。 (Modification 4) In the above-mentioned cooking system 2, user information 52u is extracted from the heating user image by the image analysis unit 52 and input to the learned learner (neural network 70) as supplementary information 60. .. Instead of this, in the modified example, the user information 52u may not be input. In that case, the control device 40 does not have to include the image analysis unit 52.

(変形例5)上記の加熱調理システム2では、制御装置40は、ユーザが選択したコンロまたはグリルが、ユーザによって点火されたことを検知して、選択したコンロまたはグリルの加熱量のパターン制御を開始する。これに代えて、変形例では、選択されたコンロまたはグリルのセンサによって選択されたコンロまたはグリルに調理容器や食材が載置されたことを検知した場合に、制御装置が選択されたコンロまたはグリルに点火してもよい。 (Variation Example 5) In the above-mentioned cooking system 2, the control device 40 detects that the stove or grill selected by the user has been ignited by the user, and controls the pattern of the heating amount of the selected stove or grill. Start. Instead, in the variant, when the sensor on the selected stove or grill detects that a cooking container or ingredient has been placed on the selected stove or grill, the controller selects the stove or grill. May be ignited.

(変形例6)上記の加熱調理システム2は、システムキッチンに組み込んで使用されるガス燃焼式のビルトインコンロである。これに代えて、変形例では、電磁誘導加熱調理器(IH調理器)であってもよい。その場合、制御装置40の加熱量制御部57は、火力に代えて各調理器の電力を制御してもよい。 (Modification 6) The above-mentioned cooking system 2 is a gas combustion type built-in stove used by incorporating it into a system kitchen. Instead of this, in the modified example, an electromagnetic induction heating cooker (IH cooker) may be used. In that case, the heating amount control unit 57 of the control device 40 may control the electric power of each cooker instead of the thermal power.

以上、本発明の具体例を詳細に説明したが、これらは例示に過ぎず、特許請求の範囲を限定するものではない。特許請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。本明細書または図面に説明した技術要素は、単独であるいは各種の組合せによって技術的有用性を発揮するものであり、出願時請求項記載の組合せに限定されるものではない。また、本明細書または図面に例示した技術は複数目的を同時に達成し得るものであり、そのうちの一つの目的を達成すること自体で技術的有用性を持つものである。 Although specific examples of the present invention have been described in detail above, these are merely examples and do not limit the scope of claims. The techniques described in the claims include various modifications and modifications of the specific examples exemplified above. The technical elements described herein or in the drawings exhibit their technical usefulness alone or in various combinations, and are not limited to the combinations described in the claims at the time of filing. In addition, the techniques exemplified in the present specification or the drawings can achieve a plurality of purposes at the same time, and achieving one of the purposes itself has technical usefulness.

2 :加熱調理システム
4 :レンジフード
6 :レンジカバー
8 :カメラカバー
9a :加熱前カメラ
9b :加熱中カメラ
9c :スピーカ
10 :加熱調理器
11a :第1コンロ
12a :第1コンロバーナ
14a :第1センサ
16a :五徳
17 :排気口
20 :コンロ操作部
20a :第1加熱量操作部
22 :パネル操作部
24 :電源スイッチ
28 :グリル
29a :グリルバーナ
30 :学習装置
30m :記憶媒体
31 :学習データ取得部
32 :記憶部
33 :学習処理部
34i :入力装置
34о :出力装置
36 :制御部
38 :通信インターフェース
39 :ドライブ
40 :制御装置
42 :外部インターフェース
46 :学習記憶部
48 :メニュー記憶部
48t :加熱量テーブル
51 :画像取得部
52 :画像解析部
53 :解像度変換部
54 :加熱量情報取得部
55 :調理メニュー推定部
56 :警報部
57 :加熱量制御部
70、70t :ニューラルネットワーク
80 :加熱前準備スペース
84a :加熱前食材
84b、88 :加熱中食材
86 :鍋
2: Cooking system 4: Range hood 6: Range cover 8: Camera cover 9a: Pre-heating camera 9b: Heating camera 9c: Speaker 10: Heating cooker 11a: 1st stove 12a: 1st stove burner 14a: 1st Sensor 16a: Gotoku 17: Exhaust port 20: Stove operation unit 20a: First heating amount operation unit 22: Panel operation unit 24: Power switch 28: Grill 29a: Grill burner 30: Learning device 30m: Storage medium 31: Learning data acquisition unit 32: Storage unit 33: Learning processing unit 34i: Input device 34о: Output device 36: Control unit 38: Communication interface 39: Drive 40: Control device 42: External interface 46: Learning storage unit 48: Menu storage unit 48t: Heat amount Table 51: Image acquisition unit 52: Image analysis unit 53: Resolution conversion unit 54: Heating amount information acquisition unit 55: Cooking menu estimation unit 56: Alarm unit 57: Heating amount control unit 70, 70t: Neural network 80: Preparation before heating Space 84a: Unheated food 84b, 88: Heating food 86: Pot

Claims (20)

加熱対象物を加熱する加熱部と、
前記加熱対象物を前記加熱部で加熱する前の準備が施されている前記加熱対象物の状態を含む画像である加熱前対象物画像を撮像可能に構成されている撮像装置から、前記加熱前対象物画像を取得する画像取得部と、
ユーザが前記加熱対象物を前記加熱部で加熱して調理する調理メニューを、前記加熱前対象物画像に基づいて推定するための機械学習を行った学習済みの学習器に、前記画像取得部が取得した前記加熱前対象物画像を入力し、前記学習済みの学習器の演算処理を実行することで、前記調理メニューを前記学習器から取得する調理メニュー推定部と、
前記調理メニュー推定部が推定した前記調理メニューに基づいて、前記加熱部の加熱量を制御する加熱量制御部と、を備えている、加熱調理システム。
A heating unit that heats the object to be heated,
Before heating, the image pickup device configured to be able to capture an image of the object to be heated, which is an image including the state of the object to be heated, which is prepared before heating the object to be heated by the heating unit. The image acquisition unit that acquires the object image and
The image acquisition unit is attached to a learned learning device that has been machine-learned to estimate a cooking menu in which a user heats and cooks the object to be heated by the heating unit based on the image of the object before heating. A cooking menu estimation unit that acquires the cooking menu from the learning device by inputting the acquired image of the object before heating and executing arithmetic processing of the learned learning device.
A cooking system including a heating amount control unit that controls the heating amount of the heating unit based on the cooking menu estimated by the cooking menu estimation unit.
前記加熱前対象物画像に基づいて前記加熱対象物が含んでいる食材に関する情報である食材情報を解析する食材情報解析部をさらに備えており、
前記学習器は、前記食材情報にも基づいて前記調理メニューを推定するための機械学習を行っており、
前記調理メニュー推定部は、前記食材情報解析部が解析した前記食材情報も前記学習器に入力し、前記学習済みの学習器の演算処理を実行することで、前記調理メニューを前記学習器から取得する、請求項1に記載の加熱調理システム。
It also has a food information analysis unit that analyzes food information, which is information about foods contained in the heating object, based on the image of the object before heating.
The learning device performs machine learning for estimating the cooking menu based on the food material information.
The cooking menu estimation unit also inputs the food material information analyzed by the food material information analysis unit into the learning device, and executes arithmetic processing of the learned learning device to acquire the cooking menu from the learning device. The cooking system according to claim 1.
前記撮像装置は、前記加熱部により加熱されている前記加熱対象物の状態を含む画像である加熱中対象物画像も撮像可能に構成されており、
前記画像取得部は、前記撮像装置から前記加熱中対象物画像も取得し、
前記学習器は、前記加熱中対象物画像にも基づいて前記調理メニューを推定するための機械学習を行っており、
前記調理メニュー推定部は、前記画像取得部が取得した前記加熱中対象物画像も前記学習器に入力し、前記学習済みの学習器の演算処理を実行することで前記調理メニューを前記学習器から取得する、請求項1または2に記載の加熱調理システム。
The image pickup apparatus is configured to be capable of capturing an image of an object being heated, which is an image including a state of the object to be heated that is being heated by the heating unit.
The image acquisition unit also acquires an image of the object being heated from the image pickup device.
The learning device performs machine learning for estimating the cooking menu based on the image of the object being heated.
The cooking menu estimation unit also inputs the image of the object being heated acquired by the image acquisition unit into the learning device, and executes arithmetic processing of the learned learning device to obtain the cooking menu from the learning device. The cooking system according to claim 1 or 2 to be acquired.
前記撮像装置は、前記加熱部により前記加熱対象物を加熱している前記ユーザの状態を含む画像である加熱中ユーザ画像も撮像可能に構成されており、
前記画像取得部は、前記撮像装置から前記加熱中ユーザ画像も取得し、
前記学習器は、前記加熱中ユーザ画像にも基づいて前記調理メニューを推定するための機械学習を行っており、
前記調理メニュー推定部は、前記画像取得部が取得した前記加熱中ユーザ画像も前記学習器に入力し、前記学習済みの学習器の演算処理を実行することで、前記調理メニューを前記学習器から取得する、請求項1から3のいずれか一項に記載の加熱調理システム。
The image pickup device is configured to be able to capture a heating user image which is an image including the state of the user who is heating the heating object by the heating unit.
The image acquisition unit also acquires the heating user image from the image pickup device.
The learning device performs machine learning for estimating the cooking menu based on the user image during heating.
The cooking menu estimation unit also inputs the heating user image acquired by the image acquisition unit to the learning device, and executes arithmetic processing of the learned learning device to obtain the cooking menu from the learning device. The cooking system according to any one of claims 1 to 3 to be acquired.
前記加熱中ユーザ画像に基づいて前記ユーザに関する情報であるユーザ情報を解析するユーザ情報解析部をさらに備えており、
前記学習器は、前記ユーザ情報にも基づいて前記調理メニューを推定するための機械学習を行っており、
前記調理メニュー推定部は、前記ユーザ情報解析部が解析した前記ユーザ情報も前記学習器に入力し、前記学習済みの学習器の演算処理を実行することで、前記調理メニューを前記学習器から取得する、請求項4に記載の加熱調理システム。
It further includes a user information analysis unit that analyzes user information that is information about the user based on the heating user image.
The learning device performs machine learning for estimating the cooking menu based on the user information.
The cooking menu estimation unit also inputs the user information analyzed by the user information analysis unit into the learning device, and executes arithmetic processing of the learned learning device to acquire the cooking menu from the learning device. The cooking system according to claim 4.
コンピュータが、
加熱対象物を加熱部で加熱する前の準備が施されている前記加熱対象物の状態を含む画像である加熱前対象物画像を撮像可能に構成されている撮像装置から、前記加熱前対象物画像を取得する加熱前画像取得ステップと、
ユーザが前記加熱対象物を前記加熱部で加熱して調理する調理メニューを、前記加熱前対象物画像に基づいて推定するための機械学習を行った学習済みの学習器に、取得した前記加熱前対象物画像を入力し、前記学習済みの学習器の演算処理を実行することで、前記調理メニューを前記学習器から取得する調理メニュー推定ステップと、
前記調理メニュー推定ステップで取得した前記調理メニューに基づいて、前記加熱部の加熱量を制御する加熱量制御ステップと、を実行する、加熱調理方法。
The computer
From the image pickup device configured to be able to capture an image of the object to be heated, which is an image including the state of the object to be heated, which is prepared before the object to be heated is heated by the heating unit, the object to be heated is said to be the object to be heated. Pre-heating image acquisition step to acquire image and
The pre-heating acquired to a learned learner that has undergone machine learning for estimating a cooking menu in which a user heats and cooks the object to be heated in the heating unit based on the image of the object before heating. A cooking menu estimation step for acquiring the cooking menu from the learning device by inputting an object image and executing arithmetic processing of the learned learning device.
A cooking method for executing a heating amount control step for controlling the heating amount of the heating unit based on the cooking menu acquired in the cooking menu estimation step.
前記コンピュータが、前記加熱前対象物画像に基づいて前記加熱対象物が含んでいる食材に関する情報である食材情報を解析する食材情報解析ステップをさらに実行し、
前記学習器は、前記食材情報にも基づいて前記調理メニューを推定するための機械学習を行っており、
前記コンピュータは、前記調理メニュー推定ステップにおいて、前記食材情報解析ステップで解析した前記食材情報も前記学習器に入力し、前記学習済みの学習器の演算処理を実行することで前記調理メニューを前記学習器から取得する、請求項6に記載の加熱調理方法。
The computer further executes a food information analysis step of analyzing food information, which is information about the food contained in the heating object, based on the image of the object to be heated.
The learning device performs machine learning for estimating the cooking menu based on the food material information.
In the cooking menu estimation step, the computer also inputs the foodstuff information analyzed in the foodstuff information analysis step into the learning device, and executes the arithmetic processing of the learned learning device to learn the cooking menu. The cooking method according to claim 6, which is obtained from a vessel.
前記撮像装置は、前記加熱部により加熱されている前記加熱対象物の状態を含む画像である加熱中対象物画像も撮像可能に構成されており、
前記学習器は、前記加熱中対象物画像にも基づいて前記調理メニューを推定するための機械学習を行っており、
前記コンピュータは、
前記撮像装置から前記加熱中対象物画像を取得する加熱中対象物画像取得ステップをさらに実行し、
前記調理メニュー推定ステップにおいて、前記加熱中対象物画像取得ステップで取得した前記加熱中対象物画像も前記学習器に入力し、前記学習済みの学習器の演算処理を実行することで前記調理メニューを前記学習器から取得する、請求項6または7に記載の加熱調理方法。
The image pickup apparatus is configured to be capable of capturing an image of an object being heated, which is an image including a state of the object to be heated that is being heated by the heating unit.
The learning device performs machine learning for estimating the cooking menu based on the image of the object being heated.
The computer
Further executing the step of acquiring the image of the object being heated to acquire the image of the object being heated from the image pickup apparatus,
In the cooking menu estimation step, the heating object image acquired in the heating object image acquisition step is also input to the learning device, and the calculation process of the learned learning device is executed to display the cooking menu. The cooking method according to claim 6 or 7, which is obtained from the learning device.
前記撮像装置は、前記加熱部により前記加熱対象物を加熱している前記ユーザの状態を含む画像である加熱中ユーザ画像も撮像可能に構成されており、
前記学習器は、前記加熱中ユーザ画像にも基づいて前記調理メニューを推定するための機械学習を行っており、
前記コンピュータは、
前記撮像装置から前記加熱中ユーザ画像を取得する加熱中ユーザ画像取得ステップをさらに実行し、
前記調理メニュー推定ステップにおいて、前記加熱中ユーザ画像取得ステップで取得した前記加熱中ユーザ画像も前記学習器に入力し、前記学習済みの学習器の演算処理を実行することで、前記調理メニューを前記学習器から取得する、請求項6から8のいずれか一項に記載の加熱調理方法。
The image pickup device is configured to be able to capture a heating user image which is an image including the state of the user who is heating the heating object by the heating unit.
The learning device performs machine learning for estimating the cooking menu based on the user image during heating.
The computer
Further executing the heating user image acquisition step of acquiring the heating user image from the image pickup apparatus,
In the cooking menu estimation step, the heating user image acquired in the heating user image acquisition step is also input to the learning device, and the arithmetic processing of the learned learning device is executed to obtain the cooking menu. The cooking method according to any one of claims 6 to 8, which is obtained from a learning device.
前記コンピュータが、前記加熱中ユーザ画像に基づいて前記ユーザに関する情報であるユーザ情報を解析するユーザ情報解析ステップをさらに実行し、
前記学習器は、前記ユーザ情報にも基づいて前記調理メニューを推定するための機械学習を行っており、
前記コンピュータは、前記調理メニュー推定ステップにおいて、前記ユーザ情報解析ステップで解析した前記ユーザ情報も前記学習器に入力し、前記学習済みの学習器の演算処理を実行することで前記調理メニューを前記学習器から取得する、請求項9に記載の加熱調理方法。
The computer further performs a user information analysis step of analyzing user information, which is information about the user, based on the heating user image.
The learning device performs machine learning for estimating the cooking menu based on the user information.
In the cooking menu estimation step, the computer also inputs the user information analyzed in the user information analysis step into the learning device, and executes the arithmetic processing of the learned learning device to learn the cooking menu. The cooking method according to claim 9, which is obtained from a container.
ユーザが加熱対象物を加熱部で加熱して調理する調理メニューと、前記調理メニューに対応付けられており、前記加熱対象物を前記加熱部で加熱する前の準備が施されている前記加熱対象物の状態を含む画像である加熱前対象物画像を撮像可能に構成されている撮像装置から取得される前記加熱前対象物画像と、を含む学習データを取得する学習データ取得部と、
前記加熱前対象物画像を含む入力に対して、前記調理メニューに対応する出力値を含む出力を得るように学習器の機械学習を行う学習処理部と、を備えている、学習装置。
The heating target is associated with a cooking menu in which a user heats an object to be heated in a heating unit and cooks the object, and preparations are made before heating the object to be heated in the heating unit. A learning data acquisition unit that acquires training data including the preheating object image acquired from an image pickup device configured to be capable of capturing an image of the unheated object, which is an image including the state of an object, and a learning data acquisition unit.
A learning device including a learning processing unit that performs machine learning of a learning device so as to obtain an output including an output value corresponding to the cooking menu for an input including the image of the object before heating.
前記学習データは、前記調理メニューに対応付けられており、前記加熱前対象物画像に基づいて解析される情報であるとともに前記加熱対象物が含んでいる食材に関する情報である食材情報をさらに含んでおり、
前記学習器の前記機械学習における前記入力が、前記食材情報も含む、請求項11に記載の学習装置。
The learning data is associated with the cooking menu, and further includes food material information which is information analyzed based on the image of the object to be heated and information about the food material contained in the object to be heated. Ori,
The learning device according to claim 11, wherein the input in the machine learning of the learning device also includes the food material information.
前記撮像装置は、前記加熱部により加熱されている前記加熱対象物の状態を含む画像である加熱中対象物画像も撮像可能に構成されており、
前記学習データは、前記調理メニューに対応付けられた前記加熱中対象物画像をさらに含んでおり、
前記学習器の前記機械学習における前記入力が、前記加熱中対象物画像も含む、請求項11または12に記載の学習装置。
The image pickup apparatus is configured to be capable of capturing an image of an object being heated, which is an image including a state of the object to be heated that is being heated by the heating unit.
The learning data further includes the image of the object being heated associated with the cooking menu.
The learning device according to claim 11 or 12, wherein the input in the machine learning of the learning device also includes the image of the object being heated.
前記撮像装置は、前記加熱部により前記加熱対象物を加熱している前記ユーザの状態を含む画像である加熱中ユーザ画像も撮像可能に構成されており、
前記学習データは、前記調理メニューに対応付けられた前記加熱中ユーザ画像をさらに含んでおり、
前記学習器の前記機械学習における前記入力が、前記加熱中ユーザ画像も含む、請求項11から13のいずれか一項に記載の学習装置。
The image pickup device is configured to be able to capture a heating user image which is an image including the state of the user who is heating the heating object by the heating unit.
The learning data further includes the heating user image associated with the cooking menu.
The learning device according to any one of claims 11 to 13, wherein the input in the machine learning of the learning device also includes the heating user image.
前記学習データは、前記調理メニューに対応付けられており、前記加熱中ユーザ画像に基づいて解析される情報であるとともに前記ユーザに関する情報であるユーザ情報をさらに含んでおり、
前記学習器の前記機械学習における前記入力が、前記ユーザ情報も含む、請求項14に記載の学習装置。
The learning data is associated with the cooking menu, and further includes user information that is information about the user as well as information that is analyzed based on the heating user image.
The learning device according to claim 14, wherein the input in the machine learning of the learning device also includes the user information.
コンピュータが、
ユーザが加熱対象物を加熱部で加熱して調理する調理メニューと、前記調理メニューに対応付けられており、前記加熱対象物を前記加熱部で加熱する前の準備が施されている前記加熱対象物の状態を含む画像である加熱前対象物画像を撮像可能に構成されている撮像装置から取得される前記加熱前対象物画像と、を含む学習データを取得する学習データ取得ステップと、
前記加熱前対象物画像を含む入力に対して、前記調理メニューに対応する出力値を含む出力を得るように学習器の機械学習を行う学習処理ステップと、実行する、学習方法。
The computer
The heating target is associated with a cooking menu in which a user heats an object to be heated in a heating unit and cooks the object, and preparations are made before heating the object to be heated in the heating unit. A training data acquisition step for acquiring training data including the preheating object image acquired from an image pickup device configured to be capable of capturing an unheated object image which is an image including the state of an object, and a training data acquisition step.
A learning process step of performing machine learning of a learning device so as to obtain an output including an output value corresponding to the cooking menu for an input including the image of the object before heating, and a learning method to be executed.
前記学習データは、前記調理メニューに対応付けられており、前記加熱前対象物画像に基づいて解析される情報であるとともに前記加熱対象物が含んでいる食材に関する情報である食材情報をさらに含んでおり、
前記学習器の前記機械学習における前記入力が、前記食材情報も含む、請求項16に記載の学習方法。
The learning data is associated with the cooking menu, and further includes food material information which is information analyzed based on the image of the object to be heated and information about the food material contained in the object to be heated. Ori,
The learning method according to claim 16, wherein the input in the machine learning of the learning device also includes the food material information.
前記撮像装置は、前記加熱部により加熱されている前記加熱対象物の状態を含む画像である加熱中対象物画像も撮像可能に構成されており、
前記学習データは、前記調理メニューに対応付けられた前記加熱中対象物画像をさらに含んでおり、
前記学習器の前記機械学習における前記入力が、前記加熱中対象物画像も含む、請求項16または17に記載の学習方法。
The image pickup apparatus is configured to be capable of capturing an image of an object being heated, which is an image including a state of the object to be heated that is being heated by the heating unit.
The learning data further includes the image of the object being heated associated with the cooking menu.
The learning method according to claim 16 or 17, wherein the input in the machine learning of the learning device also includes the image of the object being heated.
前記撮像装置は、前記加熱部により前記加熱対象物を加熱している前記ユーザの状態を含む画像である加熱中ユーザ画像も撮像可能に構成されており、
前記学習データは、前記調理メニューに対応付けられた前記加熱中ユーザ画像をさらに含んでおり、
前記学習器の前記機械学習における前記入力が、前記加熱中ユーザ画像も含む、請求項16から18のいずれか一項に記載の学習方法。
The image pickup device is configured to be able to capture a heating user image which is an image including the state of the user who is heating the heating object by the heating unit.
The learning data further includes the heating user image associated with the cooking menu.
The learning method according to any one of claims 16 to 18, wherein the input in the machine learning of the learning device also includes the heating user image.
前記学習データは、前記調理メニューに対応付けられており、前記加熱中ユーザ画像に基づいて解析される情報であるとともに前記ユーザに関する情報であるユーザ情報をさらに含んでおり、
前記学習器の前記機械学習における前記入力が、前記ユーザ情報も含む、請求項19に記載の学習方法。
The learning data is associated with the cooking menu, and further includes user information that is information about the user as well as information that is analyzed based on the heating user image.
19. The learning method according to claim 19, wherein the input in the machine learning of the learning device also includes the user information.
JP2020088290A 2020-05-20 Cooking system and cooking method, learning device and learning method Active JP7482683B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020088290A JP7482683B2 (en) 2020-05-20 Cooking system and cooking method, learning device and learning method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020088290A JP7482683B2 (en) 2020-05-20 Cooking system and cooking method, learning device and learning method

Publications (2)

Publication Number Publication Date
JP2021181871A true JP2021181871A (en) 2021-11-25
JP7482683B2 JP7482683B2 (en) 2024-05-14

Family

ID=

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3036671U (en) * 1996-10-09 1997-05-02 株式会社ジャムコ Cooker
WO2005088542A1 (en) * 2004-03-17 2005-09-22 Matsushita Electric Industrial Co., Ltd. System for recognizing cooking operation of foodstuff and program for recognizing cooking operation of foodstuff
JP2011033312A (en) * 2009-08-05 2011-02-17 Mitsubishi Electric Corp Heating cooker
JP2014202414A (en) * 2013-04-04 2014-10-27 東芝ホームテクノ株式会社 Heating cooker
JP2015068542A (en) * 2013-09-27 2015-04-13 三菱電機株式会社 Heating cooker
US20190110638A1 (en) * 2017-10-16 2019-04-18 Midea Group Co., Ltd Machine learning control of cooking appliances
US20190200797A1 (en) * 2017-12-30 2019-07-04 Midea Group Co., Ltd Food preparation method and system based on ingredient recognition

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3036671U (en) * 1996-10-09 1997-05-02 株式会社ジャムコ Cooker
WO2005088542A1 (en) * 2004-03-17 2005-09-22 Matsushita Electric Industrial Co., Ltd. System for recognizing cooking operation of foodstuff and program for recognizing cooking operation of foodstuff
JP2011033312A (en) * 2009-08-05 2011-02-17 Mitsubishi Electric Corp Heating cooker
JP2014202414A (en) * 2013-04-04 2014-10-27 東芝ホームテクノ株式会社 Heating cooker
JP2015068542A (en) * 2013-09-27 2015-04-13 三菱電機株式会社 Heating cooker
US20190110638A1 (en) * 2017-10-16 2019-04-18 Midea Group Co., Ltd Machine learning control of cooking appliances
US20190200797A1 (en) * 2017-12-30 2019-07-04 Midea Group Co., Ltd Food preparation method and system based on ingredient recognition

Similar Documents

Publication Publication Date Title
JP6844821B2 (en) Automatic cooking control with advanced cooking utensils
JP6704125B2 (en) Cooker
US20210228022A1 (en) System and Method for Collecting and Annotating Cooking Images for Training Smart Cooking Appliances
KR102286200B1 (en) Robotic manipulation methods and systems for executing a domain-specific application in an instrumented environment with electronic minimanipulation libraries
EP3107429B1 (en) Methods and systems for food preparation in a robotic cooking kitchen
CN104595949A (en) Intelligent household cooking system realizing food sharing
JP6503161B2 (en) Thermal power control device, thermal power control method and computer program
US11339971B2 (en) Oven with automatic control of pan elevation
CN106372796A (en) Intelligent family nutrition management system and management method thereof
JP6865536B2 (en) Cooking system
JP6296685B2 (en) Cooking system and application program for cooking system
JP6669482B2 (en) Cooker
CN102144745B (en) Cooking method completed in cooking device and cooking auxiliary device
JP2021063608A (en) Heat cooking system
CN107132787B (en) Cooking control method of kitchen housekeeper robot and kitchen housekeeper robot
JP2021181871A (en) Heating cooking system and heating cooking method, and learning device and learning method
CN109964083A (en) The control method of heating device and heating device
JP7482683B2 (en) Cooking system and cooking method, learning device and learning method
JP6745928B2 (en) Thermal power control system and thermal power control method
WO2019209371A1 (en) Cooking system for tracking a cooking device
JP2021196088A (en) Heating cooking system, heating cooking method, learning device, and learning method
JP7482690B2 (en) Cooking system, cooking method, learning device and learning method
JP2021188883A (en) Cooking system, cooking method, learning device and learning method
JP2021188867A (en) Kitchen facility, operation method of kitchen facility, learning device for kitchen facility, and learning method for kitchen facility
JP3245165U (en) chef robot equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240214

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240430