JP2022063885A - データ処理装置、データ処理方法 - Google Patents

データ処理装置、データ処理方法 Download PDF

Info

Publication number
JP2022063885A
JP2022063885A JP2019038071A JP2019038071A JP2022063885A JP 2022063885 A JP2022063885 A JP 2022063885A JP 2019038071 A JP2019038071 A JP 2019038071A JP 2019038071 A JP2019038071 A JP 2019038071A JP 2022063885 A JP2022063885 A JP 2022063885A
Authority
JP
Japan
Prior art keywords
cooking
data
information
cook
chef
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019038071A
Other languages
English (en)
Inventor
雅博 藤田
Masahiro Fujita
かおる 吉田
Kaoru Yoshida
ミカエル シェグフリード シュプランガー
Siegfried Spranger Michael
辰志 梨子田
Tatsushi Nashida
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Priority to JP2019038071A priority Critical patent/JP2022063885A/ja
Priority to PCT/JP2020/005729 priority patent/WO2020179408A1/ja
Priority to US17/433,814 priority patent/US20220142397A1/en
Publication of JP2022063885A publication Critical patent/JP2022063885A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47JKITCHEN EQUIPMENT; COFFEE MILLS; SPICE MILLS; APPARATUS FOR MAKING BEVERAGES
    • A47J36/00Parts, details or accessories of cooking-vessels
    • A47J36/32Time-controlled igniting mechanisms or alarm devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • A61B5/02055Simultaneously evaluating both cardiovascular condition and temperature
    • AHUMAN NECESSITIES
    • A23FOODS OR FOODSTUFFS; TREATMENT THEREOF, NOT COVERED BY OTHER CLASSES
    • A23LFOODS, FOODSTUFFS, OR NON-ALCOHOLIC BEVERAGES, NOT COVERED BY SUBCLASSES A21D OR A23B-A23J; THEIR PREPARATION OR TREATMENT, e.g. COOKING, MODIFICATION OF NUTRITIVE QUALITIES, PHYSICAL TREATMENT; PRESERVATION OF FOODS OR FOODSTUFFS, IN GENERAL
    • A23L5/00Preparation or treatment of foods or foodstuffs, in general; Food or foodstuffs obtained thereby; Materials therefor
    • A23L5/10General methods of cooking foods, e.g. by roasting or frying
    • AHUMAN NECESSITIES
    • A23FOODS OR FOODSTUFFS; TREATMENT THEREOF, NOT COVERED BY OTHER CLASSES
    • A23PSHAPING OR WORKING OF FOODSTUFFS, NOT FULLY COVERED BY A SINGLE OTHER SUBCLASS
    • A23P30/00Shaping or working of foodstuffs characterised by the process or apparatus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0015Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
    • A61B5/0022Monitoring a patient using a global network, e.g. telephone networks, internet
    • AHUMAN NECESSITIES
    • A23FOODS OR FOODSTUFFS; TREATMENT THEREOF, NOT COVERED BY OTHER CLASSES
    • A23VINDEXING SCHEME RELATING TO FOODS, FOODSTUFFS OR NON-ALCOHOLIC BEVERAGES AND LACTIC OR PROPIONIC ACID BACTERIA USED IN FOODSTUFFS OR FOOD PREPARATION
    • A23V2002/00Food compositions, function of food ingredients or processes for food or foodstuffs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/20Workers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • A61B5/377Electroencephalography [EEG] using evoked responses
    • A61B5/381Olfactory or gustatory stimuli
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/389Electromyography [EMG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/42Detecting, measuring or recording for evaluating the gastrointestinal, the endocrine or the exocrine systems
    • A61B5/4261Evaluating exocrine secretion production
    • A61B5/4266Evaluating exocrine secretion production sweat secretion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4803Speech analysis specially adapted for diagnostic purposes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0045Manipulators used in the food industry

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Cardiology (AREA)
  • Food Science & Technology (AREA)
  • Physiology (AREA)
  • Chemical & Material Sciences (AREA)
  • Polymers & Plastics (AREA)
  • Psychology (AREA)
  • Nutrition Science (AREA)
  • Psychiatry (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Pulmonology (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Manipulator (AREA)
  • General Preparation And Processing Of Foods (AREA)

Abstract

Figure 2022063885000001
【課題】調理ロボットが作る料理を、食べる人の好みに応じてカスタマイズすることができるようにする。
【解決手段】本技術の一側面のデータ処理装置は、料理の食材に関する情報および食材を用いた調理工程における調理人の動作に関する情報が記述された調理動作データと、調理工程の進捗に連動して計測された調理人の生体反応を示す調理人生体データとをリンクさせた、調理ロボットが調理動作を行う際に用いるデータセットを含むレシピデータを生成する。本技術は、調理ロボットにおける調理を制御するコンピュータに適用することができる。
【選択図】図12

Description

本技術は、データ処理装置、データ処理方法に関し、特に、調理ロボットが作る料理を、食べる人の好みに応じてカスタマイズすることができるようにしたデータ処理装置、データ処理方法に関する。
調理中の調理人の動きをセンシングし、センシング結果のデータを保存・送信することによって、調理人が作った料理を調理ロボット側において再現する技術が検討されている。調理ロボットによる調理動作は、例えば、調理人の手の動きと同じ動きをセンシング結果に基づいて実現するようにして行われる。
特表2017-506169号公報 特表2017-536247号公報
従来の調理ロボットによる調理は、制御データとして予め用意されたレシピ通りに進められる。そのため、出来上がった料理が、食べる人の好みにあったものとならないことがある。
本技術はこのような状況に鑑みてなされたものであり、調理ロボットが作る料理を、食べる人の好みに応じてカスタマイズすることができるようにするものである。
本技術の一側面のデータ処理装置は、料理の食材に関する情報および前記食材を用いた調理工程における調理人の動作に関する情報が記述された調理動作データと、前記調理工程の進捗に連動して計測された前記調理人の生体反応を示す調理人生体データとをリンクさせた、調理ロボットが調理動作を行う際に用いるデータセットを含むレシピデータを生成する生成部を備える。
本技術の一側面においては、料理の食材に関する情報および前記食材を用いた調理工程における調理人の動作に関する情報が記述された調理動作データと、前記調理工程の進捗に連動して計測された前記調理人の生体反応を示す調理人生体データとをリンクさせた、調理ロボットが調理動作を行う際に用いるデータセットを含むレシピデータが生成される。
本技術の一実施形態に係る調理システムにおける全体の処理の例を示す図である。 シェフ側と再現側のそれぞれにおいて用いられる食材の違いについて説明する図である。 レシピデータの記述内容の例を示す図である。 調理工程データセットに含まれる情報の例を示す図である。 計測対象となる生体反応の例を示す図である。 風味の構成要素の例を示す図である。 調理工程の例を示す図である。 情報の生成例を示す図である。 情報の他の生成例を示す図である。 風味の判定に用いられる判定モデルの例を示す図である。 レシピデータの例を示す図である。 レシピデータの生成の流れの例を示す図である。 レシピデータに基づく料理の再現の流れの例を示す図である。 再現時の調理工程の例を示す図である。 レシピデータのカスタマイズの流れの例を示す図である。 食事人の風味の感じ方の解析の例を示す図である。 シェフ側の流れと再現側の流れをまとめて示す図である。 レシピデータの他の記述内容の例を示す図である。 計測対象となる生体反応の例を示す図である。 レシピデータのカスタマイズの流れの例を示す図である。 カスタマイズの例を示す図である。 調理システムの適用例を示す図である。 レシピデータの他の記述内容の例を示す図である。 本技術の一実施形態に係る調理システムの構成例を示す図である。 調理システムの他の構成例を示す図である。 制御装置の配置例を示す図である。 シェフ側の構成例を示すブロック図である。 データ処理装置のハードウェアの構成例を示すブロック図である。 データ処理装置の機能構成例を示すブロック図である。 調理ロボットの外観を示す斜視図である。 調理アームの様子を拡大して示す図である。 調理アームの外観を示す図である。 調理アームの各部の可動域の例を示す図である。 調理アームとコントローラの接続の例を示す図である。 調理ロボットと周辺の構成の例を示すブロック図である。 制御装置の機能構成例を示すブロック図である。 データ処理装置のレシピデータ生成処理について説明するフローチャートである。 データ処理装置のレシピデータカスタマイズ処理について説明するフローチャートである。 制御装置の料理再現処理について説明するフローチャートである。 調理工程データセットに含まれる情報の例を示す図である。 味覚主観情報の算出例を示す図である。 レシピデータの生成の流れの例を示す図である。 レシピデータに基づく料理の再現の流れの例を示す図である。 レシピデータの記述内容の例を示す図である。 調理システムの他の構成例を示す図である。
<本技術の概要>
本技術は、調理人が料理を作るときの生体反応をセンシングし、センシングされた生体データをレシピデータに含めて、料理を再現する調理ロボット側に提供するようにしたものである。
また、本技術は、調理人が作った料理の再現時、レシピデータに含まれる生体データを調理ロボット側において活用し、調理工程を更新することにより、食べる人の好みに応じて風味を微調整した料理を再現することができるようにするものである。
さらに、本技術は、調理人が料理を作るときの感覚と、調理人が作成したレシピに基づいて調理を行うときの感覚との違い(差分)に着目し、食材と調理工程とを記述したデータに対して、料理を作るときの調理人の感覚をデータ化した感覚データをリンクさせてレシピデータとして管理するようにしたものである。
以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
1.調理システムにおけるレシピデータの生成と料理の再現
2.レシピデータの記述について
3.レシピデータの生成例
4.レシピデータの生成と料理の再現の流れの例
5.レシピデータの記述の変形例
6.調理システムの構成例
7.調理システムの動作
8.風味情報を含むレシピデータ
9.変形例
<調理システムにおけるレシピデータの生成と料理の再現>
図1は、本技術の一実施形態に係る調理システムにおける全体の処理の例を示す図である。
図1に示すように、調理システムは、調理を行うシェフ側の構成と、シェフが作った料理を再現する再現側の構成とから構成される。
シェフ側の構成は、例えば、あるレストランに設けられる構成となり、再現側の構成は、例えば、一般の家庭に設けられる構成となる。再現側の構成として、調理ロボット1が用意される。
図1の調理システムは、シェフが作った料理と同じ料理を、再現側の構成としての調理ロボット1において再現するシステムである。調理ロボット1は、調理アームなどの駆動系の装置、および、各種のセンサを有し、調理を行う機能を搭載したロボットである。
シェフ側の構成から、調理ロボット1を含む再現側の構成に対しては、矢印で示すようにレシピデータが提供される。後に詳述するように、レシピデータには、料理の食材を含む、シェフが作った料理に関する情報が記述されている。
再現側の構成においては、調理ロボット1の調理動作をレシピデータに基づいて制御することによって、料理が再現されることになる。例えば、シェフの調理工程と同じ工程を実現するための調理動作を調理ロボット1に行わせることによって料理が再現される。
調理を行う調理人としてシェフが示されているが、板前、コックなどの呼び方、厨房における役割に関わらず、調理を行う人であれば、どのような人が調理を行う場合にも、図1の調理システムは適用可能である。
また、図1においては、1人のシェフ側の構成のみが示されているが、調理システムには、複数のレストランなどにそれぞれ設けられる複数のシェフ側の構成が含まれる。再現側の構成に対しては、例えば調理ロボット1により再現された料理を食べる人が選択した所定のシェフが作る、所定の料理のレシピデータが提供される。
なお、料理は、調理を経て出来上がる成果物のことを意味する。調理は、料理を作る過程や、料理を作る行為(作業)のことを意味する。
図2は、シェフ側と再現側のそれぞれにおいて用いられる食材の違いについて説明する図である。
シェフの調理に例えばにんじんが使われた場合、レシピデータには、食材としてにんじんを使うことを表す情報が記述される。また、にんじんを使った調理工程に関する情報が記述される。
再現側においても同様に、レシピデータに基づいて、にんじんを使った調理動作が行われる。
ここで、同じ「にんじん」として分類される食材であっても、シェフ側で用意されるにんじんと、再現側で用意されるにんじんとでは、種別の違い、産地の違い、収穫時期の違い、成育状況の違い、収穫後の環境の違いなどによって、味、香り、質感が異なる。自然物である食材には、完全に同じものは存在しない。
したがって、シェフの動作と完全に同じ調理動作を調理ロボット1に行わせたとしても、にんじんを使って出来上がった料理の風味は異なるものとなる。
1つの料理が完成するまでには複数の調理工程を経ることになるが、にんじんを使った1つの調理工程を経ることによって出来上がった途中の料理を見ても、その風味は、シェフ側と再現側とでは異なるものとなる。
シェフがおいしいと感じる料理であっても、調理ロボット1によって再現された料理を食べる人によっては、同じ感じ方をするとは限らない。
そこで、図1の調理システムにおいては、調理を行っているシェフの生体反応が計測される。再現側に提供されるレシピデータには、シェフの生体反応をデータ化した生体情報が、食材や動作の情報とリンクして記述される。
再現側においては、全ての調理工程が終わるまでの間に、調理ロボット1によって再現された料理を食べる人などの、調理ロボット1の周りにいる人に対して味見を行うことが要求される。例えば、シェフがおいしいと感じた生体反応が計測された味見のタイミングが、レシピデータに含まれる生体情報に基づいて特定され、それに対応するタイミングで、味見を行うことが要求される。
また、味見を行っている人の生体反応が計測され、計測結果に応じて、適宜、調理ロボット1の調理工程が更新される。
人が食べ物を口に入れたときの生体反応は、その人の風味の感じ方を表しているといえる。シェフの風味の感じ方を表す生体情報に基づいて調理ロボット1による調理が制御され、調理ロボット1による調理中に味見をした人の風味の感じ方に応じて、レシピデータに記述されている調理工程が更新されることになる。
以下、適宜、シェフの生体反応を表す生体情報を調理人生体情報という。
また、調理ロボット1により調理された調理済みの食材や、調理済みの食材を用いて出来上がった(再現された)料理を食べる人を食事人という。調理ロボット1による要求に応じて味見を行った食事人の生体反応を表す生体情報は、食事人生体情報となる。
<レシピデータの記述について>
図3は、レシピデータの記述内容の例を示す図である。
図3に示すように、1つのレシピデータは、複数の調理工程データセットから構成される。図3の例においては、調理工程#1に関する調理工程データセット、調理工程#2に関する調理工程データセット、・・・、調理工程#Nに関する調理工程データセットが含まれる。
このように、レシピデータにおいては、1つの調理工程に関する情報が、1つの調理工程データセットとして記述される。
図4は、調理工程データセットに含まれる情報の例を示す図である。
図4の吹き出しに示すように、調理工程データセットは、調理工程を実現するための調理動作に関する情報である調理動作情報と、シェフの生体反応を表す調理人生体情報とから構成される。
1.調理動作情報
調理動作情報は、食材情報と動作情報から構成される。
1-1.食材情報
食材情報は、調理工程においてシェフが使った食材に関する情報である。食材に関する情報には、食材の種類、食材の量、食材の大きさなどを表す情報が含まれる。
例えば、ある調理工程においてにんじんを使った調理をシェフが行った場合、にんじんを使ったことを表す情報が食材情報に含まれる。水、調味料などの、料理の材料としてシェフが使った各種の食物を表す情報なども、食材情報に含まれる。食物は、人が食べることができる各種の物である。
なお、食材には、調理が全く施されていない食材だけでなく、ある調理が施されることによって得られた調理済み(下処理済み)の食材も含まれる。ある調理工程の調理動作情報に含まれる食材情報には、それより前の調理工程を経た調理済みの食材の情報が含まれる。
シェフが使った食材は、例えば、調理を行っているシェフをカメラで撮影した画像を解析することによって認識される。食材情報は、食材の認識結果に基づいて生成される。カメラにより撮影される画像は、動画像であってもよいし、静止画像であってもよい。
レシピデータの生成時に、シェフにより、または、シェフをサポートするスタッフなどの他の人により食材情報が登録されるようにしてもよい。
1-2.動作情報
動作情報は、調理工程におけるシェフの動きに関する情報である。シェフの動きに関する情報には、シェフが使った調理ツールの種類、手の動きを含む、各時刻のシェフの体の動き、各時刻のシェフの立ち位置などを表す情報が含まれる。
例えば、ある食材を、シェフが包丁を使って切った場合、調理ツールとして包丁を使ったことを表す情報、切る位置、切る回数、切り方の力加減、角度、スピードなどを表す情報が動作情報に含まれる。
また、食材としての液体が入った鍋を、シェフがおたまを使ってかき混ぜた場合、調理ツールとしておたまを使ったことを表す情報、かき混ぜ方の力加減、角度、スピード、時間などを表す情報が動作情報に含まれる。
ある食材を、シェフがオーブンを使って焼いた場合、調理ツールとしてオーブンを使ったことを表す情報、オーブンの火力、焼き時間などを表す情報が動作情報に含まれる。
シェフが盛り付けを行った場合、盛り付けに使った食器、食材の配置の仕方、食材の色味などを表す盛り付け方の情報が動作情報に含まれる。
シェフの動きは、例えば、調理を行っているシェフをカメラで撮影した画像を解析することによって、または、シェフが身に付けているセンサにより計測されたセンサデータを解析することによって認識される。動作情報は、シェフの動きの認識結果に基づいて生成される。
2.調理人生体情報
図5は、計測対象となる生体反応の例を示す図である。
図5に示すように、例えば、シェフの生体反応として、脳波、瞳孔、発汗、四肢の筋電、顔全体の温度、顔の表情、体全体のモーション、心拍数、声音が計測される。
(1)脳波(Electroencephalogram:EEG)
シェフの脳波が、脳波計を用いて計測される。シェフが味見を行ったときの脳波には、味覚受容体や嗅覚受容体からの信号が含まれる。脳波を解析することによって、シェフの味の感じ方、香りの感じ方などを特定することが可能である。
(2)瞳孔
シェフの瞳孔の変化が、カメラにより撮影された画像を解析することによって計測される。喜んだり驚いたりすると瞳孔が開くといったように、瞳孔の開閉度から感情を特定することが可能である。例えば、味見を行ったシェフの瞳孔の開閉度が閾値より高い場合、おいしいと感じていると推定できる。
(3)発汗
シェフの発汗量の変化が、カメラにより撮影された画像を解析することによって、または、肌の水分量を計測する肌センサによる計測結果を解析することによって計測される。例えば、温かいものや辛いものを食べることで血流が上昇し、発汗量が多くなる場合がある。
(4)四肢の筋電
シェフの筋電の変化が、筋電計を用いて計測される。嬉しいことがあると手足に瞬間的に力が入って筋電の変化として観測できるといったように、筋電の変化から感情を特定することが可能である。例えば、味見を行ったときに筋電が大きく変化した場合、おいしいと感じていると推定できる。
(5)顔全体の温度
シェフの顔全体の温度が、赤外線センサを用いて計測される。例えば、温かいものや辛いものを食べることで血流が上昇し、顔全体の温度が高くなる場合がある。
(6)顔の表情
シェフの表情が、カメラにより撮影された画像を解析することによって計測される。例えば、味見を行ったときのシェフの表情が喜んでいる表情である場合、おいしいと感じていると推定でき、反対に、悲しんでいる表情である場合、おいしくないと感じていると推定できる。
(7)体全体のモーション
シェフの体全体のモーション(動き)が、カメラにより撮影された画像や、シェフの体に取り付けられたモーションセンサの計測結果を表すセンサデータを解析することによって計測される。美味しいものを食べた時にじっと固まってしまう人はあまりいないことから、体全体のモーションは、風味の感じ方を表しているといえる。
(8)心拍数
シェフの心拍数が、ウェアラブル活動量計を用いて計測される。例えば、味見を行ったときに心拍数が上がった場合、おいしいと感じていると推定できる。
(9)声音
シェフの声音が、マイクロフォンにより集音された音声を解析することによって計測される。例えば、味見を行ったときに発したシェフの声の周波数が、味見を行う前に発した声の周波数より高い場合、おいしいと感じていると推定できる。
シェフの発話の意味を解析し、意味解析の結果に基づいて、おいしいと感じているか否かが推定されるようにしてもよい。例えば、「おいしい」、「うまい」、「OK」、「うん」などの、風味を肯定する発話が行われた場合、おいしいと感じていると推定できる。
シェフの以上のような生体反応の計測結果に基づいて調理人生体情報が生成され、レシピデータに含められる。調理人生体情報には、シェフの風味の感じ方を表すデータとして、シェフの脳波の状態を表すデータ、瞳孔の状態を表すデータ、発汗の状態を表すデータ、四肢の筋電の状態を表すデータ、顔全体の温度の状態を表すデータ、顔の表情の状態を表すデータ、体全体のモーションの状態を表すデータ、心拍数の状態を表すデータ、声音の状態を表すデータが含まれることになる。
脳波、瞳孔、発汗、四肢の筋電、顔全体の温度、顔の表情、体全体のモーション、心拍数、声音の全てが計測されるのではなく、それらの生体反応のうちの少なくともいずれかの生体反応を表す情報が調理人生体情報として生成されるようにしてもよい。
ここで、風味について説明する。
図6は、風味の構成要素の例を示す図である。
人が脳で感じるおいしさ、すなわち「風味」は、図6に示すように、主に、人の味覚によって得られる味、人の嗅覚によって得られる香り、人の触覚によって得られる質感を組み合わせて構成される。
体感温度や食材の色彩によってもおいしさの感じ方が変わってくるから、風味には、体感温度と色彩も含まれる。
風味(flavor)の各構成要素について説明する。
(1)味(taste)
味には、舌・口腔内の味覚受容体細胞で感じうる五種の味(塩味、酸味、苦味、甘味、旨味)が含まれる。塩味、酸味、苦味、甘味、旨味は、基本五味と呼ばれる。
また、味には、基本五味に加えて、口腔内だけでなく全身の痛覚であるTRP(Transient Receptor Potential)チャネルファミリーに属するバニロイド受容体などで感じる辛味が含まれる。濃度に応じて苦味と重なる味となるが、渋味も味の一種である。
それぞれの味について説明する。
・塩味
塩味を感じさせる物質には、イオン化結合で塩を生成するミネラル類(Na, K, Fe, Mg, Ca, Cu, Mn, Al, Zn等)がある。
・酸味
酸味を感じさせる物質には、クエン酸、酢酸などの酸がある。一般には、pHの低下依存(例えば、pH3程度)で酸味が感じられる。
・甘味
甘味を感じさせる物質には、ショ糖やブドウ糖などの糖類、脂質類、グリシンなどのアミノ酸、人工甘味料がある。
・旨味
旨味を感じさせる物質には、グルタミン酸やアスパラギン酸などのアミノ酸、イノシン酸、グアニル酸、キサンチル酸などの核酸派生物、コハク酸などの有機酸、および塩類がある。
・苦味
苦みを感じさせる物質には、カフェインなどのアルカロイド類、テオブロミン、ニコチン、カテキン、テルペノイドなどのフムロン類、リモニン、ククルビタシン、フラバノン配糖体のナリンジン、苦味アミノ酸、苦味ペプチド、胆汁酸、無機塩類のカルシウム塩、マグネシウム塩がある。
・渋味
渋味を感じさせる物質には、ポリフェノール類、タンニン、カテキン、多価イオン(Al, Zn, Cr)、エタノール、アセトンがある。渋味は、苦味の一部として認識、あるいは計測される。
・辛味
辛味を感じさせる物質には、カプサイシノイドがある。生体機能として、熱く感じる唐辛子や各種スパイスの成分であるカプサイシン、冷感を感じるペパーミントの成分であるメントールは、味覚ではなく、痛覚として、TRPチャネルファミリーの温感受容体により認識される。
(2)香り(aroma)
香りは、鼻腔および上咽頭内に発現する嗅覚受容体により認識(結合)される分子量300以下の、揮発性のある低分子有機化合物により知覚される。
(3)質感(texture)
質感は、いわゆる食感と呼ばれる指標であり、硬さ、ベタベタ感、粘性、凝集性、ポリマー含有量、水分含有量(moisture)、油分含有量(greasiness)などで表される。
(4)体感温度(apparent temperature)
体感温度は、人肌が感じる温度である。体感温度には、食物自体の温度だけでなく、ミントのように揮発性物質を含む食物によって清涼感を感じたり、唐辛子のように辛味成分を含む食物によって温感を感じたりするなど、肌の表層部が食物の成分に反応して感じられる温度感覚も含まれる。
(5)色彩(color)
食物の色彩は、食物に含まれる色素や、苦味・渋味の成分を反映する。例えば、植物由来の食物には、光合成によってできる色素や、ポリフェノール類の苦味・渋味に関わる成分が含まれる。光学的計測法により、食物の色彩から、食物に含まれる成分を推定することが可能となる。
<レシピデータの生成例>
図7は、調理工程の例を示す図である。
通常、シェフによる調理は、食材を用いた調理を行い、調理済みの食材の味見をして、風味を調整することを、調理工程毎に繰り返すことによって行われる。
風味の調整は、例えば、味については、塩味が足りない場合には塩を足す、酸味が足りない場合にはレモン汁を搾るなどの工程を加えるようにして行われる。香りについては、例えば、ハーブを刻んで足す、食材に火を通すなどの工程を加えるようにして行われる。質感については、例えば、食材が硬い場合には叩いて柔らかくする、煮込む時間を増やすなどの工程を加えるようにして行われる。
図7の調理工程#1においては、時刻t1から時刻t2の間で、食材を用いた調理が1回目の調理として行われ、時刻t2から時刻t3の間で、調理済みの食材の味見が1回目の味見として行われている。また、時刻t3から時刻t4の間で、調味料などの食材を用いた風味の調整が2回目の調理として行われ、時刻t4から時刻t5の間で、風味の調整後の食材の味見が2回目の味見として行われている。
時刻t3から時刻t4の間に2回目の調理として行われる風味の調整は、その前の1回目の味見の結果に基づいて行われる工程である。時刻t4から時刻t5の間に行われる2回目の味見は、その前の風味の調整の結果を確認するために行われる工程である。
図6の例においては、1つの調理工程に4つのシェフの工程が含まれるものとされているが、1つの調理工程に含まれるシェフの工程の数は任意である。1つのシェフの工程によって1つの調理工程が形成されるようにすることも可能である。
また、図6の例においては、1つの調理工程に2回の味見の工程が含まれているが、1つの調理工程に含まれる味見の工程が1回であってもよいし、味見の工程が含まれないようにしてもよい。シェフが味見を行っていることは、例えば、カメラにより撮影された画像を解析することによって認識される。シェフの生体反応に基づいて、シェフが味見を行っていることが認識されるようにしてもよい。
図8は、情報の生成例を示す図である。
図8に示すように、1回目の調理が行われている時刻t1から時刻t2の間、シェフの動作が計測され、シェフが使っている食材やシェフの動きが認識される。時刻t1から時刻t2の間の認識結果に基づいて、矢印A1の先に示すように調理動作情報#1-1が生成される。
また、時刻t2において、シェフが味見を始めたことが認識された場合、シェフの生体反応の計測が開始される。生体反応の計測は、例えば、シェフが味見を終えたことが認識された時刻t3まで続けられる。時刻t2から時刻t3の間の計測結果に基づいて、矢印A2の先に示すように調理人生体情報#1-1が生成される。
同様に、2回目の調理が行われている時刻t3から時刻t4の間、シェフの動作が計測され、シェフが使っている食材やシェフの動きが認識される。時刻t3から時刻t4の間の認識結果に基づいて、矢印A3の先に示すように調理動作情報#1-2が生成される。
時刻t4において、シェフが味見を始めたことが認識された場合、シェフの生体反応の計測が開始される。生体反応の計測は、例えば、シェフが味見を終えたことが認識された時刻t5まで続けられる。時刻t4から時刻t5の間の計測結果に基づいて、矢印A4の先に示すように調理人生体情報#1-2が生成される。
例えば、調理動作情報#1-1と調理動作情報#1-2とをまとめることによって、調理工程#1の調理工程データセットを構成する調理動作情報が生成される。
また、調理人生体情報#1-1と調理人生体情報#1-2とをまとめることによって、調理工程#1の調理工程データセットを構成する調理人生体情報が生成される。調理人生体情報には、どのタイミングで行われた味見におけるシェフの生体反応に基づいて生成されたものであるのかを表す情報も含まれる。調理人生体情報は、味見の工程にリンクされている。
図9は、情報の他の生成例を示す図である。
図9の例においては、計測された全ての生体反応を表す調理人生体情報がレシピデータに含まれるのではなく、例えば、味見の結果がOKである場合、すなわち、シェフがおいしいと判断した場合の生体反応を表す調理人生体情報だけがレシピデータに含まれる。
食べた食材がおいしいとシェフが判断しているか否かは、キッチンに設けられたボタンを押すなどしてシェフにより直接入力される。
また、食べた食材がおいしいとシェフが判断しているか否かが、シェフの生体反応に基づいて判定されるようにしてもよい。
図10は、風味の判定に用いられる判定モデルの例を示す図である。
図10に示すように、食べた食材がおいしいとシェフが判断しているか否かは、深層学習などにより生成されたニューラルネットワークのモデルである風味判定モデルを用いて判断される。風味判定モデルは、例えば、ある食材をシェフが食べたときの生体反応の計測結果と、その食材がおいしいか、おいしくないかの風味の感じ方を表す情報を用いた学習を行うことによって予め生成される。
例えば、ある食材を味見したときの生体反応の計測結果を入力した場合、風味判定モデルからは、風味の判定結果が出力される。風味の判定結果は、味見をした食材がおいしいか(OK)、おいしくない(NG)かを表す。
図9の例においては、矢印A11の先に示すように、時刻t2から時刻t3の間に行われた1回目の味見の結果がおいしくないと判断されている。一方、矢印A12の先に示すように、時刻t4から時刻t5の間に行われた2回目の味見の結果がおいしいと判断されている。
この場合、時刻t4から時刻t5の間の計測結果に基づいて生成された調理人生体情報#1-2が、図8を参照して説明したようにして生成された調理動作情報とともに、調理工程#1の調理工程データセットに含まれる。
このように、シェフがおいしいと判断していると考えられる、所定の条件を満たす生体反応を表す調理人生体情報だけがレシピデータに含まれるようにしてもよい。
図8を参照して説明したように全ての調理人生体情報がレシピデータに含まれる場合、食べた食材がおいしいとシェフが判断しているときの生体反応を表す調理人生体情報#1-2に対して、風味OKフラグが設定されるようにしてもよい。風味OKフラグは、食べた食材がおいしいとシェフが判断していることを表すフラグである。
風味OKフラグを参照することにより、再現側においては、シェフがおいしいと判断した味見のタイミングを特定することが可能となる。
なお、図8、図9の例においては、生体反応の計測が、シェフが味見をしている間だけ行われるものとしたが、シェフが調理を行っている間、常時行われるようにしてもよい。この場合、レシピデータには、シェフが調理を始めてから調理を終えるまでの、生体反応の時系列データが調理人生体情報として含まれることになる。
以上のように、レシピデータは、調理工程を実現するための調理動作に関する情報である調理動作情報と、調理工程の進捗に連動して計測された、シェフの生体反応を表す情報である調理人生体情報とをリンクさせる(紐付ける)ことによって構成される。
以上のような各情報を含むレシピデータが、図11に示すように料理毎に用意される。どのレシピデータに基づいて料理を再現するのかは、例えば、調理ロボット1が設置された場所にいる食事人により選択される。
<レシピデータの生成と料理の再現の流れの例>
図12は、レシピデータの生成の流れの例を示す図である。
上述したように、調理工程データセットを構成する調理動作情報は、調理を行うシェフの動作をセンシング(計測)し、センシング結果に基づいて生成される。
また、調理人生体情報は、味見をしているシェフの生体反応をセンシングし、センシング結果に基づいて生成される。
図12の例においては、矢印A21に示すように、調理工程#1としてシェフが行う調理動作のセンシング結果に基づいて、調理工程#1の調理工程データセットを構成する調理動作情報が生成されている。
また、矢印A22に示すように、調理済みの食材の味見を行っているシェフの生体反応のセンシング結果に基づいて、調理工程#1の調理工程データセットを構成する調理人生体情報が生成されている。
調理工程#1が終了した後、次の調理工程である調理工程#2が行われる。
同様に、矢印A31に示すように、調理工程#2としてシェフが行う調理動作のセンシング結果に基づいて、調理工程#2の調理工程データセットを構成する調理動作情報が生成されている。
また、矢印A32に示すように、調理済みの食材の味見を行っているシェフの生体反応のセンシング結果に基づいて、調理工程#2の調理工程データセットを構成する風味情報が生成されている。
このような複数の調理工程を経て1つの料理が完成する。また、料理が完成するとともに、各調理工程の調理工程データセットを記述したレシピデータが生成される。
図13は、レシピデータに基づく料理の再現の流れの例を示す図である。
図13に示すように、調理ロボット1による料理の再現は、レシピデータに記述された調理工程データセットに含まれる調理動作情報に基づいて調理を行い、調理済みの食材の味見を行った食事人の生体反応に応じて調理工程を更新することを、調理工程毎に繰り返すことによって行われる。
調理済みの食材の味見は、例えば、調理ロボット1から食事人に対して味見を行うことが要求されることに応じて、食事人により行われる。食事人は、調理ロボット1の要求に応じて味見を行うことができるように、レシピデータに基づいて調理を行っている調理ロボット1の周りにいることになる。
味見の要求は、例えば、調理ロボット1のスピーカから合成音声を出力することにより、または、調理ロボット1に設けられたLEDなどの発光部を点滅させることにより行われる。食事人のスマートフォンなどの携帯端末に対してメッセージを送信することによって味見の要求が行われるようにしてもよい。
味見を要求するタイミングは、例えば、調理工程データセットに含まれる調理人生体情報に基づいて、シェフがおいしいと判断した味見のタイミングに応じて決定される。
図13の例においては、矢印A41に示すように、調理工程#1の調理工程データセットを構成する調理動作情報に基づいて調理ロボット1の調理動作が制御され、シェフの調理工程#1の動作と同じ動作が調理ロボット1により行われる。
シェフの調理工程#1の動作と同じ動作が調理ロボット1により行われた後、矢印A42に示すように、調理済みの食材の味見が食事人に対して要求される。この味見の要求は、シェフがおいしいと判断した味見のときの生体反応を表す調理人生体情報に基づいて行われる。
調理ロボット1による要求に応じて味見をしている食事人の生体反応が計測され、計測結果に基づいて調理工程が更新される。詳細については後述するが、調理済みの食材がおいしくないと食事人が感じている場合、おいしいと感じるものとなるように調理工程が更新される。
更新された調理工程に応じた調理が調理ロボット1により行われた場合、調理工程#1は終了となる。調理工程#1が終了した後、次の調理工程である調理工程#2が行われる。
同様に、矢印A51に示すように、調理工程#2の調理工程データセットを構成する調理動作情報に基づいて調理ロボット1の調理動作が制御され、シェフの調理工程#2の動作と同じ動作が調理ロボット1により行われる。
シェフの調理工程#2の動作と同じ動作が調理ロボット1により行われた後、矢印A52に示すように、調理済みの食材の味見が食事人に対して要求される。この味見の要求は、シェフがおいしいと判断した味見のときの生体反応を表す調理人生体情報に基づいて行われる。
調理ロボット1による要求に応じて味見を行っている食事人の生体反応が計測され、計測結果に基づいて調理工程が更新される。
更新された調理工程に応じた調理が調理ロボット1により行われた場合、調理工程#2は終了となる。
このような複数の調理工程を経て、シェフが作った料理が調理ロボット1により再現される。
図14は、再現時の調理工程の例を示す図である。
図8を参照して説明した調理工程#1がシェフにより行われ、上述した調理工程データセットが生成されているものとする。
図14に示すように、時刻t11から時刻t12の間において、調理工程データセットに含まれる調理動作情報#1-1に基づいて、時刻t1から時刻t2(図8)の間にシェフにより行われた1回目の調理と同じ調理が調理ロボット1により行われる。
また、時刻t12から時刻t13の間において、調理工程データセットに含まれる調理動作情報#1-2に基づいて、時刻t3から時刻t4の間にシェフにより行われた2回目の調理と同じ調理が調理ロボット1により行われる。
これにより、シェフにより行われた2回の調理と同じ内容の2回の調理が、調理ロボット1においても行われた状態となる。
調理動作情報#1-2に基づく調理が終わった時刻t13においては、シェフが風味を調整した食材、すなわち、図8の時刻t4において得られる食材と同じ風味の食材が、調理済みの食材として調理ロボット1側においても用意される。
シェフ側においては、2回目の調理の後に行われた2回目の味見によっておいしいと判断されていることから、再現側においても、それに対応する2回目の調理の後のタイミングにおいて、食事人に対して味見を行うことが要求される。2回目の味見によっておいしいとシェフにより判断されていることが、調理人生体情報#1-2に基づいて判断される。上述したように、調理人生体情報#1-2は、シェフがおいしいと判断した味見のときの生体反応に基づいて生成された情報である。
図14の例においては、時刻t13において、味見を行うことが食事人に対して要求される。食事人は、調理ロボット1による要求に応じて食材の味見を行うことになる。
食事人が味見を始めたことが認識された場合、食事人の生体反応の計測が開始される。計測対象となる食事人の生体反応も、シェフの生体反応と同様である。食事人の脳波、瞳孔、発汗、四肢の筋電、顔全体の温度、顔の表情、体全体のモーション、心拍数、声音が計測される。生体反応の計測は、例えば、食事人が味見を終えたことが認識された時刻t14まで続けられる。
時刻t13から時刻t14の間の計測結果に基づいて、食事人がおいしいと判断しているか否かが判定される。すなわち、シェフがおいしいと判断した調理済みの食材を、食事人もおいしいと判断しているか否かが判定される。
食べた食材がおいしいと食事人が判断しているか否かは、調理ロボット1に設けられたボタンを押すなどして食事人により直接入力される。
食べた食材がおいしいと食事人が判断しているか否かが、食事人の生体反応に基づいて判定されるようにしてもよい。
食べた食材がおいしいと食事人が判断しているか否かについても、図10を参照して説明したような風味判定モデルを用いて判定される。再現側に用意される風味判定モデルは、ある食材を食事人が食べたときの生体反応の計測結果を用いた学習によって生成されたモデルである。
食べた食材がおいしいと食事人が判断している場合、調理工程#1は終了となる。
一方、食べた食材がおいしくないと食事人が判断している場合、時刻t14から時刻t15の間において、調理工程が更新され、更新後の調理工程に応じた調理が調理ロボット1により行われる。調理工程の更新は、味見を行った食事人の生体反応に基づいて行われる。
図15は、調理工程の更新を含む、レシピデータのカスタマイズの流れの例を示す図である。
図15に示すデータ処理装置11は、後に詳述するように、レシピデータを生成し、調理ロボット1を含む再現側にレシピデータを提供する機能を有する装置である。
矢印A101に示すように、調理ロボット1からデータ処理装置11に対して、味見をした食事人の生体反応を表す食事人生体情報が送信される。
データ処理装置11においては、食事人生体情報に基づいて調理工程を更新することにより、レシピデータのカスタマイズが行われる。例えば、味見の対象となった食材の風味を、どのように感じているのかが食事人生体情報に基づいて解析される。
図16は、食事人の風味の感じ方の解析の例を示す図である。
図16に示すように、食事人の風味の感じ方である風味主観値は、データ処理装置11に用意された風味主観情報生成用モデルに食事人生体情報を入力することによって算出される。風味主観情報生成用モデルは、食事人の生体反応と、風味の感じ方を表す情報とを用いた学習によって予め生成されたモデルである。
食事人生体情報に基づいて算出される風味主観値により、例えば、おいしい/おいしくない、塩味が強い/弱い、甘みが強い/弱い、香りが強い/弱い、固い/柔らかい、熱い/ぬるいなどの、風味に関する食事人の主観的な感じ方が表現される。
例えば、塩味が弱いと食事人が感じている場合、データ処理装置11は、塩味を強くするために、食材に塩を振る動作を加えるように、調理工程を更新する。
また、食材が固いと食事人が感じている場合、データ処理装置11は、食材を柔らかくするために、所定の時間だけ食材を煮込む動作を加えるように、調理工程を更新する。
また、食材がぬるいと食事人が感じている場合、データ処理装置11は、食材を熱くするために、所定の時間だけ食材を加熱する動作を加えるように、調理工程を更新する。
更新後の調理工程の記述を含む、カスタマイズされたレシピデータが、図15の矢印A102に示すように調理ロボット1に対して提供される。調理ロボット1においては、更新された調理工程に従って、食材の調理が行われる。
このような味見の要求と調理工程の更新は、例えば、調理済みの食材を食事人がおいしいと判断するまで繰り返される。
以上のように、調理ロボット1を含む再現側においては、シェフの動作と同じ動作を行うことによって得られた調理済みの食材を、食事人がおいしいと判断しているか否かを調理工程毎に確認しながら調理が進められる。
図17は、シェフ側の流れと再現側の流れをまとめて示す図である。
図17の左側に示すように、調理工程#1~#Nの複数の調理工程を経て1つの料理が完成するとともに、各調理工程の調理工程データセットを記述したレシピデータが生成される。
一方、再現側においては、シェフの調理によって生成されたレシピデータに基づいて、シェフ側で行われた調理工程と同じ、調理工程#1~#Nの複数の調理工程を経て、1つの料理が再現される。
調理ロボット1による調理が、調理工程毎に、シェフの感じ方と同様に食事人がおいしいと感じているか否かを確認し、食事人がおいしいと感じるように調理工程を更新して進められるから、最終的に出来上がる料理は、食事人がおいしいと感じる料理となる。
基本的にはシェフの調理と同じ調理を経て出来上がるものであるから、最終的に出来上がる料理は、シェフが作った料理を再現したものではあるものの、食事人の好みに応じて風味がカスタマイズされた料理となる。
シェフは、例えば自分が経営するレストランに来店することができない人に対して、自分が作った料理と同じ料理を提供することができる。また、シェフは、自分が作る料理を、レシピデータとして再現可能な形で残すことが可能となる。
一方、調理ロボット1によって再現された料理を食べる食事人は、シェフが作った料理と同じ料理を、自分の好みに応じてカスタマイズして食べることができる。
<レシピデータの記述の変形例>
図18は、レシピデータの他の記述内容の例を示す図である。
図18に示すように、完成した料理の味見を行ったシェフの生体反応を表す調理人生体情報がレシピデータに含まれるようにしてもよい。この場合、調理人生体情報は、全体の調理動作情報にリンクされる。
このように、調理動作情報と調理人生体情報との紐付けの関係は、1対1である必要はない。
例えば、完成した料理の味見を行ったシェフの生体反応を表す調理人生体情報がレシピデータに含まれる場合、レシピデータのカスタマイズは、調理ロボット1による料理の再現が終了し、再現された料理を食べている食事人の生体反応に基づいて、食事後などのタイミングで行われる。食事中に計測された生体反応に基づいてカスタマイズされたレシピデータは、再度、同じ料理を調理ロボット1において再現するときに用いられることになる。
図19は、計測対象となる生体反応の例を示す図である。
図19に示す2人の人物は、調理ロボット1により再現された料理を食べている食事人である。図19に示すように、食事人の脳波、瞳孔、発汗、四肢の筋電、顔全体の温度、顔の表情、体全体のモーション、心拍数、声音が計測され、食事人生体情報が生成される。
食事中に計測された食事人生体情報は、調理ロボット1により再現された料理についての、食事人の風味の感じ方を表す情報となる。
図20は、レシピデータのカスタマイズの流れの例を示す図である。
図20の上段に示すように、調理ロボット1からデータ処理装置11に対して、食事人の食事中の生体反応を表す食事人生体情報が送信される。
データ処理装置11においては、食事人生体情報に基づいて調理工程を更新することにより、レシピデータのカスタマイズが行われる。レシピデータのカスタマイズは、上述したように、料理の風味を食事人がどのように感じているのかが食事人生体情報に基づいて解析され、食事人の風味の感じ方を表す風味主観値に基づいて行われる。
例えば、塩味が弱いと食事人が感じている場合、データ処理装置11は、塩味を強くするために、所定のタイミングで食材に塩を振る動作を加えるように、調理工程を更新する。
また、料理が固いと食事人が感じている場合、データ処理装置11は、料理を柔らかくするために、所定のタイミングで、所定の時間だけ食材を煮込む動作を加えるように、調理工程を更新する。
また、料理がぬるいと食事人が感じている場合、データ処理装置11は、料理を熱くするために、所定のタイミングで、所定の時間だけ食材を加熱する動作を加えるように、調理工程を更新する。
同じ料理を作ることが食事人により選択された場合、矢印A111の先に示すように、更新後の調理工程の記述を含む、カスタマイズされたレシピデータが調理ロボット1に対して提供される。調理ロボット1においては、更新された調理工程に従って調理が行われる。
カスタマイズされたレシピデータに基づいて再現された料理の風味は、食事人の好みに応じた風味となる。
図20に示す調理システムは、図21に示すように、あるレシピデータを、そのレシピデータに基づいて再現された料理を一度食べた食事人の風味の感じ方を表す風味主観値に基づいてカスタマイズして提供するシステムとなる。
図22は、調理システムの適用例を示す図である。
図22に示すように、データ処理装置11は、1つのレシピデータに基づいて、複数の食事人のそれぞれの好みに応じてカスタマイズすることによって複数のレシピデータを生成し、それぞれの食事人に提供することが可能となる。
図22の例においては、あるレシピデータに基づいて再現された料理を一度食べた食事人であるユーザA乃至Cのそれぞれの風味の感じ方を表す風味主観値に基づいて、レシピデータのカスタマイズが行われている。
ユーザAに対しては、ユーザAの好みに応じてカスタマイズされたユーザA用のレシピデータが提供され、ユーザBに対しては、ユーザBの好みに応じてカスタマイズされたユーザB用のレシピデータが提供される。ユーザCに対しては、ユーザCの好みに応じてカスタマイズされたユーザC用のレシピデータが提供される。
このように、上述した技術は、食事人毎にカスタマイズしたレシピデータを提供する調理システムに適用可能である。
図23は、レシピデータの他の記述内容の例を示す図である。
図23に示すように、調理人生体情報に代えて、食事人生体情報がカスタマイズ後のレシピデータに含まれるようにしてもよい。レシピデータに含められる食事人生体情報は、食事中に計測されたものとして上述したようにして再現側から送信されてきた情報である。
カスタマイズ後のレシピデータに基づいて料理を再現する場合、レシピデータに含まれる食事人生体情報を適宜用いて調理が進められる。
調理人生体情報に代えて食事人生体情報が含められるのではなく、調理人生体情報と食事人生体情報の双方の生体情報がレシピデータに含められるようにしてもよい。
<調理システムの構成例>
(1)全体構成
図24は、本技術の一実施形態に係る調理システムの構成例を示す図である。
図24に示すように、調理システムは、シェフ側の構成として設けられるデータ処理装置11と、再現側の構成として設けられる制御装置12とが、インターネットなどのネットワーク13を介して接続されることによって構成される。上述したように、調理システムには、このようなシェフ側の構成と再現側の構成とが複数設けられる。
データ処理装置11は、上述したレシピデータを生成する装置である。データ処理装置11はコンピュータなどにより構成される。データ処理装置11は、例えば、再現された料理を食べる食事人が選択した料理のレシピデータを、ネットワーク13を介して制御装置12に送信する。
制御装置12は、調理ロボット1を制御する装置である。制御装置12もコンピュータなどにより構成される。制御装置12は、データ処理装置11から提供されたレシピデータを受信し、レシピデータの記述に基づいて命令コマンドを出力することによって、調理ロボット1の調理動作を制御する。
調理ロボット1は、制御装置12から供給された命令コマンドに従って調理アームなどの各部を駆動し、各調理工程の調理動作を行う。命令コマンドには、調理アームに設けられたモータのトルク、駆動方向、駆動量を制御する情報などが含まれる。
料理が完成するまでの間、制御装置12から調理ロボット1に対して命令コマンドが順次出力される。命令コマンドに応じた動作を調理ロボット1がとることにより、最終的に、料理が完成することになる。
図25は、調理システムの他の構成例を示す図である。
図25に示すように、シェフ側から再現側に対するレシピデータの提供が、ネットワーク上のサーバを介して行われるようにしてもよい。
図25に示すレシピデータ管理サーバ21は、それぞれのデータ処理装置11から送信されたレシピデータを受信し、データベースに記憶させるなどして管理する。レシピデータ管理サーバ21は、ネットワーク13を介して行われる制御装置12からの要求に応じて、所定のレシピデータを制御装置12に送信する。
レシピデータ管理サーバ21は、様々なレストランのシェフが作った料理のレシピデータを一元的に管理し、再現側からの要求に応じてレシピデータを配信する機能を有する。
図26は、制御装置12の配置例を示す図である。
図26のAに示すように、制御装置12は、例えば調理ロボット1の外部の装置として設けられる。図26のAの例においては、制御装置12と調理ロボット1は、ネットワーク13を介して接続されている。
制御装置12から送信された命令コマンドは、ネットワーク13を介して調理ロボット1により受信される。調理ロボット1から制御装置12に対しては、調理ロボット1のカメラにより撮影された画像、調理ロボット1に設けられたセンサにより計測されたセンサデータなどの各種のデータがネットワーク13を介して送信される。
1台の制御装置12に対して1台の調理ロボット1が接続されるのではなく、1台の制御装置12に対して複数台の調理ロボット1が接続されるようにしてもよい。
図26のBに示すように、制御装置12が調理ロボット1の筐体の内部に設けられるようにしてもよい。この場合、制御装置12が生成する命令コマンドに従って、調理ロボット1の各部の動作が制御される。
以下、主に、制御装置12が、調理ロボット1の外部の装置として設けられるものとして説明する。
(2)シェフ側の構成
図27は、シェフ側の構成例を示すブロック図である。
図27に示すように、データ処理装置11に対しては、カメラ41、生体センサ42が接続される。上述した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
カメラ41は、調理を行っているシェフの様子、キッチンの天板上の様子を撮影し、撮影によって得られた画像をデータ処理装置11に送信する。
カメラ41は複数台のカメラにより構成される。カメラ41を構成するカメラの中には、例えば、シェフの頭部に取り付けられるものもある。シェフの頭部に取り付けられたカメラは、調理を行っているシェフの手元の様子、調理対象となっている食材の様子、キッチンの天板上の様子を撮影し、撮影によって得られた画像をデータ処理装置11に送信する。
生体センサ42は、シェフの生体反応を計測するセンサである。生体センサ42は、上述したそれぞれの生体反応を計測する、脳波計、肌センサ、筋電計、赤外線センサ、モーションセンサ、ウェアラブル活動量計、マイクロフォンなどにより構成される。シェフの生体反応の計測には、カメラ41により撮影された画像も適宜用いられる。
生体センサ42は、シェフの生体反応の計測結果を表すデータをデータ処理装置11に送信する。
カメラ41と生体センサ42以外にも、シェフの体に取り付けられたジャイロセンサ、シェフを撮影する赤外線センサなどの、シェフの動作を認識するための各種のセンサがデータ処理装置11に対して接続される。
図28は、データ処理装置11のハードウェアの構成例を示すブロック図である。
図28に示すように、データ処理装置11はコンピュータにより構成される。CPU(Central Processing Unit)201、ROM(Read Only Memory)202、RAM(Random Access Memory)203は、バス204により相互に接続される。
バス204には、さらに、入出力インタフェース205が接続される。入出力インタフェース205には、キーボード、マウスなどよりなる入力部206、ディスプレイ、スピーカなどよりなる出力部207が接続される。
また、入出力インタフェース205には、ハードディスクや不揮発性のメモリなどよりなる記憶部208、ネットワークインタフェースなどよりなる通信部209、リムーバブルメディア211を駆動するドライブ210が接続される。
以上のように構成されるコンピュータでは、CPU201が、例えば、記憶部208に記憶されているプログラムを入出力インタフェース205およびバス204を介してRAM203にロードして実行することにより、各種の処理が行われる。
図29は、データ処理装置11の機能構成例を示すブロック図である。
図29に示す機能部のうちの少なくとも一部は、図28のCPU201により所定のプロ
グラムが実行されることによって実現される。
図29に示すように、データ処理装置11においてはデータ処理部221が実現される。データ処理部221は、調理動作情報生成部231、調理人生体情報生成部232、レシピデータ生成部233、レシピデータ出力部234、および食事人生体情報取得部235により構成される。
調理動作情報生成部231は、食材認識部251、ツール認識部252、および動作認識部253により構成される。
食材認識部251は、カメラ41により撮影された画像を解析し、シェフが調理に使っている食材の種類を認識する。食材認識部251に対しては、特徴情報などの、各種の食材の種類の認識に用いるための認識用情報が与えられている。
ツール認識部252は、カメラ41により撮影された画像を解析し、シェフが調理に使っている調理ツールの種類を認識する。ツール認識部252に対しては、各種の調理ツールの種類の認識に用いるための認識用情報が与えられている。
動作認識部253は、カメラ41により撮影された画像、シェフの体に取り付けられたセンサの計測結果を表すセンサデータなどを解析し、調理を行うシェフの動作を認識する。
調理動作情報生成部231の各部による認識結果を表す情報はレシピデータ生成部233に供給される。
調理人生体情報生成部232は、生体センサ42を制御することによって、シェフの生体反応の計測を行う。上述したように、味見をしているシェフの生体反応が計測される。調理人生体情報生成部232は、生体センサ42から送信された、シェフの生体反応の計測結果を表すセンサデータを取得し、レシピデータ生成部233に出力する。
レシピデータ生成部233は、調理動作情報生成部231の各部から供給された情報に基づいて調理動作情報を生成する。すなわち、レシピデータ生成部233は、食材認識部251による認識結果に基づいて食材情報を生成し、ツール認識部252と動作認識部253による認識結果に基づいて動作情報を生成する。レシピデータ生成部233は、食材情報と動作情報を含む調理動作情報を生成する。
また、レシピデータ生成部233は、調理人生体情報生成部232から供給されたセンサデータに基づいて調理人生体情報を生成する。レシピデータ生成部233は、適宜、シェフがおいしいと判断しているか否かを風味判定モデルなどに基づいて特定し、風味OKフラグを設定する。
シェフが味見をしたときに計測された生体反応を表す全ての調理人生体情報がレシピデータに含まれる場合、全ての調理人生体情報のうち、シェフがおいしいと判断している生体反応を表す調理人生体情報に対して風味OKフラグが設定される。
全ての調理人生体情報ではなく、シェフがおいしいと判断している生体反応を表す調理人生体情報だけがレシピデータに含まれる場合、その調理人生体情報に対して風味OKフラグが設定されるようにしてもよい。
レシピデータ生成部233は、例えばシェフの調理工程毎に、調理動作情報と調理人生体情報とを紐付けることによって調理工程データセットを生成する。レシピデータ生成部233は、ある料理の最初の調理工程から最後の調理工程までのそれぞれの調理工程に関する調理工程データセットをまとめることによって、複数の調理工程データセットを記述したレシピデータを生成する。
レシピデータ生成部233は、このようにして生成したレシピデータをレシピデータ出力部234に出力する。
また、レシピデータ生成部233は、食事人の生体反応を表す食事人生体情報が食事人生体情報取得部235から供給された場合、食事人生体情報に基づいて調理工程を更新することによって、レシピデータのカスタマイズを行う。食事人生体情報取得部235から供給される食事人生体情報には、どのレシピデータが再現側において用いられているのかを表す情報などが含まれる。
レシピデータ生成部233は、カスタマイズしたレシピデータをレシピデータ出力部234に出力する。
レシピデータ出力部234は、通信部209(図28)を制御し、レシピデータ生成部233により生成されたレシピデータを出力する。レシピデータ出力部234から出力されたレシピデータは、ネットワーク13を介して、制御装置12、またはレシピデータ管理サーバ21に供給される。
(3)再現側の構成
(3-1)調理ロボット1の構成
・調理ロボット1の外観
図30は、調理ロボット1の外観を示す斜視図である。
図30に示すように、調理ロボット1は、横長直方体状の筐体311を有するキッチン型のロボットである。調理ロボット1の本体となる筐体311の内部に各種の構成が設けられる。
筐体311の背面側には、筐体311の上面から立設する形で調理補助システム312が設けられる。薄板状の部材で区切ることによって調理補助システム312に形成された各スペースは、冷蔵庫、オーブンレンジ、収納などの、調理アーム321-1乃至321-4による調理を補助するための機能を有する。
天板311Aには長手方向にレールが設けられており、そのレールに調理アーム321-1乃至321-4が設けられる。調理アーム321-1乃至321-4は、移動機構としてのレールに沿って位置を変えることが可能とされる。
調理アーム321-1乃至321-4は、円筒状の部材を関節部で接続することによって構成されるロボットアームである。調理に関する各種の作業が調理アーム321-1乃至321-4により行われる。
天板311Aの上方の空間が、調理アーム321-1乃至321-4が調理を行う調理空間となる。
図30においては4本の調理アームが示されているが、調理アームの数は4本に限定されるものではない。以下、適宜、調理アーム321-1乃至321-4のそれぞれを区別する必要がない場合、まとめて調理アーム321という。
図31は、調理アーム321の様子を拡大して示す図である。
図31に示すように、調理アーム321の先端には、各種の調理機能を有するアタッチメントが取り付けられる。調理アーム321用のアタッチメントとして、食材や食器などを掴むマニピュレーター機能(ハンド機能)を有するアタッチメント、食材をカットするナイフ機能を有するアタッチメントなどの各種のアタッチメントが用意される。
図31の例においては、ナイフ機能を有するアタッチメントであるナイフアタッチメント331-1が調理アーム321-1に取り付けられている。ナイフアタッチメント331-1を用いて、天板311Aの上に置かれた肉の塊がカットされている。
調理アーム321-2には、食材を固定させたり、食材を回転させたりすることに用いられるアタッチメントであるスピンドルアタッチメント331-2が取り付けられている。
調理アーム321-3には、食材の皮をむくピーラーの機能を有するアタッチメントであるピーラーアタッチメント331-3が取り付けられている。
スピンドルアタッチメント331-2を用いて調理アーム321-2により持ち上げられているジャガイモの皮が、ピーラーアタッチメント331-3を用いて調理アーム321-3によりむかれている。このように、複数の調理アーム321が連携して1つの作業を行うことも可能とされる。
調理アーム321-4には、マニピュレーター機能を有するアタッチメントであるマニピュレーターアタッチメント331-4が取り付けられている。マニピュレーターアタッチメント331-4を用いて、チキンを載せたフライパンが、オーブン機能を有する調理補助システム312のスペースに運ばれている。
このような調理アーム321による調理は、作業の内容に応じてアタッチメントを適宜取り替えて進められる。アタッチメントの取り替えは、例えば調理ロボット1により自動的に行われる。
4本の調理アーム321のそれぞれにマニピュレーターアタッチメント331-4を取り付けるといったように、同じアタッチメントを複数の調理アーム321に取り付けることも可能とされる。
調理ロボット1による調理は、調理アーム用のツールとして用意された以上のようなアタッチメントを用いて行われるだけでなく、適宜、人が調理に使うツールと同じツールを用いて行われる。例えば、人が使うナイフをマニピュレーターアタッチメント331-4によって掴み、ナイフを用いて食材のカットなどの調理が行われる。
・調理アームの構成
図32は、調理アーム321の外観を示す図である。
図32に示すように、調理アーム321は、全体的に、細い円筒状の部材を、関節部となるヒンジ部で接続することによって構成される。各ヒンジ部には、各部材を駆動させるための力を生じさせるモータなどが設けられる。
円筒状の部材として、先端から順に、着脱部材351、中継部材353、およびベース部材355が設けられる。着脱部材351は、中継部材353の長さの略1/5程度の長さを有する部材である。着脱部材351の長さと中継部材353の長さを合わせた長さが、ベース部材355の長さとほぼ同じ長さとなる。
着脱部材351と中継部材353はヒンジ部352によって接続され、中継部材353とベース部材355はヒンジ部354によって接続される。中継部材353の両端にはヒンジ部352とヒンジ部354が設けられる。
この例においては、3本の円筒状の部材によって調理アーム321が構成されているが、4本以上の円筒状の部材によって構成されるようにしてもよい。この場合、中継部材353が複数設けられる。
着脱部材351の先端には、アタッチメントが着脱される着脱部351Aが設けられる。着脱部材351は、各種のアタッチメントが着脱される着脱部351Aを有し、アタッチメントを動作させることによって調理を行う調理機能アーム部として機能する。
ベース部材355の後端には、レールに取り付けられる着脱部356が設けられる。ベース部材355は、調理アーム321の移動を実現する移動機能アーム部として機能する。
図33は、調理アーム321の各部の可動域の例を示す図である。
楕円#1で囲んで示すように、着脱部材351は、円形断面の中心軸を中心として回転可能とされる。楕円#1の中心に示す扁平の小円は、一点鎖線の回転軸の方向を示す。
円#2で囲んで示すように、着脱部材351は、ヒンジ部352との嵌合部351Bを通る軸を中心として回転可能とされる。また、中継部材353は、ヒンジ部352との嵌合部353Aを通る軸を中心として回転可能とされる。
円#2の内側に示す2つの小円はそれぞれの回転軸の方向(紙面垂直方向)を示す。嵌合部351Bを通る軸を中心とした着脱部材351の可動範囲と、嵌合部353Aを通る軸を中心とした中継部材353の可動範囲は、それぞれ例えば90度の範囲である。
中継部材353は、先端側の部材353-1と、後端側の部材353-2により分離して構成される。楕円#3で囲んで示すように、中継部材353は、部材353-1と部材353-2との連結部353Bにおいて、円形断面の中心軸を中心として回転可能とされる。
他の可動部も、基本的に同様の可動域を有する。
すなわち、円#4で囲んで示すように、中継部材353は、ヒンジ部354との嵌合部353Cを通る軸を中心として回転可能とされる。また、ベース部材355は、ヒンジ部354との嵌合部355Aを通る軸を中心として回転可能とされる。
ベース部材355は、先端側の部材355-1と、後端側の部材355-2により分離して構成される。楕円#5で囲んで示すように、ベース部材355は、部材355-1と部材355-2との連結部355Bにおいて、円形断面の中心軸を中心として回転可能とされる。
円#6で囲んで示すように、ベース部材355は、着脱部356との嵌合部355Cを通る軸を中心として回転可能とされる。
楕円#7で囲んで示すように、着脱部356は、円形断面の中心軸を中心として回転可能となるようにレールに取り付けられる。
このように、先端に着脱部351Aを有する着脱部材351、着脱部材351とベース部材355を連結する中継部材353、後端に着脱部356が接続されるベース部材355は、それぞれ、ヒンジ部により回転可能に接続される。各可動部の動きが、調理ロボット1内のコントローラにより命令コマンドに従って制御される。
図34は、調理アームとコントローラの接続の例を示す図である。
図34に示すように、調理アーム321とコントローラ361は、筐体311の内部に形成された空間311B内において配線を介して接続される。図34の例においては、調理アーム321-1乃至321-4とコントローラ361は、それぞれ、配線362-1乃至362-4を介して接続されている。可撓性を有する配線362-1乃至362-4は、調理アーム321-1乃至321-4の位置に応じて適宜撓むことになる。
このように、調理ロボット1は、調理アーム321を駆動させることにより調理に関する各種の作業を行うことが可能なロボットである。
・調理ロボット1周りの構成
図35は、調理ロボット1と周辺の構成の例を示すブロック図である。
調理ロボット1は、コントローラ361に対して各部が接続されることによって構成される。図35に示す構成のうち、上述した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
コントローラ361に対しては、調理アーム321の他に、カメラ401、生体センサ402、および通信部403が接続される。
図30等においては図示を省略したが、調理ロボット1自体、または調理ロボット1の周囲の所定の位置には、シェフ側に設けられるセンサと同じセンサが設けられる。カメラ401、生体センサ402は、それぞれ、シェフ側のカメラ41、生体センサ42と同様の機能を有する。
コントローラ361は、CPU,ROM,RAM、フラッシュメモリなどを有するコンピュータにより構成される。コントローラ361は、CPUにより所定のプログラムを実行し、調理ロボット1の全体の動作を制御する制御部として機能する。
コントローラ361においては、所定のプログラムが実行されることにより、命令コマンド取得部421、アーム制御部422が実現される。
命令コマンド取得部421は、制御装置12から送信され、通信部403において受信された命令コマンドを取得する。命令コマンド取得部421により取得された命令コマンドはアーム制御部422に供給される。
アーム制御部422は、命令コマンド取得部421により取得された命令コマンドに従って調理アーム321の動作を制御する。
カメラ401は、調理動作を行っている調理アーム321の様子、調理対象となっている食材の様子、調理ロボット1の天板311A上の様子を撮影し、撮影によって得られた画像をコントローラ361に出力する。カメラ401は、調理補助システム312の正面、調理アーム321の先端などの様々な位置に設けられる。
また、カメラ401は、味見をしている食事人の様子、料理を食べている食事人の様子を撮影し、撮影によって得られた画像をコントローラ361に出力する。
生体センサ402は、食事人の生体反応を計測するセンサである。生体センサ402は、上述したそれぞれの生体反応を計測する、脳波計、肌センサ、筋電計、赤外線センサ、モーションセンサ、ウェアラブル活動量計、マイクロフォンなどにより構成される。
生体センサ42は、食事人の生体反応の計測結果を表すデータをコントローラ361に送信する。
通信部403は、無線LANモジュール、LTE(Long Term Evolution)に対応した携帯通信モジュールなどの無線通信モジュールである。通信部403は、制御装置12や、インターネット上のレシピデータ管理サーバ21などの外部の装置との間で通信を行う。
また、通信部403は、ユーザが使うスマートフォンやタブレット端末などの携帯端末と通信を行う。ユーザは、調理ロボット1により再現された料理を食べる人である。料理の選択などの、調理ロボット1に対するユーザの操作が携帯端末上の操作によって入力されるようにしてもよい。
図35に示すように、調理アーム321にはモータ431とセンサ432が設けられる。
モータ431は、調理アーム321の各関節部に設けられる。モータ431は、アーム制御部422による制御に従って軸周りの回転動作を行う。モータ431の回転量を計測するエンコーダ、モータ431の回転をエンコーダによる計測結果に基づいて適応的に制御するドライバなども各関節部に設けられる。
センサ432は、例えばジャイロセンサ、加速度センサ、タッチセンサなどにより構成される。センサ432は、調理アーム321の動作中、各関節部の角速度、加速度などを計測し、計測結果を示す情報をコントローラ361に出力する。調理ロボット1から制御装置12に対しては、適宜、センサ432の計測結果を示すセンサデータも送信される。
調理アーム321の数などの、調理ロボット1の仕様に関する情報は、所定のタイミングで調理ロボット1から制御装置12に提供される。制御装置12においては、調理ロボット1の仕様に応じて、動作のプランニングが行われる。制御装置12において生成される命令コマンドは、調理ロボット1の仕様に応じたものとなる。
(3-2)制御装置12の構成
調理ロボット1の動作を制御する制御装置12は、データ処理装置11と同様に図28に示すようなコンピュータにより構成される。以下、適宜、図28に示すデータ処理装置11の構成を、制御装置12の構成として引用して説明する。
図36は、制御装置12の機能構成例を示すブロック図である。
図36に示す機能部のうちの少なくとも一部は、制御装置12のCPU201(図28)により所定のプログラムが実行されることによって実現される。
図36に示すように、制御装置12においてはコマンド生成部501が実現される。コマンド生成部501は、レシピデータ取得部511、レシピデータ解析部512、ロボット状態推定部513、生体情報処理部514、制御部515、およびコマンド出力部516から構成される。
レシピデータ取得部511は、通信部209を制御し、データ処理装置11から送信されてきたレシピデータを受信することによって、または、レシピデータ管理サーバ21と通信を行うなどして、レシピデータを取得する。レシピデータ取得部511が取得するレシピデータは、例えば食事人により選択された料理のレシピデータである。
カスタマイズされたレシピデータがデータ処理装置11から送信されてきた場合も同様に、カスタマイズされたレシピデータがレシピデータ取得部511により取得される。
レシピデータのデータベースが記憶部208に設けられているようにしてもよい。この場合、記憶部208に設けられるデータベースからレシピデータが取得される。レシピデータ取得部511により取得されたレシピデータはレシピデータ解析部512に供給される。
レシピデータ解析部512は、レシピデータ取得部511により取得されたレシピデータを解析する。レシピデータ解析部512は、ある調理工程のタイミングになった場合、その調理工程に関する調理工程データセットを解析し、調理動作情報と調整人生体情報を抽出する。調理工程データセットから抽出された調理動作情報は制御部515に供給され、調整人生体情報は生体情報処理部514に供給される。
ロボット状態推定部513は、通信部209を制御し、調理ロボット1から送信されてきた画像とセンサデータを受信する。調理ロボット1からは、調理ロボット1のカメラにより撮影された画像と、調理ロボット1の所定の位置に設けられたセンサにより計測されたセンサデータが所定の周期で送信されてくる。調理ロボット1のカメラにより撮影された画像には、調理ロボット1の周囲の様子が写っている。
ロボット状態推定部513は、調理ロボット1から送信されてきた画像とセンサデータを解析することによって、調理アーム321の状態、食材の状態などの、調理ロボット1の周囲の状態を推定する。ロボット状態推定部513により推定された調理ロボット1の周囲の状態を示す情報は、制御部515に供給される。
生体情報処理部514は、制御部515と連携し、レシピデータ解析部512から供給された調理人生体情報に基づいて、調理ロボット1の動作を制御する。
例えば、生体情報処理部514は、風味OKフラグが設定されている調理人生体情報がある場合、シェフの味見のタイミングに対応するタイミングで、食事人に対して味見を要求する。上述したように、ある調理が行われた後にシェフにより味見が行われ、その味見のときのシェフの生体反応が、おいしいと判断しているものである場合、同じ調理が調理ロボット1により行われた後のタイミングで、食事人に対して味見が要求される。
生体情報処理部514は、食事人が味見しているときの生体反応を表すセンサデータが調理ロボット1から送信され、通信部209において受信された場合、それを取得する。生体情報処理部514は、取得したセンサデータに基づいて食事人生体情報を生成し、データ処理装置11に対して送信する。
制御部515は、命令コマンドを生成し、コマンド出力部516から送信させることによって、調理ロボット1の動作を制御する。制御部515による調理ロボット1の動作の制御は、レシピデータ解析部512から供給された調理動作情報に基づいて行われる。
例えば、制御部515は、調理動作情報に含まれる食材情報に基づいて、実行対象となっている調理工程において用いる食材を特定する。また、制御部515は、調理動作情報に含まれる動作情報に基づいて、調理工程において用いる調理ツールと、調理アーム321に実行させる動作を特定する。
制御部515は、食材の準備ができた状態をゴール状態として設定し、現在の調理ロボット1の状態である現在状態からゴール状態までの動作シーケンスを設定する。制御部515は、動作シーケンスを構成するそれぞれの動作を行わせるための命令コマンドを生成し、コマンド出力部516に出力する。
調理ロボット1においては、制御部515により生成された命令コマンドに従って調理アーム321が制御され、食材の準備が行われる。調理アーム321の状態を含む、各タイミングの調理ロボット1の状態を表す情報が、調理ロボット1から制御装置12に対して送信されてくる。
また、制御部515は、食材の準備ができた場合、準備した食材を用いた調理(実行対象となっている1つの調理工程の調理)が終わった状態をゴール状態として設定し、現在状態からゴール状態までの動作シーケンスを設定する。制御部515は、動作シーケンスを構成するそれぞれの動作を行わせるための命令コマンドを生成し、コマンド出力部516に出力する。
調理ロボット1においては、制御部515により生成された命令コマンドに従って調理アーム321が制御され、食材を用いた調理が行われる。
制御部515による調理ロボット1の動作の制御は、例えば以上のような命令コマンドを用いて行われる。制御部515は、命令コマンドを生成する生成部としての機能を有する。
なお、制御部515が生成する命令コマンドは、ある状態遷移を生じさせるためのアクション全体の実行を命令するコマンドであってもよいし、アクションの一部分の実行を命令するコマンドであってもよい。すなわち、1つのアクションが1つの命令コマンドに従って実行されるようにしてもよいし、複数の命令コマンドに従って実行されるようにしてもよい。
コマンド出力部516は、通信部209を制御し、制御部515により生成された命令コマンドを調理ロボット1に送信する。
<調理システムの動作>
ここで、以上のような構成を有する調理システムの動作について説明する。レシピデータにおいては、シェフの生体反応を表す調理人生体情報が、調理工程毎に紐付けられているものとする。
(1)シェフ側の動作
はじめに、図37のフローチャートを参照して、データ処理装置11のレシピデータ生成処理について説明する。
図37の処理は、食材や調理ツールの準備が終わり、シェフが調理を始めたときに開始される。カメラ41による撮影、シェフの体に取り付けられたセンサによるセンシングなども開始される。
ステップS1において、図29の食材認識部251は、カメラ41により撮影された画像を解析し、シェフが使う食材を認識する。
ステップS2において、動作認識部253は、カメラ41により撮影された画像、シェフの体に取り付けられたセンサの計測結果を表すセンサデータなどを解析し、シェフの調理動作を認識する。
ステップS3において、レシピデータ生成部233は、食材認識部251による認識結果に基づいて生成された食材情報と、動作認識部253による認識結果に基づいて生成された動作情報に基づいて調理動作情報を生成する。
ステップS4において、レシピデータ生成部233は、味見が行われたか否かを判定し、味見が行われていないと判定した場合、ステップS1に戻り、上述した処理を繰り返す。
味見が行われたとステップS4において判定した場合、処理はステップS5に進む。
ステップS5において、調理人生体情報生成部232は、生体センサ42を制御することによって、シェフの生体反応の計測を行う。シェフの生体反応の計測結果を表すセンサデータは、調理人生体情報生成部232により取得され、レシピデータ生成部233に供給される。
ステップS6において、レシピデータ生成部233は、調理人生体情報生成部232から供給されたセンサデータに基づいて調理人生体情報を生成する。
ステップS7において、レシピデータ生成部233は、調理動作情報と調理人生体情報を紐付けることによって調理工程データセットを生成する。
ステップS8において、レシピデータ生成部233は、全ての調理工程が終了したか否かを判定し、全ての調理工程がまだ終了していないと判定した場合、ステップS1に戻り、上述した処理を繰り返す。次の調理工程を対象として、同様の処理が繰り返される。
全ての調理工程が終了したとステップS8において判定した場合、処理はステップS9に進む。
ステップS9において、レシピデータ生成部233は、全ての調理工程データセットを含むレシピデータを生成する。
次に、図38のフローチャートを参照して、レシピデータをカスタマイズするデータ処理装置11の処理について説明する。
図38の処理は、再現側において調理工程が進み、所定のタイミングで味見が行われることによって、食事人生体情報が制御装置12から送信されてきたときに開始される。
ステップS11において、食事人生体情報取得部235は、制御装置12から送信されてきた食事人生体情報を取得する。
ステップS12において、食事人生体情報取得部235は、調理工程の更新が必要か否かを食事人生体情報に基づいて判定する。
調理済みの食材を食事人がおいしいと判断していることから、調理工程の更新が必要ないとステップS12において判定された場合、処理は終了となる。この場合、レシピデータのカスタマイズは行われない。
一方、調理済みの食材を食事人がおいしくないと判断していることから、調理工程の更新が必要であるとステップS12において判定された場合、処理はステップS13に進む。
ステップS13において、レシピデータ生成部233は、食事人生体情報取得部235により取得された食事人生体情報を風味主観情報生成用モデルに入力し、風味主観値を算出する。
ステップS14において、レシピデータ生成部233は、風味主観値により表される食事人の風味の感じ方に応じて調理工程を更新したレシピデータを生成する。
ステップS15において、レシピデータ生成部233は、調理工程を更新することによってカスタマイズしたレシピデータをレシピデータ出力部234に出力し、制御装置12に対して提供する。制御装置12においては、カスタマイズされたレシピデータに基づいて、調理が行われることになる。
(2)再現側の動作
図39のフローチャートを参照して、制御装置12の料理再現処理について説明する。
ステップS31において、図36のレシピデータ取得部511は、データ処理装置11から送信されてきたレシピデータを取得する。レシピデータ取得部511により取得されたレシピデータは、レシピデータ解析部512において解析され、調理動作情報と調理人生体情報が抽出される。調理動作情報は制御部515に供給され、調理人生体情報は生体情報処理部514に供給される。
ステップS32において、制御部515は、1つの調理工程を実行対象として選択する。先頭の調理工程に関する調理工程データセットから順に、実行対象として選択される。
ステップS33において、制御部515は、調理動作情報の記述に基づいて命令コマンドを生成し、調理ロボット1に送信することによって、調理アーム321に調理動作を実行させる。
ステップS34において、生体情報処理部514は、風味OKフラグが設定されている調理人生体情報があるか否かを判定する。
風味OKフラグが設定されている調理人生体情報があるとステップS34において判定した場合、ステップS35において、生体情報処理部514は、食事人に対して味見を要求する。
ステップS36において、制御部515は、命令コマンドを送信することによって、食事人が味見しているときの生体反応の計測を調理ロボット1に行わせる。
ステップS37において、生体情報処理部514は、調理ロボット1から送信されてきたセンサデータに基づいて食事人生体情報を生成し、データ処理装置11に対して送信する。
データ処理装置11においては、図38を参照して説明した処理が行われ、必要に応じて、レシピデータのカスタマイズが行われる。レシピデータのカスタマイズが行われた場合、カスタマイズされたレシピデータがデータ処理装置11から送信されてくる。
ステップS38において、レシピデータ取得部511は、カスタマイズされたレシピデータがデータ処理装置11から送信されてきたか否かを判定する。
カスタマイズされたレシピデータが送信されてきたとステップS38において判定した場合、ステップS39において、レシピデータ取得部511は、データ処理装置11から送信されてきた、カスタマイズされたレシピデータを取得する。レシピデータのカスタマイズが行われた場合、以降の処理は、カスタマイズされたレシピデータに基づいて行われる。
一方、ステップS34において、風味OKフラグが設定されている調理人生体情報がないと判定された場合、ステップS35乃至S39の処理がスキップされる。また、ステップS38において、カスタマイズされたレシピデータが送信されてきていないと判定された場合、ステップS39の処理がスキップされる。
ステップS40において、制御部515は、全ての調理工程が終了したか否かを判定し、全ての調理工程がまだ終了していないと判定した場合、ステップS32に戻り、上述した処理を繰り返す。次の調理工程を対象として、同様の処理が繰り返される。
一方、全ての調理工程が終了したとステップS40において判定された場合、料理が完成となり、再現処理が終了される。
以上の一連の処理により、シェフが作る料理と同じ料理であり、食事人の好みに応じて風味がカスタマイズされた料理が再現される。
食事人は、シェフが作った料理と同じ料理を、自分の好みに応じてカスタマイズして食べることができる。
また、シェフは、自分が作った料理を、様々な人に、それぞれの人の好みに応じてカスタマイズして提供することができる。
<風味情報を含むレシピデータ>
図40は、調理工程データセットに含まれる情報の例を示す図である。
図40の吹き出しに示すように、上述した調理動作情報と調理人生体情報に加えて、食材の風味に関する情報である風味情報が、調理工程データセットに含まれるようにしてもよい。上述した説明と重複する説明については適宜省略する。
風味情報は、料理を作るときにシェフが感覚として得た風味をデータ化した感覚データである。以下、風味情報について説明する。
図40に示すように、風味情報は、風味センサ情報と風味主観情報から構成される。
(1)風味センサ情報
風味情報を構成する風味センサ情報は、食材の風味をセンサにより計測して得られたセンサデータである。調理が全く施されていない食材の風味をセンサにより計測して得られたセンサデータが風味センサ情報として風味情報に含まれるようにしてもよい。
風味は、味、香り、質感、体感温度、色彩によって構成されるから、風味センサ情報には、味に関するセンサデータ、香りに関するセンサデータ、質感に関するセンサデータ、体感温度に関するセンサデータ、色彩に関するセンサデータが含まれる。全てのセンサデータが風味センサ情報に含まれるようにしてもよいし、いずれかのセンサデータが風味センサ情報に含まれないようにしてもよい。
風味センサ情報を構成するそれぞれのセンサデータを、味覚センサデータ、嗅覚センサデータ、質感センサデータ、体感温度センサデータ、色彩センサデータという。
味覚センサデータは、味覚センサにより計測されたセンサデータである。味覚センサデータは、塩味センサ値、酸味センサ値、苦味センサ値、甘味センサ値、旨味センサ値、辛味センサ値、渋味センサ値のうちの少なくともいずれかのパラメータにより構成される。
味覚センサには、例えば、センサ部に人工的な脂質膜を用いた人工脂質膜型味覚センサがある。人工脂質膜型味覚センサは、味を感じさせる原因となる物質である呈味物質に対する、脂質膜の静電相互作用や疎水性相互作用によって生じた膜電位の変化を検出し、センサ値として出力するセンサである。
人工脂質膜型味覚センサではなく、食物の味を構成する塩味、酸味、苦味、甘味、旨味、辛味、渋味のそれぞれの要素をデータ化して出力することができる装置であれば、高分子膜を用いた味覚センサなどの各種の装置を味覚センサとして用いることが可能である。
嗅覚センサデータは、嗅覚センサにより計測されたセンサデータである。嗅覚センサデータは、スパイシーな香り、フルーティーな香り、青臭い、かび臭い(チージー)、シトラスの香り、ローズの香りなどの、香りを表現する要素毎の値により構成される。
嗅覚センサには、例えば、水晶振動子などのセンサを無数に設けたセンサがある。人間の鼻の受容体の代わりに水晶振動子が用いられることになる。水晶振動子を用いた嗅覚センサは、香り成分が水晶振動子にぶつかったときの、水晶振動子の振動周波数の変化を検出し、振動周波数の変化のパターンに基づいて、上述した香りを表現する値を出力するものである。
水晶振動子を用いたセンサではなく、香りを表現する値を出力することができる装置であれば、カーボンなどの各種の素材からなるセンサを人間の鼻の受容体の代わりに用いた各種の装置を嗅覚センサとして用いることが可能である。
質感センサデータは、カメラにより撮影された画像や、各種のセンサにより計測されたセンサデータを解析することにより特定されるセンサデータである。質感センサデータは、硬さ(硬度)、ベタベタ感、粘性(応力)、凝集性、ポリマー含有量、水分含有量、油分含有量などを表す情報のうちの少なくともいずれかのパラメータにより構成される。
硬さ、ベタベタ感、粘性、凝集性は、例えば、シェフが調理を行っている食材をカメラで撮影した画像を解析することによって認識される。例えば、シェフがかき混ぜているスープの画像を解析することにより、硬さ、ベタベタ感、粘性、凝集性などの値を認識することが可能となる。これらの値が、シェフが包丁で食材を切ったときの応力を計測することにより認識されるようにしてもよい。
ポリマー含有量、水分含有量、油分含有量は、例えば、所定の波長の光を食材に照射し、その反射光を解析することによってそれらの値を計測するセンサにより計測される。
それぞれの食材と質感の各パラメータとを対応付けたデータベースが用意されており、データベースを参照して、それぞれの食材の質感センサデータが認識されるようにしてもよい。
体感温度センサデータは、食材の温度を温度センサにより計測することによって得られるセンサデータである。
色彩センサデータは、カメラにより撮影された画像から食材の色彩を解析することにより特定されるデータである。
(2)風味主観情報
風味主観情報は、調理を行っているシェフなどの、人の主観的な風味の感じ方を表す情報である。風味主観情報は、風味センサ情報に基づいて算出される。
風味は、味、香り、質感、体感温度、色彩によって構成されるから、風味主観情報には、味に関する主観情報、香りに関する主観情報、質感に関する主観情報、体感温度に関する主観情報、色彩に関する主観情報が含まれる。味に関する主観情報、香りに関する主観情報、質感に関する主観情報、体感温度に関する主観情報、色彩に関する主観情報の全てが風味主観情報に含まれるようにしてもよいし、いずれかの主観情報が風味主観情報に含まれないようにしてもよい。
風味主観情報を構成するそれぞれの主観情報を、味覚主観情報、嗅覚主観情報、質感主観情報、体感温度主観情報、色彩主観情報という。
図41は、味覚主観情報の算出例を示す図である。
図41に示すように、味覚主観情報は、深層学習などにより生成されたニューラルネットワークのモデルである味覚主観情報生成用モデルを用いて算出される。味覚主観情報生成用モデルは、例えば、ある食材の味覚センサデータと、その食材を食べたシェフの味の感じ方を表す情報(数値)を用いた学習を行うことによって予め生成される。
例えば、図41に示すように、ある食材の味覚センサデータである塩味センサ値、酸味センサ値、苦味センサ値、甘味センサ値、旨味センサ値、辛味センサ値、渋味センサ値のそれぞれを入力した場合、味覚主観情報生成用モデルからは、塩味主観値、酸味主観値、苦味主観値、甘味主観値、旨味主観値、辛味主観値、渋味主観値のそれぞれが出力される。
塩味主観値は、シェフの塩味の感じ方を表す値である。酸味主観値は、シェフの酸味の感じ方を表す値である。苦味主観値、甘味主観値、旨味主観値、辛味主観値、渋味主観値も同様に、それぞれ、シェフの、苦味、甘味、旨味、辛味、渋味の感じ方を表す値である。
風味主観情報を構成する他の主観情報も同様に、それぞれの主観情報生成用のモデルを用いて算出される。
すなわち、嗅覚主観情報は、嗅覚センサデータを嗅覚主観情報生成用モデルに入力することによって算出され、質感主観情報は、質感センサデータを質感主観情報生成用モデルに入力することによって算出される。体感温度主観情報は、体感温度主観センサデータを体感温度主観情報生成用モデルに入力することによって算出され、色彩主観情報は、色彩センサデータを色彩主観情報生成用モデルに入力することによって算出される。
ニューラルネットワークのモデルを用いるのではなく、ある食材の味覚センサデータと、その食材を食べたシェフの味の感じ方を表す情報とを対応付けたテーブル情報に基づいて味覚主観情報が算出されるようにしてもよい。風味センサ情報を用いた風味主観情報の算出の仕方については様々な方法を採用することができる。
以上のように、レシピデータは、調理工程を実現するための調理動作に関する情報である調理動作情報、調理人の生体反応を表す調理人生体情報、および、調理工程の進捗に連動して計測された、食材や料理の風味に関する情報である風味情報をリンクさせる(紐付ける)ことによって構成される。
・レシピデータの生成と料理の再現の流れの例
図42は、レシピデータの生成の流れの例を示す図である。
なお、図42には、生体情報に関する処理の図示を省略している。図43についても同様である。
図42に示すように、調理工程データセットを構成する調理動作情報は、食材を用いた調理を行うシェフの動作と、風味を調整するシェフの動作とをセンシングし、センシング結果に基づいて生成される。
また、風味情報は、調理後の食材の風味をセンシングし、センシング結果に基づいて生成される。食材の風味を計測するための上述した各種のセンサがシェフ側には用意される。
図42の例においては、矢印A1,A2に示すように、調理工程#1としてシェフが行う調理の動作と、風味を調整するシェフの動作とのセンシング結果に基づいて、調理工程#1の調理工程データセットを構成する調理動作情報が生成されている。
また、矢印A3に示すように、調理工程#1による調理後の食材の風味のセンシング結果に基づいて、調理工程#1の調理工程データセットを構成する風味情報が生成されている。
調理工程#1が終了した後、次の調理工程である調理工程#2が行われる。
同様に、矢印A11,A12に示すように、調理工程#2としてシェフが行う調理の動作と、風味を調整するシェフの動作とのセンシング結果に基づいて、調理工程#2の調理工程データセットを構成する調理動作情報が生成されている。
また、矢印A13に示すように、調理工程#2による調理後の食材の風味のセンシング結果に基づいて、調理工程#2の調理工程データセットを構成する風味情報が生成されている。
このような複数の調理工程を経て1つの料理が完成する。また、料理が完成するとともに、各調理工程の調理工程データセットを記述したレシピデータが生成される。
なお、1つの調理工程に含まれる調理動作の単位は任意に設定可能である。1つの調理工程が、味見や味見後の風味の調整を伴わない調理動作から構成されることもあるし、風味の調整だけから構成されることもある。この場合も同様に、調理工程毎に風味のセンシングが行われ、センシング結果に基づいて得られた風味情報が調理工程データセットに含まれる。
1つの調理工程が終わる毎に風味のセンシングが行われるのではなく、風味のセンシングのタイミングについても任意に設定可能である。例えば、1つの調理工程の間、風味のセンシングが繰り返し行われるようにしてもよい。この場合、調理工程データセットには、風味情報の時系列データが含まれることになる。
全ての調理工程データセットに風味情報が含まれるのではなく、風味の計測が任意のタイミングで行われる毎に、風味情報が、そのタイミングで行われていた調理動作の情報とともに調理工程データセットに含まれるようにしてもよい。
図43は、レシピデータに基づく料理の再現の流れの例を示す図である。
図43に示すように、調理ロボット1による料理の再現は、レシピデータに記述された調理工程データセットに含まれる調理動作情報に基づいて調理を行い、調理後の食材の風味を計測して、風味を調整することを、調理工程毎に繰り返すことによって行われる。食材の風味を計測するための各種のセンサが、調理ロボット1側にも用意される。
風味の調整は、例えば、調理ロボット1側に用意されたセンサにより計測された風味が、風味情報により表される風味に近づくように、作業を加えるようにして行われる。
風味の計測と調整は、例えば、1つの調理工程において複数回繰り返されることもある。すなわち、調整が行われる毎に、調整後の食材を対象として風味の計測が行われ、計測結果に基づいて風味の調整が行われる。
図43の例においては、矢印A21に示すように、調理工程#1の調理工程データセットを構成する調理動作情報に基づいて調理ロボット1の調理動作が制御され、シェフの調理工程#1の動作と同じ動作が調理ロボット1により行われる。
シェフの調理工程#1の動作と同じ動作が調理ロボット1により行われた後、調理後の食材の風味が計測され、矢印A22に示すように、調理工程#1の調理工程データセットを構成する風味情報に基づいて、調理ロボット1の風味の調整が制御される。
調理ロボット1側に用意されたセンサにより計測された風味が、風味情報により表される風味に一致した場合、風味の調整が終わり、調理工程#1も終了となる。例えば、完全に一致するだけでなく、調理ロボット1側に用意されたセンサにより計測された風味と、風味情報により表される風味が閾値以上類似する場合も、両者が一致するものとして判定される。
調理工程#1が終了した後、次の調理工程である調理工程#2が行われる。
同様に、矢印A31に示すように、調理工程#2の調理工程データセットを構成する調理動作情報に基づいて調理ロボット1の調理動作が制御され、シェフの調理工程#2の動作と同じ動作が調理ロボット1により行われる。
シェフの調理工程#2の動作と同じ動作が調理ロボット1により行われた後、調理後の食材の風味が計測され、矢印A32に示すように、調理工程#2の調理工程データセットを構成する風味情報に基づいて、調理ロボット1の風味の調整が制御される。
調理ロボット1側に用意されたセンサにより計測された風味が、風味情報により表される風味に一致した場合、風味の調整が終わり、調理工程#2も終了となる。
このような複数の調理工程を経て、シェフが作った料理が調理ロボット1により再現される。
調理ロボット1による調理は、調理工程毎に風味を調整するようにして行われるから、最終的に出来上がる料理は、シェフが作った料理と同じか、あるいは、近い風味の料理となる。このように、シェフが作った料理と同じ風味の料理がレシピデータに基づいて再現される。
シェフは、例えば自分が経営するレストランに来店することができない人に対して、自分が作った料理と同じ風味の料理を提供することができる。また、シェフは、自分が作る料理を、レシピデータとして再現可能な形で残すことが可能となる。
一方、調理ロボット1によって再現された料理を食べる人は、シェフが作った料理と同じ風味の料理を食べることができる。
図44は、レシピデータの他の記述内容の例を示す図である。
図44に示すように、完成した料理の風味に関する風味情報がレシピデータに含まれるようにしてもよい。この場合、完成した料理の風味に関する風味情報は、全体の調理動作情報にリンクされる。
このように、調理動作情報と風味情報との紐付けの関係は、1対1である必要はない。
<変形例>
レシピデータのカスタマイズが、食事人の生体反応に基づいて行われるものとしたが、食事人に関する他の情報に基づいてカスタマイズが行われるようにしてもよい。
例えば、年齢、性別、国籍、生活地域などの、食事人の属性に基づいてレシピデータのカスタマイズが行われるようにすることが可能である。国籍に基づいてレシピデータのカスタマイズが行われる場合、日本国籍の人向けのレシピデータ、アメリカ国籍の人向けのレシピデータ、フランス国籍の人向けのレシピデータといったように、国籍毎のレシピデータが生成される。
シェフ側の調理に関する音の情報が環境情報としてレシピデータに含まれるようにしてもよい。調理に関する音には、食材をナイフで切るときの音や、食材を鍋で煮るときの音などがある。
・構成の変形例
レシピデータに基づいて料理を再現する調理ロボットが家庭内に設置された調理ロボット1であるものとしたが、様々な場所に設けられた調理ロボットにおいて料理が再現されるようにしてもよい。例えば、工場に設けられた調理ロボット、レストランに設けられた調理ロボットにおいて料理を再現させる場合にも、上述した技術は適用可能である。
また、レシピデータに基づいて料理を再現する調理ロボットが、調理アームを動作させて調理を行う調理ロボット1であるものとしたが、調理アーム以外の構成によって食材の調理を行うことが可能な、様々な調理ロボットにおいて料理が再現されるようにしてもよい。
以上においては、調理ロボット1の制御が制御装置12により行われるものとしたが、レシピデータを生成するデータ処理装置11により直接行われるようにしてもよい。この場合、データ処理装置11には、図36を参照して説明したコマンド生成部501の各構成が設けられる。
また、コマンド生成部501の各構成が、レシピデータ管理サーバ21に設けられるようにしてもよい。
レシピデータを管理して他の機器に提供するレシピデータ管理サーバ21のサーバ機能が、レシピデータを生成するデータ処理装置11に設けられるようにしてもよい。
図45は、調理システムの他の構成例を示す図である。
データ処理装置11が有するレシピデータ管理部11Aは、レシピデータを管理して他の機器に提供するサーバ機能を有する。レシピデータ管理部11Aが管理するレシピデータが、複数の調理ロボットや、調理ロボットを制御する制御装置に対して提供される。
・データの管理
上述したレシピデータ、調理工程データセット(調理動作情報、風味情報)などは、調理工程についての思想や感情を創作的に表現した成果物といえるものであるから、著作物と考えることもできる。
例えば、調理を行うシェフ(例えば有名店を経営するシェフなど)は、調理工程において、食材の選択や味見などの試行を繰り返しながら、創作性を有する美味しい料理を完成させる。この場合、レシピデータ、調理工程データセット(調理動作情報、風味情報)には、データとしての価値が存在することになり、他者が利用する場合にはその対価が必要となる状況も想定できる。
従って、レシピデータ、調理工程データセット(調理動作情報、風味情報)などを、音楽などと同様に、著作権管理する応用例も考えられる。
つまり、本開示では、個別のデータに対して保護機能を設ける、コピー防止、暗号化、などの著作権保護技術を用いて、個別のレシピデータ、調理工程データセットを保護することも可能である。
この場合、例えば、図25のレシピデータ管理サーバ21(図45のデータ処理装置11)は、シェフとレシピデータ(又は調理工程データセット)とを紐付ける形で、著作権管理した状態で管理する。
次に、ユーザが、レシピデータを利用して調理ロボット1に調理を行わせたい場合には、そのレシピデータに対する利用料をユーザが支払うことにより、例えば、制御装置12にダウンロードされたレシピデータを調理ロボット1における調理のために利用することが可能となる。なお、その利用料は、レシピデータの創作者であるシェフ、レシピデータを管理するデータ管理者などに還元される。
また、本開示では、データの取引履歴を台帳としてサーバで分散管理するブロックチェーン技術を用いて、個別のレシピデータ、調理工程データセットを保護することも可能である。
この場合、例えば、図25のレシピデータ管理サーバ21(図45のデータ処理装置11)は、データの取引履歴を台帳としてサーバ(クラウドサーバ、エッジサーバなど)で分散管理するブロックチェーン技術を用いて、シェフとレシピデータ(又は調理工程データセット)とを紐付ける形で管理する。
次に、ユーザが、レシピデータを利用して調理ロボット1に調理を行わせたい場合には、そのレシピデータに対する利用料をユーザが支払うことにより、例えば、制御装置12にダウンロードされたレシピデータを調理ロボット1における調理のために利用することが可能となる。なお、その利用料は、レシピデータの創作者であるシェフ、レシピデータを管理するデータ管理者などに還元される。
このように、レシピデータ(又は調理工程データセット)を、シェフ、ユーザ、利用料のそれぞれの関係を考慮して、創作的な形で表現された著作物として効率的に管理することが可能である。
・プログラムについて
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、汎用のパーソナルコンピュータなどにインストールされる。
インストールされるプログラムは、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)や半導体メモリなどよりなる図28に示されるリムーバブルメディア211に記録して提供される。また、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供されるようにしてもよい。プログラムは、ROM202や記憶部208に、あらかじめインストールしておくことができる。
コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
なお、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
1 調理ロボット, 11 データ処理装置, 12 制御装置, 21 レシピデータ管理サーバ, 41 カメラ, 42 生体センサ, 221 データ処理部, 231 調理動作情報生成部, 232 調理人生体情報生成部, 233 レシピデータ生成部, 234 レシピデータ出力部, 235 食事人生体情報取得部, 321 調理アーム, 361 コントローラ, 401 カメラ, 402 生体センサ, 403 通信部, 501 コマンド生成部, 511 レシピデータ取得部, 512 レシピデータ解析部, 513 ロボット状態推定部, 514 生体情報処理部, 515 制御部, 516 コマンド出力部

Claims (22)

  1. 料理の食材に関する情報および前記食材を用いた調理工程における調理人の動作に関する情報が記述された調理動作データと、前記調理工程の進捗に連動して計測された前記調理人の生体反応を示す調理人生体データとをリンクさせた、調理ロボットが調理動作を行う際に用いるデータセットを含むレシピデータを生成する生成部を備える
    データ処理装置。
  2. 前記調理人生体データは、前記調理人が味見を行う工程である味見工程とリンクされる
    請求項1に記載のデータ処理装置。
  3. 前記調理人生体データは、前記調理工程の進捗に連動して計測された前記調理人の感覚を示す感覚データとリンクされる
    請求項1に記載のデータ処理装置。
  4. 前記生成部は、前記調理人生体データの内容が所定の条件を満たすと判定された場合の前記味見工程とリンクされる
    請求項2に記載のデータ処理装置。
  5. 前記調理人生体データは、前記調理人の脳波の状態を示す脳波データを含む
    請求項1に記載のデータ処理装置。
  6. 前記調理人生体データは、前記調理人の顔の状態を示す顔状態データを含む
    請求項1に記載のデータ処理装置。
  7. 前記調理人生体データは、前記調理人の心拍の状態を示す心拍データを含む
    請求項1に記載のデータ処理装置。
  8. 前記調理人生体データは、前記調理人の瞳孔の状態を示す瞳孔データを含む
    請求項1に記載のデータ処理装置。
  9. 前記調理人生体データは、前記調理人が味見をした際の反応を示すデータである
    請求項1に記載のデータ処理装置。
  10. 前記生成部は、前記調理ロボットが調理した料理を食事する食事人の生体反応を示す食事人生体データに従って前記レシピデータを更新する
    請求項1に記載のデータ処理装置。
  11. 前記生成部は、前記調理工程を前記食事人毎に更新することによって、前記食事人毎の前記レシピデータを生成する
    請求項10に記載のデータ処理装置。
  12. 前記生成部は、前記調理工程を前記食事人の属性毎に更新することによって、前記属性毎の前記レシピデータを生成する
    請求項10に記載のデータ処理装置。
  13. 前記食事人生体データは、前記食事人が食事をした際の反応を示すデータである
    請求項10に記載のデータ処理装置。
  14. 前記食事人生体データは、前記食事人が食事をした際の音声の状態を示すデータである
    請求項10に記載のデータ処理装置。
  15. 前記食事人生体データは、前記食事人が食事をした際の身体の筋電の状態を示すデータである
    請求項10に記載のデータ処理装置。
  16. 前記生成部により生成された前記レシピデータに基づいて、前記調理ロボットが実行する調理動作を命令する命令コマンドを生成するコマンド生成部をさらに備える
    請求項1に記載のデータ処理装置。
  17. 前記調理ロボットは、複数のアームを備える
    請求項16に記載のデータ処理装置。
  18. 前記調理ロボットは、複数の前記アームを前記命令コマンドに従って協同させることによって調理動作を行う
    請求項17に記載のデータ処理装置。
  19. 前記レシピデータを管理し、ネットワークを介して接続された前記調理ロボットに前記レシピデータを提供するサーバ機能を実現するレシピ管理部をさらに備える
    請求項1に記載のデータ処理装置。
  20. データ処理装置が、
    料理の食材に関する情報および前記食材を用いた調理工程における調理人の動作に関する情報が記述された調理動作データと、前記調理工程の進捗に連動して計測された前記調理人の生体反応を示す調理人生体データとをリンクさせた、調理ロボットが調理動作を行う際に用いるデータセットを含むレシピデータを生成する
    データ処理方法。
  21. 料理の食材に関する情報および前記食材を用いた調理工程における調理人の動作に関する情報が記述された調理動作データと、調理ロボットが調理した料理を食事する食事人の生体反応を示す食事人生体データとをリンクさせた、前記調理ロボットが調理動作を行う際に用いるデータセットを含むレシピデータを生成する生成部を備える
    データ処理装置。
  22. データ処理装置が、
    料理の食材に関する情報および前記食材を用いた調理工程における調理人の動作に関する情報が記述された調理動作データと、調理ロボットが調理した料理を食事する食事人の生体反応を示す食事人生体データとをリンクさせた、前記調理ロボットが調理動作を行う際に用いるデータセットを含むレシピデータを生成する
    データ処理方法。
JP2019038071A 2019-03-01 2019-03-01 データ処理装置、データ処理方法 Pending JP2022063885A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019038071A JP2022063885A (ja) 2019-03-01 2019-03-01 データ処理装置、データ処理方法
PCT/JP2020/005729 WO2020179408A1 (ja) 2019-03-01 2020-02-14 データ処理装置、データ処理方法
US17/433,814 US20220142397A1 (en) 2019-03-01 2020-02-14 Data processing device and data processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019038071A JP2022063885A (ja) 2019-03-01 2019-03-01 データ処理装置、データ処理方法

Publications (1)

Publication Number Publication Date
JP2022063885A true JP2022063885A (ja) 2022-04-25

Family

ID=72338263

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019038071A Pending JP2022063885A (ja) 2019-03-01 2019-03-01 データ処理装置、データ処理方法

Country Status (3)

Country Link
US (1) US20220142397A1 (ja)
JP (1) JP2022063885A (ja)
WO (1) WO2020179408A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024025196A1 (ko) * 2022-07-26 2024-02-01 주식회사 로보아르테 능동적으로 조리 조건을 조절하는 프라잉 로봇 제어 시스템

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5196445B2 (ja) * 2009-11-20 2013-05-15 独立行政法人科学技術振興機構 料理プロセス指示装置及び料理プロセス指示方法
JP2016103042A (ja) * 2013-06-12 2016-06-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 調理スキル評価方法、調理スキル評価システム及び調理スキル評価システムを制御する制御プログラム
JP2017506169A (ja) * 2014-02-20 2017-03-02 マーク オレイニク ロボット調理キッチン内の食品調製のための方法及びシステム
US10518409B2 (en) * 2014-09-02 2019-12-31 Mark Oleynik Robotic manipulation methods and systems for executing a domain-specific application in an instrumented environment with electronic minimanipulation libraries
JPWO2020179402A1 (ja) * 2019-03-01 2020-09-10

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024025196A1 (ko) * 2022-07-26 2024-02-01 주식회사 로보아르테 능동적으로 조리 조건을 조절하는 프라잉 로봇 제어 시스템

Also Published As

Publication number Publication date
US20220142397A1 (en) 2022-05-12
WO2020179408A1 (ja) 2020-09-10

Similar Documents

Publication Publication Date Title
US11707837B2 (en) Robotic end effector interface systems
CN112068526B (zh) 用于在机器人烹饪厨房中制备食物的方法和系统
WO2020179401A1 (ja) 調理ロボット、調理ロボット制御装置、制御方法
US20230031545A1 (en) Robotic kitchen systems and methods in an instrumented environment with electronic cooking libraries
JPWO2005109246A1 (ja) 感覚データベース
WO2020179402A1 (ja) 調理ロボット、調理ロボット制御装置、制御方法
WO2020179408A1 (ja) データ処理装置、データ処理方法
US20220091586A1 (en) Data processing device and data processing method
KR20220039707A (ko) 정보 처리 장치, 정보 처리 방법, 조리 로봇, 조리 방법, 및 조리 기구