JP2022052768A - 料理支援装置、プログラム及び料理支援方法 - Google Patents

料理支援装置、プログラム及び料理支援方法 Download PDF

Info

Publication number
JP2022052768A
JP2022052768A JP2021164715A JP2021164715A JP2022052768A JP 2022052768 A JP2022052768 A JP 2022052768A JP 2021164715 A JP2021164715 A JP 2021164715A JP 2021164715 A JP2021164715 A JP 2021164715A JP 2022052768 A JP2022052768 A JP 2022052768A
Authority
JP
Japan
Prior art keywords
information
cooking
input
support device
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021164715A
Other languages
English (en)
Inventor
遼 松谷
Ryo Matsutani
瑛 長坂
Akira Nagasaka
朗士 田中
Roshi Tanaka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
X Garden
X Garden Inc
Original Assignee
X Garden
X Garden Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by X Garden, X Garden Inc filed Critical X Garden
Priority to JP2021164715A priority Critical patent/JP2022052768A/ja
Publication of JP2022052768A publication Critical patent/JP2022052768A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】料理をする人が、携帯情報端末等の情報機器を接触せずに、効率的、かつ、衛生的に調理方法を見ながら料理をする料理支援装置を提供する。【解決手段】料理支援装置は、取得ステップと、入力受付ステップと、視覚情報生成ステップとを実行する。取得ステップは、料理のレシピを含むレシピ情報を取得する。レシピ情報は、料理の複数の工程を含む。入力受付ステップは、レシピ情報に含まれる各工程を閲覧可能とするための非接触型の入力を受け付ける。視覚情報生成ステップは、非接触型の入力に基づいて、複数の工程のうちの1つを示す視覚情報を生成する。【選択図】図1

Description

本発明は、料理支援装置、プログラム及び料理支援方法に関する。
料理をする人は、携帯情報端末等の情報機器に表示されたレシピや、調理動画を参考にして、料理を作っている。
特許文献1には、調理手順を示す動画を提供する技術が開示されている。
特開2019-36306号公報
ところが、このような調理動画を見ながら料理をするのは、テキストを見ながら料理をするよりは、調理方法を理解しやすいが、動画を表示する携帯情報端末を操作しなくてはならない。特許文献1に開示されている技術では、料理を効率的かつ衛生的にすることができない。
本発明の一態様によれば、料理支援装置が提供される。この料理支援装置は、取得ステップと、入力受付ステップと、視覚情報生成ステップとを実行するように構成される。取得ステップでは、料理のレシピを含むレシピ情報を取得する。レシピ情報は、料理の複数の工程を含む。入力受付ステップでは、レシピ情報に含まれる各工程を閲覧可能とするための非接触型の入力を受け付ける。視覚情報生成ステップでは、非接触型の入力に基づいて、複数の工程のうちの1つを示す視覚情報を生成する。
このような料理支援装置によれば、料理をする人が、携帯情報端末等の情報機器を接触せずに、効率的かつ衛生的に調理方法を見ながら料理をすることができる。
料理支援装置3を含むシステム1の模式図である。 料理支援装置3のハードウェア構成を表すブロック図である。 料理支援装置3における制御手段33が担う機能を表す機能ブロック図である。 実施形態に係るレシピ情報RIの一例を表す図である。 実施形態に係る視覚情報制御部334の制御の一例を表す図である。 実施形態に係る調理情報CIの一例を表す図である。 実施形態に係る推定部337が調理器具を推定した結果の一例を表す図である。 実施形態に係る推定部337が食材の種類等を推定した結果の一例を表す図である。 実施形態に係るUIの一例を表す図である。 実施形態に係るアドバイス情報AIの一例を表す図である。 実施形態に係る評価情報EIの一例を表す図である。 実施形態に係る嗜好情報PIの一例を表す図である。 実施形態に係る料理支援方法のアクティビティ図である。
以下、図面を用いて本発明の実施形態について説明する。以下に示す実施形態中で示した各種特徴事項は、互いに組み合わせ可能である。
ところで、本実施形態に登場するソフトウェアを実現するためのプログラムは、コンピュータが読み取り可能な非一時的な記録媒体として提供されてもよいし、外部のサーバからダウンロード可能に提供されてもよいし、外部のコンピュータで当該プログラムを起動させてクライアント端末でその機能を実現(いわゆるクラウドコンピューティング)するように提供されてもよい。
また、本実施形態において「部」とは、例えば、広義の回路によって実施されるハードウェア資源と、これらのハードウェア資源によって具体的に実現されうるソフトウェアの情報処理とを合わせたものも含みうる。また、本実施形態においては様々な情報を取り扱うが、これら情報は、電圧・電流といった信号値の物理的な値、0又は1で構成される2進数のビット集合体としての信号値の高低、又は量子的な重ね合わせ(いわゆる量子ビット)によって表され、広義の回路上で通信・演算が実行されうる。
また、広義の回路とは、回路(Circuit)、回路類(Circuitry)、プロセッサ(Processor)、及びメモリ(Memory)等を少なくとも適当に組み合わせることによって実現される回路である。すなわち、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等を含むものである。
1.全体構成
本章では、本実施形態に係る料理支援装置について説明する。
1.1 料理支援装置3
図1は、料理支援装置3を含むシステム1の模式図である。図2は、料理支援装置3のハードウェア構成を表すブロック図である。システム1は、料理支援装置3と、クラウドサーバー8とを備え、これらがインターネットを通じて通信可能に構成されている。また、料理支援装置3は、通信手段31と、記憶手段32と、制御手段33と、表示手段34と、入力手段35と、追跡手段36と、センサー37と、撮像手段38とを有する。これらの構成要素が料理支援装置3の内部において通信バス30を介して電気的に接続されていてもよい。料理支援装置3は、拡張現実(Augmented Reality:AR)が実現できる装置であれば、装置の種類は限定されない。拡張現実とは、実際の景色、地形等の現実環境に、情報処理装置を使ってさらに情報を加える技術を指す。料理支援装置3は、ARを搭載した専用装置、パソコン、携帯情報端末等の機器であってもよいが、好ましくは、ユーザーがその目の周囲を覆うように装着可能に構成される装置であってもよい。例えば、ARウェアラブル端末であってもよい。
ARウェアラブル端末には、メガネ型ARウェアラブル端末、ヘッドマウントディスプレイ、時計型ウェアラブル端末等の端末があるが、実施形態では、料理支援装置3は、ARグラスと称されているメガネ型ARウェアラブル端末を例に説明するものとする。図1に表したように、ARグラス(料理支援装置3)はグラフィックディスプレイ(表示手段34)を備える。グラフィックディスプレイ(表示手段34)には、後述するレシピ情報RIを含む視覚情報VDが生成され、現実環境に重ねられる。
本実施形態において、視覚情報VDは、目で見て得られる情報であり、例えば文字で書かれた文章、絵、図等の情報である。拡張情報ADは、拡張現実のうち、特に現実環境に重ねられる仮想の視覚情報VDであるとよい。
(通信手段31)
通信手段31は、USB、IEEE1394、Thunderbolt、有線LANネットワーク通信等といった有線型の通信手段が好ましいものの、無線LANネットワーク通信、LTE/5G等のモバイル通信、Bluetooth(登録商標)通信等を必要に応じて含めてもよい。即ち、これら複数の通信手段の集合として実施することがより好ましい。特に、外付けされる入力手段35、追跡手段36及びセンサー37とは、所定の通信規格において通信可能に構成されることが好ましい。
(記憶手段32)
記憶手段32は、前述の記載により定義される様々な情報を記憶する。これは、例えばソリッドステートドライブ(Solid State Drive:SSD)等のストレージデバイスとして、あるいは、プログラムの演算に係る一時的に必要な情報(引数、配列等)を記憶するランダムアクセスメモリ(Random Access Memory:RAM)等のメモリとして実施されうる。また、これらの組合せであってもよい。特に、記憶手段32は、入力手段35及び追跡手段36が検出したデータを記憶する。また、記憶手段32は、後述する制御手段33が実行する種々の機能を実行させるプログラムを記憶する。また、記憶手段32は、これ以外にも制御手段33によって実行される料理支援装置3に係る種々のプログラム等を記憶している。
(制御手段33)
制御手段33は、料理支援装置3に関連する全体動作の処理・制御を行う。制御手段33は、例えば不図示の中央処理装置(Central Processing Unit:CPU)である。図3は、料理支援装置3における制御手段33が担う機能を表す機能ブロック図である。制御手段33は、記憶手段32に記憶された所定のプログラムを読み出すことによって、料理支援装置3に係る種々の機能を実現する。図3においては、単一の制御手段33として表記されているが、実際はこれに限るものではなく、機能ごとに複数の制御手段33を有するように実施してもよい。またそれらの組合せであってもよい。これらの各機能は、次章にて詳述する。
(表示手段34)
表示手段34は、例えば、料理支援装置3に含まれてもよいし、外付けされてもよい。料理支援装置3が、ARグラスである場合、表示手段34は、ARグラスのグラフィックディスプレイ部分である。ユーザーは、グラフィックディスプレイを通して現実世界を認識するだけでなく、グラフィックディスプレイに表示された文字や画像(外界情報)を見て拡張現実を認識することができる。料理支援装置3が、ARグラスではない場合、表示手段34は、料理支援装置3に外付け、又は内蔵されたCRTディスプレイ、液晶ディスプレイ、有機ELディスプレイ及びプラズマディスプレイ等の表示デバイスである。料理支援装置3の種類に応じて使い分けて実施することが好ましい。当該表示デバイスは、制御手段33における視覚情報生成部333の制御信号に応答し、表示画面を生成する。また、制御手段33の視覚情報制御部334の制御信号に応答して、表示画面を選択的に表示しうる。
ARグラス(料理支援装置3)のグラフィックディスプレイ(表示手段34)は、非透過両眼型、単眼型、透過両眼型等の種類があるが、限定されない。また、表示手段34の寸法、解像度、ドットピッチ等の仕様も限定されない。
(入力手段35)
入力手段35は、ユーザーからの各種指示や情報入力を受け付ける。入力手段35は、例えば、マウス等のポインティングデバイス、モード切替スイッチ等の選択デバイス、キーボード等の入力デバイスである。また、入力手段35は、グラフィカルユーザインターフェース(Graphical User Interface:GUI)やナチュラルユーザーインターフェース(タッチやジェスチャーなどの入力手段)を用いることにしてもよい。これらの入力手段35は、料理支援装置3に内蔵されてもよいし、外付けされてもよい。また、ユーザーは、音声を発して、料理支援装置3に、各種指示や情報を送ってもよい。そのため、入力手段35は、マイクロフォンであってもよい。
ナチュラルユーザーインターフェースを用いることで、ユーザーは、普段行っている自然な動作で、ARグラス(料理支援装置3)に各種指示や情報を送ることができる。換言すると、ユーザーは、手又は指の動作で、ARグラス(料理支援装置3)に、各種指示や情報を送ることができる。具体的には、後述する撮像手段38がユーザーの手又は指の動作を撮像し、後述する推定部337が、撮像された画像から、ユーザーの各種指示や情報を推定する。また、ユーザーは、手又は指の動作を認識するデータグローブを用いて、ARグラス(料理支援装置3)に、各種指示や情報を送ってもよい。手又は指の動作を認識する手段は、限定されず、認識できる全ての手段が入力手段35に含まれる。ナチュラルユーザーインターフェースとなる動作対象は、手又は指に限定されず、頭、首、腰等の体の部位全てである。
マイクロフォン(入力手段35)は、料理支援装置3に内蔵又は外付けされるもので、音を電気信号に変換する音響装置である。具体的には、マイクロフォン(入力手段35)は、空気振動を機械的振動に変え、それを電気信号に変換する。変換された電気信号は、デジタル電気信号であってもアナログ電気信号であってもよいが、通信手段31を介して、デジタル電気信号として記憶手段32に一旦保存される。
入力手段35は、ユーザーが料理中の周囲の環境状態の各種情報を入力する手段であってもよい。具体的には、入力手段35は、ユーザーが料理をしている周囲の温度、湿度、音、明るさ等の環境状態を検出するセンサー37である。
(追跡手段36)
追跡手段36は、料理支援装置3に内蔵又は外付けされる視線計測装置である。したがって、追跡手段36は、ユーザーの視線を追跡するように構成される。具体的には、追跡手段36は、目の動かない部分である基準点と動く部分である動点を検出し、基準点に対する動点の位置に基づいて、視線を非接触で検出する。視線を検出する手法は、角膜反射法であってもよいし、明/暗瞳孔法であってもよい。手法は、視線を検出できれば限定されない。追跡手段36は、目を撮像するため可視光又は赤外線のカメラを有する。撮像された画像(外界情報)に基づいて、視線の位置が算出される。
(センサー37)
センサー37は、ARグラス(料理支援装置3)に内蔵又は外付けされるもので、速度、加速度、位置等の物理量を検出して電気信号に変える装置である。具体的には、センサー37は、速度、加速度、位置等の物理量を検出するセンサーであり、ユーザーの姿勢を認識するように構成される。センサーは、接触型、非接触型のどちらでもよい。
速度センサーは動電型のセンサーであり、外力から受ける機械量を電気量に変えて、速度を検出する。加速度センサーは、圧力型、動電型等の方式があるが、限定されない。加速度センサーは、例えば、ピエゾ効果による電気抵抗の変化に基づいて、加速度を検出する。位置センサーは、対象物の直線位置又は角度位置を検出する。位置センサーは、ポテンショメータ式、光学式、磁歪等の方式があるが、限定されない。位置センサーは、例えば、磁気誘導式測定原理に基づいて、位置を検出する。
センサー37によって検出されたユーザーの料理中に動作する手等の部位の位置、動作速度、加速度等のセンサー情報は、通信手段31を介して、記憶手段32に一旦保存され、各機能部によって使用される。特に後述する保存部33dは、センサー情報を時系列に記憶手段32に保存する。
センサー37は、ユーザーの姿勢を認識するに留まらず、料理中の周囲の環境状態をセンシングしてもよい。具体的には、センサー37は、温度、湿度、音、明るさ等の環境状態を検出する。温度センサーは、熱電対、測温抵抗体、サーミスタ等のように温度差によって、電位差又は抵抗値が変化する原理に基づいて、温度を検出する。湿度センサーは、電子式高分子湿度センサー、静電容量変化型湿度センサー等のように湿度差によって、センサー素子の抵抗値やセンサーの有する誘電体の電極間の静電容量が変化する原理に基づいて、湿度を検出する。音センサーは、動電型、静電型、圧電型等に分類されるが、どの方式でも空気の振動を電気信号に変換することで、音を検出する。明るさセンサーは、検出範囲内から入射する光の量を検出するセンサーであり、光センサーとも呼ばれる。光電効果型の光センサーは、光を検出して電気信号に変換することで、光を検出する。環境センサーは、料理中の周囲の環境状態を検出するもの全てのセンサーが対象であり、ここに記載した方式に限定されない。
センサー37によって検出されたユーザーが料理をしている周囲の温度、湿度、音、明るさ等の環境状態のセンサー情報は、通信手段31を介して、記憶手段32に一旦保存させ、各機能部によって使用させてもよい。さらに、後述する保存部33dに、環境状態のセンサー情報を時系列に記憶手段32に保存させてもよい。
(撮像手段38)
撮像手段38は、料理支援装置3に内蔵又は外付けされるもので、映像を撮影するための光学機器である。具体的には、撮像手段38は、ユーザーの非接触型の入力に基づいて、撮像可能に構成される。撮像手段38は、例えば、撮像素子であるCCD(Charge Couple Devices)イメージセンサー又はCMOS(Completely Metal Oxide Semiconductor)イメージセンサーを備える。撮像素子は、撮像手段38の有するレンズから入ってきた光を電気信号に変換する電子部品である。撮像手段38の撮像素子の数、大きさ等の技術仕様は、限定されない。
撮像手段38は、対象物にレーザ光を照射して対象物までの距離を測定する測量方法を用いたLiDAR(Light Detection and Ranging)装置も含む。料理支援装置3は、撮像手段38としてLiDARを用いて、対象物の位置や形状などを検出してもよい。したがって、外界情報は、カメラ(撮像手段38)によって撮像された画像でもよいし、この画像は、静止画でも動画でもよい。さらに、外界情報は、LiDARによって計測された対象物の位置及び形状を含む計測データでもよい。
撮像手段38によって撮像された外界情報は、通信手段31を介して、記憶手段32に一旦保存させ、各機能部によって使用させてもよい。さらに、後述する保存部33dに、外界情報を時系列に記憶手段32に保存させてもよい。
1.2 クラウドサーバー8
クラウドサーバー8は、不図示の通信手段と、記憶手段と、制御手段とを備え、インターネットを介して料理支援装置3と通信可能に構成されている。料理支援装置3と、クラウドサーバー8とは、必要に応じて様々な情報のやりとりをするように実施してもよい。
2.機能構成
第2章では、本実施形態の機能構成について説明する。前述の制御手段33に関して、料理支援装置3は、取得部331と、入力受付部332と、視覚情報生成部333と、視覚情報制御部334と、タイマー制御部335と、外界情報認識部336と、推定部337と、UI生成部338と、UI制御部339と、外界情報生成部33aと、送信部33bと、情報取得部33cと、保存部33dと、変更部33eとを備える。即ち、ソフトウェア(記憶手段32に記憶されている)による情報処理がハードウェア(制御手段33)によって具体的に実現されることで、これら各部の機能が実行されうる。以下、各構成要素についてさらに説明する。
2.1 取得部331
取得部331は、取得ステップを実行するように構成される。取得部331は、後述する料理に係る各種情報を取得する。取得部331は、記憶手段32に保存されている各種情報を読み込んで取得してもよいし、外部のクラウドサーバー8の記憶手段(不図示)に保存されている各種情報を読み込んで取得してもよい。また、取得部331は、OCR(Optical character recognition)等の機器が変換した各種情報のデジタルデータを読み込んで取得してよい。取得された各種情報は、後述する各機能部によって使用される。
2.2 入力受付部332
入力受付部332は、入力受付ステップを実行するように構成される。入力受付部332は、通信手段31又は記憶手段32を介して情報を受け付け、これを作業メモリに読出可能に構成される。特に、入力受付部332は、ユーザーからの非接触型の入力を受け付けることで、制御手段33の各機能が実行される。
2.3 視覚情報生成部333
視覚情報生成部333は、視覚情報生成ステップを実行するように構成される。視覚情報VDは、ユーザーが使用するARグラス(料理支援装置3)のグラフィックディスプレイ(表示手段34)に表示される情報である。視覚情報VDは、テキストデータであってもよいし、グラフィックデータであってもよい。生成された視覚情報VDはコンピュータグラフィックス(Computer Graphics:CG)や静止画であってもよいし、動画であってもよい。例えば、視覚情報生成部333は、ユーザーからの非接触型の入力に基づいて、後述する調理情報CIを示す視覚情報VDを生成する。
2.4 視覚情報制御部334
視覚情報制御部334は、視覚情報制御ステップを実行するように構成される。視覚情報制御部334は、視覚情報を制御する。ここで、制御とは、ARグラス(料理支援装置3)のグラフィックディスプレイ(表示手段34)に表示された視覚情報VDを別の視覚情報VDに切替えたり、視覚情報VDの色や透過度を変えたりすることである。制御される視覚情報VDは、グラフィックディスプレイ(表示手段34)に表示されている情報に限らず、データとして記憶手段32に保存されている情報も含む。
さらに、制御は、ARグラス(料理支援装置3)のグラフィックディスプレイ(表示手段34)に表示された視覚情報VDをズームイン及びズームアウトさせることも含む。そのため、ユーザーは、タッチスクリーン上でスワイプ、ピンチイン、ピンチアウト等の操作をするように、指を動かすことで、視覚情報VDを制御することができる。
2.5 タイマー制御部335
タイマー制御部335は、タイマー制御ステップを実行するように構成される。タイマーは、調理時間を計測する機能を有し、視覚情報VDとして、グラフィックディスプレイ(表示手段34)に表示される。タイマーは計測機能を有しているため、動的にタイマーを表す視覚情報VDは変化する。タイマー制御部335は、非接触型の入力に基づいて、動的に変化するタイマーを制御する。換言すると、ユーザーは、音声、ジェスチャー、視線等の非接触の入力をARグラス(料理支援装置3)にすることで、調理時間を計測するタイマーを停止させたり、再開させたりできる。
2.6 外界情報認識部336
外界情報認識部336は、外界情報認識ステップを実行するように構成される。外界情報認識部336は、撮像手段38が撮像した画像(外界情報)を画像処理し、画像(外界情報)内に存在する調理器具、食材又は調味料の属性を認識する。具体的には、画像処理の手法は、2値化処理、カラー画像処理であり、本手法により、外界情報認識部336は、対象物の大きさ、形状及び色を認識することができる。画像処理の手法は、これらの手法に限定されない。画像処理の対象は、調理器具、食材又は調味料に限らず、料理をする上で必要となるすべてのものを含めてよい。また、外界情報がLiDARによって計測された対象物の位置及び形状を含む計測データのように画像以外である場合、外界情報は、予め画像データに変換されるのが好ましいが、限定されない。
2.7 推定部337
推定部337は、推定ステップを実行するように構成される。推定部337は、認識された調理器具、食材又は調味料の属性に基づいて、調理器具、食材又は調味料の種類、使用状態、体積及び重量の少なくとも1つを推定する。推定部337は、調理器具、食材又は調味料の種類、使用状態、体積及び重量等の調理に必要な情報を推定するにあたってAI(Artificial Intelligence)や機械学習の手法を用いてもよい。
2.8 UI生成部338
UI生成部338は、UI生成ステップを実行するように構成される。UI生成部338は、拡張情報ADの配置及び色を生成することで、新たなUIを生成する。UI生成部338は、ユーザーにとって視認性のよい拡張情報ADを表示するUIを、ARグラス(料理支援装置3)のグラフィックディスプレイ(表示手段34)に生成する。視認性のよい拡張情報ADの対象は、後述する料理に関する情報である。これらの拡張情報ADを表示するUIの配置や色は、エルゴノミクスやユーザーの好みを考慮して決定される。
2.9 UI制御部339
UI制御部339は、UI制御ステップを実行するように構成される。UI制御部339は、非接触型の入力に基づいて、拡張情報ADの配置、色及び透明度を制御することで、UIを制御する。UI制御部339は、ユーザーにとって視認性のよい拡張情報ADを表示するUIを、ユーザーの要求に応じて制御する。
2.10 外界情報生成部33a
外界情報生成部33aは、外界情報生成ステップを実行するように構成される。外界情報生成部33aは、撮像手段38に基づいて外界情報を生成する。具体的には、外界情報生成部33aは、ユーザーが撮像した料理の外界情報から画像データ又はLiDARデータを生成する。また、外界情報生成部33aは、記憶手段32に記憶された外界情報から画像データ又はLiDARデータを生成してもよい。画像は、静止画であっても動画であってもよい。静止画の画像データは、JPEG、GIF、PNG、TIFF、BMP等の形式であり、限定されない。動画の画像データは、AVI、MP4、MOV、MPEG、MKV、WMV、FLV、ASF等の形式であり、限定されない。LiDARデータは、ASCII、LAS等の形式であり、限定されない。
2.11 送信部33b
送信部33bは、送信ステップを実行するように構成される。送信部33bは、外界情報を外部のクラウドサーバー8に送信する。送信部33bは、外界情報に限らずセンサー情報やテキストデータも外部のクラウドサーバー8に送信する。送信部33bが、外界情報等の各種データを送信するタイミングは、限定されない。ユーザーからの要求に応じて、送信部33bが各種データを送信してもよいし、所定の時間に送信部33bが各種データを送信してもよい。
2.12 情報取得部33c
情報取得部33cは、情報取得ステップを実行するように構成される。情報取得部33cは、クラウドサーバー8を介して、各種情報を取得する。具体的に説明すると、各種情報は、電気通信回線を通じて、クラウドサーバー8から料理支援装置3に送信されて、記憶手段32に一旦保存される。情報取得部33cは、記憶手段32に保存されている各種情報を読み込んで取得する。
2.13 保存部33d
保存部33dは、保存ステップを実行するように構成される。保存部33dは、センサーより取得したセンサー情報及び外界情報を記憶手段に記憶させる。保存部33dは、ユーザーがARグラス(料理支援装置3)を使用している間、ARグラス(料理支援装置3)が取得するあらゆるデータを記憶手段32に保存することができる。センサー情報は、ARグラス(料理支援装置3)に内蔵又は外付けされた各種センサーが取得した情報である。センサー情報は、料理時間と紐付けされており、時系列の情報である。したがって、保存部33dは、センサー情報を時系列に記憶手段32に保存する。
2.14 変更部33e
変更部33eは、変更ステップを実行するように構成される。変更部33eは、指定されたルールに基づいて、又はユーザーからの変更指示に基づいて料理に関する各種情報を変更する。
3.ARグラス(料理支援装置3)の機能
第3章では、第1章及び第2章で説明したARグラス(料理支援装置3)の各機能について説明する。
3.1 料理支援の機能
図4は、実施形態に係るレシピ情報RIの一例を表す図である。レシピ情報RIは、料理をするのに必要な情報が記載されている。ユーザーは、ARグラス(料理支援装置3)の記憶手段32に予めレシピ情報RIを保存する。取得部331は、記憶手段32に保存されている料理のレシピを含むレシピ情報RIを取得する。取得部331は、クラウドサーバー8の記憶手段32に保存されているレシピ情報RIを、電気通信回線を通じて取得してもよい。取得手段は限定されない。ここで、レシピ情報RIは、料理の複数の工程を含む情報である。レシピ情報RIに含まれる各工程とは、ユーザーが理解しやすいように、料理をする手順を分割した各単位である。
入力受付部332は、レシピ情報RIに含まれる各工程を閲覧可能とするための非接触型の入力を受け付ける。入力受付部332は、特に料理中のユーザーからの入力を受け付ける。閲覧可能とは、料理支援装置3がARグラスである場合、ARグラスのグラフィックディスプレイに工程単位でレシピ情報RIが表示されて、ユーザーが視認可能となる状態である。ここで、非接触型の入力は、ユーザーの視線、音声又はジェスチャーであるが、料理中の姿勢であってもよい。入力は、これらの手段に限定されない。
視覚情報生成部333は、非接触型の入力に基づいて、複数の工程のうちの1つを示す視覚情報VDを生成する。視覚情報VDは、ユーザーが使用するARグラス(料理支援装置3)のグラフィックディスプレイ(表示手段34)に表示される情報である。ユーザーは料理中に非接触で、ユーザーの好むレシピ情報RIに含まれる各工程を閲覧することができる。レシピ情報RIは、現実世界の情報と重ねられて、拡張情報ADとして、グラフィックディスプレイ(表示手段34)に表示される。そのためユーザーは、調理を止めることなくレシピ情報RIを閲覧することができる。
視覚情報VDは、ユーザーからの非接触の入力又は画像(外界情報)の入力に基づいて視覚情報生成部333で生成される。視覚情報生成部333は、リアルタイムで視覚情報VDを生成してもよいが、時間差を設定して、ユーザーからの非接触の入力等より遅れて視覚情報VDを生成してもよい。視覚情報生成部333が視覚情報VDを生成するタイミングは、ユーザーからの要求に応じて決定される。
ARグラス(料理支援装置3)は、環境センサーを備えているため、料理中の周囲の環境状態によって、非接触の入力方式を切替えてもよい。具体的には、ARグラス(料理支援装置3)が音センサーに料理中の周囲の音量を検出させ、音量が基準値以上の場合、入力受付部332は、音声より、視線やジェスチャー等の非接触入力を優先的に受け付けてもよい。料理中の周囲の環境状態が変化しても、定常状態でユーザーは料理をすることができる。
ユーザーは、料理の進行状況に応じて、レシピ情報RIに含まれる各工程をユーザーの意図通りに閲覧できる。具体的に説明すると、入力受付部332は、レシピ情報RIに含まれる各工程を制御可能とするための非接触型の入力を受け付ける。視覚情報制御部334は、非接触型の入力に基づいて、複数の工程のうち1つを示す視覚情報VDを制御する。図5は、実施形態に係る視覚情報制御部334の制御の一例を表す図である。視覚情報制御部334が視覚情報VDを制御するトリガーとなる入力は、ユーザーの音声、ジェスチャー、視線等の非接触の入力である。図5では、ユーザーは、首を振ることで、レシピ情報RIの工程を表す拡張情報ADを変更している。具体的には、センサー37が首の動きを検知し、首の移動方向に応じて、視覚情報制御部334が拡張情報ADを制御する。
ARグラス(料理支援装置3)は、追跡手段36を備えているため入力受付部332は、レシピ情報RIに含まれる各工程を閲覧可能とするための視線の入力を受け付ける。ユーザーは、視覚情報制御部334に、視線に基づいて、視覚情報VDを制御させることができる。そのためユーザーは、調理の進行状況に応じて必要なレシピ情報RIを、料理中の動作を妨げられずに閲覧することができる。
図6は、実施形態に係る調理情報CIの一例を表す図である。調理情報CIは、料理に役立つ情報である。ユーザーは、ARグラス(料理支援装置3)の記憶手段32に予め調理情報CIを保存する。取得部331は、記憶手段32に保存されている料理の調理情報CIを取得する。取得部331は、クラウドサーバー8の記憶手段(不図示)に保存されている調理情報CIを、電気通信回線を通じて取得してもよい。取得手段は限定されない。ここで、調理情報CIは、各工程での調理に役立つ調理方法又は調理ノウハウを含む。また、調理情報CIは、食材の産地、調味料の製造メーカ等の仕入れ情報を含んでもよい。
入力受付部332は、調理情報CIを提供可能とするための非接触型の入力を受け付ける。非接触型の入力は、前述したレシピ情報RIと同様、ユーザーの視線、音声又はジェスチャーであるが、料理中の姿勢であってもよい。
調理情報CIは、料理に役立つ情報である。そのため、料理中に、ユーザーがARグラス(料理支援装置3)のグラフィックディスプレイ(表示手段34)で閲覧できるように、視覚情報生成部333は、非接触型の入力に基づいて、調理情報CIを示す視覚情報VDを生成する。ユーザーはさらに調理の進行状況に応じて必要な調理情報CIを閲覧するために、視覚情報制御部334は、非接触型の入力に基づいて、調理方法を示す調理情報CIを制御させることができる。
ARグラス(料理支援装置3)のグラフィックディスプレイ(表示手段34)にレシピ情報RI及び調理情報CIが拡張情報ADとして表示されることで、ユーザーは、非接触で料理に関する情報が得られるだけでなく、非接触で意図した情報を取得することができる。料理本や情報端末機器に表示されている調理方法を見ながら料理をするよりも、ユーザーは、効率よくかつ衛生的に料理をすることができる。また、レシピ情報RI及び調理情報CIが表示されているグラフィックディスプレイ(表示手段34)には、料理をしている現実環境も同時に表示されているため、ユーザーは、料理中の視線や動作を妨げられることなく、料理をすることができる。そのため、ユーザーは、間断なく料理をすることができるため、料理をする上でのミスも低減される。
3.2 調理時間の計測機能
ARグラス(料理支援装置3)の視覚情報生成部333は、少なくとも1つのタイマーを視覚情報VDとして生成する。ここで、タイマーは、調理時間を計測するものである。そのためユーザーは、調理時間を的確に把握できる。具体的には、入力受付部332は、タイマーを制御可能とするためのユーザーからの非接触型の入力を受け付けて、その入力に基づいて、入力受付部332は、タイマーを視覚情報VDとしてグラフィックディスプレイ(表示手段34)上に生成する。
タイマー制御部335は、非接触型の入力に基づいて、タイマーを制御する。ユーザーは、音声、ジェスチャー、視線等の非接触の入力をARグラス(料理支援装置3)にすることで、調理時間を計測するタイマーを停止させたり、再開させたりできる。食材を煮る時間を計測するタイミングを誤ってやり直すとき、レシピ情報RIとは異なるやり方をして計測時間が延長されるときにタイマー制御部335は有用である。
タイマーは、料理が並行して行われることを想定して複数用意されている。タイマー制御部335は、ユーザーからの非接触の入力に基づいて、複数のタイマーから所望のタイマーを特定して、制御する。タイマー制御部335は、同時に複数のタイマーを制御することもできる。
尚、タイマーは、指定した時刻にタイマーの拡張情報ADの色を変更させて、ユーザーに警鐘を伝えてもよいが、音声でユーザーに警鐘を伝えてもよい。
ARグラス(料理支援装置3)のグラフィックディスプレイ(表示手段34)にタイマーが拡張情報ADとして表示されることで、ユーザーは、腕時計やキッチンにある時計を見ずに、料理をすることができる。また、ユーザーは、ジェスチャーや視線の動きで、タイマーを停止させたり再開させたりできるため、ロス時間なくタイマーを制御することができる。また、ユーザーは、調理をしている数と同等数のタイマーをグラフィックディスプレイ(表示手段34)上に表示させることができる。そのため、ユーザーは、正確な調理時間で料理をすることができる。
3.3 調理用の計量器具機能
外界情報認識部336は、調理器具、食材又は調味料の属性を認識する。ここで、属性は、調理器具、食材又は調味料の形状、大きさ及び色の少なくとも1つである。ARグラス(料理支援装置3)の撮像手段38によって撮像された調理器具、食材又は調味料の外界情報は、画像データとして入力受付部332に入力され、外界情報認識部336によって、画像処理される。具体的には、画像処理の手法は、2値化処理、カラー画像処理によって、対象物の大きさ、形状及び色を認識する。画像処理の手法は、これらの手法に限定されない。画像処理の対象は、調理器具、食材又は調味料に限らず、料理をする上で必要となるすべてのものを含めてよい。
推定部337は、属性に基づいて、調理器具、食材又は調味料の種類、使用状態、体積及び重量の少なくとも1つを推定する。推定部337は、外界情報認識部336の処理の結果得られた対象物の大きさ、形状及び色等の属性と、レシピ情報RI及び調理情報CI等の調理に関する情報に基づいて調理器具、食材又は調味料の種類、使用状態、体積及び重量の少なとも1つを推定する。推定部337は、調理器具、食材又は調味料の種類、使用状態、体積及び重量等の調理に必要な情報を推定するにあたってAI(Artificial Intelligence)手法を用いてもよい。
視覚情報生成部333は、画像(外界情報)の入力に基づいて、種類、使用状態、体積及び重量の少なくとも1つを示す視覚情報VDを生成する。図7は、実施形態に係る推定部337が調理器具を推定した結果の一例を表す図である。図8は、実施形態に係る推定部337が食材の種類等を推定した結果の一例を表す図である。図8に表されたように、ユーザーは、グラフィックディスプレイ(表示手段34)を通じて、調理に必要な情報を知ることができる。
このように、推定部337が推定した調理器具の種類が、ARグラス(料理支援装置3)のグラフィックディスプレイ(表示手段34)に表示される。また、調理器具の使用状態も表示される。そのためユーザーは、レシピ情報RI及び調理情報CI等に含まれる調理器具と同じ種類のものが使用されているか、また調理器具の正しい使用状態かどうか確認することができる。ユーザーは、誤った調理器具を使用するミスを削減することができる。調理器具の推定機能は、安全面からも望まれるものである。
また、ARグラス(料理支援装置3)のグラフィックディスプレイ(表示手段34)に、食材及び調味料の計量結果が表示されるため、ユーザーは、計量器具を使用せずに食材及び調味料を非接触で計量できる。ユーザーは、計量器具を用いて計量する場合と比べて、効率よくかつ適切に料理をすることができる。さらに、ユーザーは、計量器具の購入費用を削減でき、かつ計量器具を配置するスペースを削減できる。
推定部337が調理器具、食材又は調味料の種類、使用状態、体積及び重量の少なとも1つを推定するため、ユーザーは、適正な調理器具、食材及び調味料を適正に使用して、料理をすることができる。ユーザーは、正しい調理工程で料理をするため、所望の料理の味と風味を楽しめる。
3.4 UIの設定及び変更機能
さらにユーザーは、UI生成部338にARグラス(料理支援装置3)のグラフィックディスプレイ(表示手段34)上の表示される拡張情報ADを配置させ、色付けさせることで、好みにUIを作成できる。具体的には、入力受付部332は、拡張情報ADの配置を指示する入力するための非接触型の入力を受け付ける。拡張情報ADは、料理を支援するための視覚情報VDである。UI生成部338は、ユーザーの非接触型の入力に基づいて、拡張情報ADの配置及び色を生成することで、新たなUIを生成する。
図9は、実施形態に係るUIの一例を表す図である。このように、UI生成部338は、ユーザーにとって視認性のよい拡張情報ADを表示するUIを、グラフィックディスプレイ(表示手段34)上に生成する。図9に表されているように、対象となる視認性のよい拡張情報ADは、レシピ情報RIの工程、調理情報CI、食材、調味料、調理器具、計量器具等の料理に関する情報である。これらの拡張情報ADを表示するUIの配置や色は、エルゴノミクスやユーザーの好みを考慮して決定される。UI生成部338が生成したUIにより、ユーザーは、効率よく料理をすることができる。さらに、調味料の分量や調理手順を間違えることが低減される。
ユーザーは、非接触型の入力をして、UIの作成及び変更をできるため、料理中でもUIの操作が可能である。具体的に説明すると、UI制御部339は、ユーザーからの非接触型の入力に基づいて、拡張情報ADの配置、色及び透明度を制御することで、UIを制御する。UI制御部339は、ユーザーにとって視認性のよい拡張情報ADを表示するUIを、ユーザーの要求に応じて制御する。そのためユーザーは、料理をする周囲の明るさや状況に応じて、UIを変更することができる。このUI制御部339の機能により、ユーザーは、常に最適なUIを通じてレシピ情報RIの工程及び調理情報CI等の拡張情報ADを視認することができる。
UI制御部339は、ユーザーにとって視認性のよい拡張情報ADを表示するUIを、料理中の周囲の環境状態によって制御させてもよい。具体的には、センサー37が検出した明るさが基準値より暗い場合、UI制御部339は、ユーザーにとって視認性のよい拡張情報ADを表示するUIを、明るさの規準値によって制御してもよい。このように、UI制御部339は、ユーザーにとって視認性のよい拡張情報ADを表示するため、料理中の周囲の環境状態に応じてUIを変更する。
上述したUIの設定及び変更機能によって、ユーザーは、拡張情報ADの配置、色を自分の好みに合わせることができる。拡張情報ADの配置は、ユーザーのキッチンの大きさ、レイアウトに応じて変更されるので、ユーザーは、グラフィックディスプレイ(表示手段34)に表示される拡張情報ADを見て、ストレスを感じにくくなる。その結果、ユーザーは料理に専心することができる。
さらに、センサー37が検出した料理中の周囲の明るさ等の環境状態によって、拡張情報ADが視認性よい配置、色に自動的に変更されるため、ユーザーは、料理中のミスをさらに低減することができる。
3.5 料理の知見、スキルを得るための機能
ユーザーは、料理中にARグラス(料理支援装置3)の備える撮像手段38を用いて、食材、調味料等の料理に関するものを撮像することができる。具体的には、料理支援装置3の外界情報生成部33aは、撮像手段38に基づいて画像(外界情報)を生成する。画像は、静止画であっても動画であってもよい。
ユーザーは、これらの料理に関する画像を個人的に楽しむだけでなく、料理の知見、スキルを得るために、外部の専門家に見てもらうことができる。具体的には、ARグラス(料理支援装置3)の送信部33bに、これらの撮像された画像(外界情報)を外部のクラウドサーバー8に送信させることで、アドバイス情報AIを得ることができる。図10は、実施形態に係るアドバイス情報AIの一例を表す図である。アドバイス情報AIは、クラウドサーバー8の管理者が、食材、調味料等の画像(外界情報)を確認して、作成したものである。作成されたアドバイス情報AIは、クラウドサーバー8の記憶手段に保存されるため、情報取得部33cは、クラウドサーバー8を介して、アドバイス情報AIを取得する。
アドバイス情報AIは、ARグラス(料理支援装置3)のグラフィックディスプレイ(表示手段34)に拡張情報ADとして表示させてもよい。アドバイス情報AIがグラフィックディスプレイ(表示手段34)上に表示されるため、ユーザーは料理をしている間に、アドバイス情報AIを見ながら料理をすることができる。
クラウドサーバー8の管理者は、料理研究家、料理評論家、プロの料理人等の料理に関する専門家を含むため、ユーザーは、拡張情報ADから料理の様々な知見やスキルを得ることができる。ユーザーは、ARグラス(料理支援装置3)の撮像手段38を用いて、調理中の料理、食材、完成した料理を撮像できるため、携帯情報端末のカメラ機能を使う場合と比較して、容易に画像(外界情報)が得られる。この結果、多くの画像(外界情報)によって、アドバイス情報AIが作成されるため、ユーザーへのアドバイスがより的確なものになる。ユーザーの料理に対するモチベーションがさらに高まる。
3.6 他のユーザーと一緒に料理を上達させるための機能
ユーザーは、ARグラス(料理支援装置3)の保存部33dが記憶手段32に記憶した時系列のセンサー情報を、クラウドサーバー8に送信することで、評価情報EIを得ることができる。図11は、実施形態に係る評価情報EIの一例を表す図である。評価情報EIとは、クラウドサーバーに保存されている他のユーザーのセンサー情報及び画像(外界情報)に基づいて評価された情報である。具体的には、保存部33dは、センサーより取得したセンサー情報及び画像(外界情報)を記憶手段に記憶させる。ここで、センサー情報とは、ユーザーの姿勢、ユーザーの手の位置及び動作速度のうち少なとも1つを含む情報である。このセンサー情報を解析することで、ユーザーが料理中にどのような姿勢で料理をしていたか、ユーザーが調理器具をどのように使用していたか等の料理中の動作が把握される。他のユーザーの動作と比較して解析するために、送信部33bは、センサー情報及び画像(外界情報)をクラウドサーバー8に送信する。
クラウドサーバー8上で、ARグラス(料理支援装置3)を使用しているユーザーのセンサー情報が収集されて、解析される。評価情報EIには、他のユーザーが調理中に行う動作と比較して、どのような違いがあるか、どこに課題であるのか、どのように修正すればよいのか等のコメントが含まれている。作成された評価情報EIは、クラウドサーバー8の記憶手段に保存されるため、情報取得部33cは、クラウドサーバーを介して、評価情報EIを取得する。
クラウドサーバー8上で、ARグラス(料理支援装置3)を使用しているユーザーの視覚情報が静止画像又は動画像として収集されて、解析されてもよい。評価情報EIには、他のユーザーの調理中における視覚情報と比較して、どのような違いがあるか、どこを見て料理をすればよいのか等のコメントが含まれている。
評価情報EIは、統計学に基づいて生成されるが、管理者の意見や感想も加えて生成されてもよい。具体的には、料理を調理する速度や手の位置等の動作に係る母集団のデータの平均値、分散値から、ユーザーの料理の状態が評価され、評価情報EIが生成される。評価情報EIは、統計的に解析された定量的なデータ及び前述したクラウドサーバー8の管理者の評価情報も含む。
ユーザーは、取得された評価情報EIから料理をする上での新たな課題や目標を知ることができる。このような課題や目標を把握することで、ユーザーは、料理を上達させることができる。さらに、評価情報EIは、視覚情報に基づく管理者の評価情報も含むため、ユーザーは、料理中の動作のみならず視線も含めた幅広い評価が得られる。
3.7 ユーザーの好みをアップデートさせるための機能
料理に対する嗜好は、個人々々異なる。そのため、ARグラス(料理支援装置3)が提示するレシピ情報RIは、カスタマイズされたものが好ましい。カスタマイズを実現するため、取得部331は、ユーザーの嗜好情報PIを取得する。ここで、図12は、実施形態に係る嗜好情報PIの一例を表す図である。嗜好情報PIは、ユーザーの味の好み、食欲状態及び気分のうち少なくとも1つを含む。料理支援装置3は、ユーザーに一方的にレシピ情報RI及び調理情報CIを提供するのみならず、ユーザーからの嗜好情報PIを得ることで、よりユーザーの満足するレシピ情報RI及び調理情報CIを提供することができる。嗜好情報PIは、予め記憶手段32に記憶されてもよいし、入力手段35を用いて入力されてもよい。
ユーザーの料理に対する嗜好は日々変化するものであり、ユーザーは、その日の嗜好にあったレシピの料理を求める傾向にある。そのため、料理支援装置3は、日々変化したユーザーの嗜好に応じたレシピ情報RIを提供するように、変更部33eは、嗜好情報PIに基づいて、レシピ情報RIを変更する。
変更部33eは、ユーザーからの要求に応じて、レシピ情報RIを変更してもよいし、ユーザーの生活データに基づいてレシピ情報RIを変更してもよい。ここで、生活データは、温度、湿度等の環境データ、体重データ、献立メニュー等のユーザーの嗜好に影響を与えるすべてのデータを含む。
ユーザーの好みを反映した嗜好情報PIに基づいて、レシピ情報RIが変更されることで、ユーザーは、ARグラス(料理支援装置3)を使用している間、自分の好みの料理をすることができる。また健康管理、健康維持を図るため、カロリー制限がなされた料理をすることもできる。ARグラス(料理支援装置3)は、嗜好面と健康面の双方を加味したレシピ情報RIをユーザーにて提供することができるため、ユーザーは、健康面でも安心できる自分の嗜好にあった料理をすることができる。
4.ARグラス(料理支援装置3)を用いた料理支援方法
第4章では、第1章~第3章で説明したARグラス(料理支援装置3)を用いた料理支援方法について説明する。料理支援方法は、料理支援方法は、取得ステップと、入力受付ステップと、視覚情報生成ステップとを備える。取得ステップでは、料理のレシピを含むレシピ情報RIを取得する。レシピ情報RIは、料理の複数の工程を含む。入力受付ステップでは、レシピ情報RIに含まれる各工程を閲覧可能とするための非接触型の入力を受け付ける。視覚情報生成ステップでは、非接触型の入力に基づいて、複数の工程のうちの1つを示す視覚情報VDを生成する。具体的に、この料理支援方法について説明する。
図13は、実施形態に係る料理支援方法のアクティビティ図である。以下、本図に沿って説明する。
(アクティビティA01)
ユーザーは、ARグラス(料理支援装置3)を装着する。
(アクティビティA02)
取得部331は、料理のレシピを含むレシピ情報RIを取得する。
(アクティビティA03)
入力受付部332は、レシピ情報RIを閲覧可能とするため、ユーザーからの非接触型の入力を受け付ける。
(アクティビティA04)
視覚情報生成部333は、非接触型の入力に基づいて、レシピ情報RIの有する複数の工程のうち1つを示す視覚情報VDを生成する。視覚情報VDは、ARグラス(料理支援装置3)のグラフィックディスプレイ(表示手段34)に表示される。
(アクティビティA05)
ユーザーは、グラフィックディスプレイ(表示手段34)に表示されたレシピ情報RIの有する工程を見ながら料理を創作する。
(アクティビティA06)
ユーザーは、料理が終了したかどうか判断する。継続する場合、アクティビティA07が実行される。継続しない場合、調理は完了する。
(アクティビティA07)
入力受付部332は、レシピ情報RIに含まれる各工程を制御可能とするため、ユーザーからの非接触型の入力を受け付ける。
(アクティビティA08)
視覚情報制御部334は、非接触型の入力に基づいて、複数の工程のうち1つを示す視覚情報VDを制御する。制御された視覚情報VDは、ARグラス(料理支援装置3)のグラフィックディスプレイ(表示手段34)に表示される。引続きアクティビティA05が実行される。
5.その他
下記のような態様によって前述の実施形態を実施してもよい。
(1)料理支援装置3は、音声情報生成部を備えてもよい。音声情報生成部は、非接触型の入力に基づいて、複数の工程のうち1つを示す音声情報を生成する。ユーザーは、視覚情報VDに加えて、音声情報から料理を創作することができる。ユーザーは、体調の優れていないときでも、より確実にレシピ情報RIを把握することができる。
(2)料理支援装置3は、価格取得部を備えてもよい。価格取得部は、青果物市況情報、牛肉相場日報、水産物の市況等の市場情報を取得する。取得された市場情報は、レシピ情報RIに加えられる。ユーザーは、料理に係る費用を把握することができる。
(3)価格取得部は、ユーザーの利用するスーパー、専門店等の店舗等のチラシ情報を取得してもよい。取得されたチラシ情報は、レシピ情報RIに加えられる。ユーザーは、料理に係る費用をより正確に把握することができる。
(3)料理支援装置3は、レシピ選定部を備えてもよい。取得部331は、食材保管情報を取得する。食材保管情報は、ユーザーが保管している食材及びは調味料の種類、数量、分量である。レシピ選定部は、食材保管情報に基づいてレシピ情報RIを選定する。ユーザーは、保管されている食材及び調味料を有効に使用することができる。
(4)レシピ情報RIに食材のカロリー情報が付加されてもよい。レシピ選定部は、カロリー情報に基づいてレシピ情報RIを選定する。低カロリー嗜好のユーザーは、容易にレシピを選定できる。
(5)取得部331は、ユーザーの食材の好き嫌い又はアレルギーに関する情報を取得してもよい。レシピ選定部は、食材の好き嫌い又はアレルギーに関する情報に基づいてレシピ情報RIを選定する。ユーザーは、好みの味のレシピ又は安全なレシピを得ることができる。
(6)料理支援装置3は、分量計算部を備えてもよい。取得部331は、人数情報を取得する。人数情報は、料理を食べる人の性別、年代別等の属性を考量した人数である。分量計算部は、これらの属性に基づいて、レシピ情報RIに含まれる食材及び調味料の分量を計算する。ユーザーは、適切な量の料理をすることができる。
(7)料理支援装置3は、調理時間計算部を備えてもよい。取得部331は、人数情報を取得する。人数情報は、料理を食べる人の性別、年代別等の属性を考量した人数である。調理時間計算部は、これらの属性、レシピ情報RI及び調理情報CIに基づいて標準的な調理時間を計算する。
(8)コンピュータを料理支援装置3における各ステップとして実行させるプログラムが提供されてもよい。
さらに、次に記載の各態様で提供されてもよい。
前記料理支援装置において、前記非接触型の入力は、視線、音声又はジェスチャーである、もの。
前記料理支援装置において、視覚情報制御ステップをさらに実行するように構成され、前記入力受付ステップでは、前記レシピ情報に含まれる各工程を制御可能とするための前記非接触型の入力を受け付け、前記視覚情報制御ステップでは、前記非接触型の入力に基づいて、前記複数の工程のうち1つを示す前記視覚情報を制御する、もの。
前記料理支援装置において、前記取得ステップでは、前記料理の調理情報を取得し、ここで前記調理情報は、前記各工程での調理に役立つ調理方法又は調理ノウハウを含み、前記入力受付ステップでは、前記調理情報を提供可能とするための前記非接触型の入力を受け付け、前記視覚情報生成ステップでは、前記非接触型の入力に基づいて、前記調理情報を示す前記視覚情報を生成し、前記視覚情報制御ステップでは、前記非接触型の入力に基づいて、前記調理方法を示す前記視覚情報を制御する、もの。
前記料理支援装置において、追跡手段をさらに備え、前記追跡手段は、ユーザーの視線を追跡するように構成され、前記入力受付ステップでは、前記レシピ情報に含まれる各工程を閲覧可能とするための前記視線の入力を受け付け、前記視覚情報制御ステップでは、前記視線に基づいて、前記視覚情報を制御する、もの。
前記料理支援装置において、タイマー制御ステップをさらに実行するように構成され、前記入力受付ステップでは、タイマーを制御可能とするための前記非接触型の入力を受け付け、ここで前記タイマーは、調理時間を計測するものであり、前記タイマー制御ステップでは、前記非接触型の入力に基づいて、前記タイマーを制御する、もの。
前記料理支援装置において、外界情報認識ステップと、推定ステップとをさらに実行するように構成され、前記入力受付ステップでは、前記レシピ情報に係る調理器具、食材又は調味料の外界情報の入力を受け付け、前記外界情報認識ステップでは、前記調理器具、前記食材又は前記調味料の属性を認識し、ここで前記属性は、前記調理器具、前記食材又は前記調味料の形状、大きさ及び色の少なくとも1つであり、前記推定ステップでは、前記属性に基づいて、前記調理器具、前記食材又は前記調味料の種類、使用状態、体積及び重量の少なくとも1つを推定し、前記視覚情報生成ステップでは、前記外界情報の入力に基づいて、前記種類、前記体積及び前記重量の少なくとも1つを示す前記視覚情報を生成する、もの。
前記料理支援装置において、UI生成ステップと、UI制御ステップとをさらに実行するように構成され、前記入力受付ステップでは、拡張情報の配置を指示する入力するための前記非接触型の入力を受け付け、ここで前記拡張情報は、前記料理を支援するための前記視覚情報であり、前記UI生成ステップでは、前記非接触型の入力に基づいて、前記拡張情報の配置及び色を生成することで、新たなUIを生成し、前記UI制御ステップでは、前記非接触型の入力に基づいて、前記拡張情報の配置、色及び透明度を制御することで、前記UIを制御する、もの。
前記料理支援装置において、撮像手段をさらに備え、外界情報生成ステップと、送信ステップと、情報取得ステップとをさらに実行するように構成され、前記撮像手段は、前記非接触型の入力に基づいて、撮像可能に構成され、前記外界情報生成ステップでは、前記撮像手段に基づいて外界情報を生成し、前記送信ステップでは、前記外界情報を外部のクラウドサーバーに送信し、前記情報取得ステップでは、前記クラウドサーバーを介して、アドバイス情報を取得し、ここで前記アドバイス情報とは、管理者が前記クラウドサーバーを経由して前記外界情報を確認し、それに対してアドバイスされた意見を含む、もの。
前記料理支援装置において、センサーをさらに備え、前記センサーは、ユーザーの姿勢を認識するように構成され、前記非接触型の入力は、前記姿勢である、もの。
前記料理支援装置において、保存ステップをさらに実行するように構成され、前記保存ステップでは、前記センサーより取得したセンサー情報及び前記外界情報を記憶手段に記憶させ、ここで前記センサー情報とは、ユーザーの前記姿勢、ユーザーの手の位置及び動作速度のうち少なとも1つを含む情報であり、前記送信ステップでは、前記センサー情報及び前記外界情報を前記クラウドサーバーに送信し、前記情報取得ステップでは、前記クラウドサーバーを介して、評価情報を取得し、ここで前記評価情報とは、前記クラウドサーバーに保存されている他のユーザーの前記センサー情報及び前記外界情報に基づいて評価された情報である、もの。
前記料理支援装置において、変更ステップをさらに実行するように構成され、前記取得ステップでは、ユーザーの嗜好情報を取得し、ここで前記嗜好情報は、ユーザーの味の好み、食欲状態及び気分のうち少なくとも1つを含み、前記変更ステップでは、前記嗜好情報に基づいて、前記レシピ情報を変更する、もの。
前記料理支援装置において、ユーザーがその目の周囲を覆うように装着可能に構成される装置である、もの。
プログラムであって、コンピュータに、前記料理支援装置における各ステップを実行させる、もの。
料理支援方法であって、取得ステップと、入力受付ステップと、視覚情報生成ステップとを備え、前記取得ステップでは、料理のレシピを含むレシピ情報を取得し、ここで前記レシピ情報は、前記料理の複数の工程を含み、前記入力受付ステップでは、前記レシピ情報に含まれる各工程を閲覧可能とするための非接触型の入力を受け付け、前記視覚情報生成ステップでは、前記非接触型の入力に基づいて、前記複数の工程のうちの1つを示す視覚情報を生成する、方法。
もちろん、この限りではない。
最後に、本発明に係る種々の実施形態を説明したが、これらは、例として提示したものであり、発明の範囲を限定することは意図していない。当該新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。当該実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1 :システム
3 :料理支援装置
30 :通信バス
31 :通信手段
32 :記憶手段
33 :制御手段
331 :取得部
332 :入力受付部
333 :視覚情報生成部
334 :視覚情報制御部
335 :タイマー制御部
336 :外界情報認識部
337 :推定部
338 :UI生成部
339 :UI制御部
33a :外界情報生成部
33b :送信部
33c :情報取得部
33d :保存部
33e :変更部
34 :表示手段
35 :入力手段
36 :追跡手段
37 :センサー
38 :撮像手段
8 :クラウドサーバー
AD :拡張情報
AI :アドバイス情報
CI :調理情報
EI :評価情報
PI :嗜好情報
RI :レシピ情報
VD :視覚情報

Claims (15)

  1. 料理支援装置であって、
    取得ステップと、入力受付ステップと、視覚情報生成ステップとを実行するように構成され、
    前記取得ステップでは、料理のレシピを含むレシピ情報を取得し、ここで前記レシピ情報は、前記料理の複数の工程を含み、
    前記入力受付ステップでは、前記レシピ情報に含まれる各工程を閲覧可能とするための非接触型の入力を受け付け、
    前記視覚情報生成ステップでは、前記非接触型の入力に基づいて、前記複数の工程のうちの1つを示す視覚情報を生成する、
    もの。
  2. 請求項1に記載の料理支援装置において、
    前記非接触型の入力は、視線、音声又はジェスチャーである、
    もの。
  3. 請求項1又は請求項2に記載の料理支援装置において、
    視覚情報制御ステップをさらに実行するように構成され、
    前記入力受付ステップでは、前記レシピ情報に含まれる各工程を制御可能とするための前記非接触型の入力を受け付け、
    前記視覚情報制御ステップでは、前記非接触型の入力に基づいて、前記複数の工程のうち1つを示す前記視覚情報を制御する、
    もの。
  4. 請求項3に記載の料理支援装置において、
    前記取得ステップでは、前記料理の調理情報を取得し、ここで前記調理情報は、前記各工程での調理に役立つ調理方法又は調理ノウハウを含み、
    前記入力受付ステップでは、前記調理情報を提供可能とするための前記非接触型の入力を受け付け、
    前記視覚情報生成ステップでは、前記非接触型の入力に基づいて、前記調理情報を示す前記視覚情報を生成し、
    前記視覚情報制御ステップでは、前記非接触型の入力に基づいて、前記調理方法を示す前記視覚情報を制御する、
    もの。
  5. 請求項3又は請求項4に記載の料理支援装置において、
    追跡手段をさらに備え、
    前記追跡手段は、ユーザーの視線を追跡するように構成され、
    前記入力受付ステップでは、前記レシピ情報に含まれる各工程を閲覧可能とするための前記視線の入力を受け付け、
    前記視覚情報制御ステップでは、前記視線に基づいて、前記視覚情報を制御する、
    もの。
  6. 請求項1~請求項5の何れか1つに記載の料理支援装置において、
    タイマー制御ステップをさらに実行するように構成され、
    前記入力受付ステップでは、タイマーを制御可能とするための前記非接触型の入力を受け付け、ここで前記タイマーは、調理時間を計測するものであり、
    前記タイマー制御ステップでは、前記非接触型の入力に基づいて、前記タイマーを制御する、もの。
  7. 請求項1~請求項6の何れか1つに記載の料理支援装置において、
    外界情報認識ステップと、推定ステップとをさらに実行するように構成され、
    前記入力受付ステップでは、前記レシピ情報に係る調理器具、食材又は調味料の外界情報の入力を受け付け、
    前記外界情報認識ステップでは、前記調理器具、前記食材又は前記調味料の属性を認識し、ここで前記属性は、前記調理器具、前記食材又は前記調味料の形状、大きさ及び色の少なくとも1つであり、
    前記推定ステップでは、前記属性に基づいて、前記調理器具、前記食材又は前記調味料の種類、使用状態、体積及び重量の少なくとも1つを推定し、
    前記視覚情報生成ステップでは、前記外界情報の入力に基づいて、前記種類、前記体積及び前記重量の少なくとも1つを示す前記視覚情報を生成する、
    もの。
  8. 請求項1~請求項7の何れか1つに記載の料理支援装置において、
    UI生成ステップと、UI制御ステップとをさらに実行するように構成され、
    前記入力受付ステップでは、拡張情報の配置を指示する入力するための前記非接触型の入力を受け付け、ここで前記拡張情報は、前記料理を支援するための前記視覚情報であり、
    前記UI生成ステップでは、前記非接触型の入力に基づいて、前記拡張情報の配置及び色を生成することで、新たなUIを生成し、
    前記UI制御ステップでは、前記非接触型の入力に基づいて、前記拡張情報の配置、色及び透明度を制御することで、前記UIを制御する、
    もの。
  9. 請求項1~請求項8の何れか1つに記載の料理支援装置において、
    撮像手段をさらに備え、
    外界情報生成ステップと、送信ステップと、情報取得ステップとをさらに実行するように構成され、
    前記撮像手段は、前記非接触型の入力に基づいて、撮像可能に構成され、
    前記外界情報生成ステップでは、前記撮像手段に基づいて外界情報を生成し、
    前記送信ステップでは、前記外界情報を外部のクラウドサーバーに送信し、
    前記情報取得ステップでは、前記クラウドサーバーを介して、アドバイス情報を取得し、ここで前記アドバイス情報とは、管理者が前記クラウドサーバーを経由して前記外界情報を確認し、それに対してアドバイスされた意見を含む、
    もの。
  10. 請求項9に記載の料理支援装置において、
    センサーをさらに備え、
    前記センサーは、ユーザーの姿勢を認識するように構成され、
    前記非接触型の入力は、前記姿勢である、
    もの。
  11. 請求項10に記載の料理支援装置において、
    保存ステップをさらに実行するように構成され、
    前記保存ステップでは、前記センサーより取得したセンサー情報及び前記外界情報を記憶手段に記憶させ、ここで前記センサー情報とは、ユーザーの前記姿勢、ユーザーの手の位置及び動作速度のうち少なとも1つを含む情報であり、
    前記送信ステップでは、前記センサー情報及び前記外界情報を前記クラウドサーバーに送信し、
    前記情報取得ステップでは、前記クラウドサーバーを介して、評価情報を取得し、ここで前記評価情報とは、前記クラウドサーバーに保存されている他のユーザーの前記センサー情報及び前記外界情報に基づいて評価された情報である、
    もの。
  12. 請求項1~請求項11の何れか1つに記載の料理支援装置において、
    変更ステップをさらに実行するように構成され、
    前記取得ステップでは、ユーザーの嗜好情報を取得し、ここで前記嗜好情報は、ユーザーの味の好み、食欲状態及び気分のうち少なくとも1つを含み、
    前記変更ステップでは、前記嗜好情報に基づいて、前記レシピ情報を変更する、
    もの。
  13. 請求項1~請求項12の何れか1つに記載の料理支援装置において、
    ユーザーがその目の周囲を覆うように装着可能に構成される装置である、
    もの。
  14. プログラムであって、
    コンピュータに、請求項1~請求項13の何れか1つに記載の料理支援装置における各ステップを実行させる、
    もの。
  15. 料理支援方法であって、
    取得ステップと、入力受付ステップと、視覚情報生成ステップとを備え、
    前記取得ステップでは、料理のレシピを含むレシピ情報を取得し、ここで前記レシピ情報は、前記料理の複数の工程を含み、
    前記入力受付ステップでは、前記レシピ情報に含まれる各工程を閲覧可能とするための非接触型の入力を受け付け、
    前記視覚情報生成ステップでは、前記非接触型の入力に基づいて、前記複数の工程のうちの1つを示す視覚情報を生成する、
    方法。
JP2021164715A 2020-09-23 2021-10-06 料理支援装置、プログラム及び料理支援方法 Pending JP2022052768A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021164715A JP2022052768A (ja) 2020-09-23 2021-10-06 料理支援装置、プログラム及び料理支援方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020158640A JP2022052324A (ja) 2020-09-23 2020-09-23 料理支援装置、プログラム及び料理支援方法
JP2021164715A JP2022052768A (ja) 2020-09-23 2021-10-06 料理支援装置、プログラム及び料理支援方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020158640A Division JP2022052324A (ja) 2020-09-23 2020-09-23 料理支援装置、プログラム及び料理支援方法

Publications (1)

Publication Number Publication Date
JP2022052768A true JP2022052768A (ja) 2022-04-04

Family

ID=80948580

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020158640A Pending JP2022052324A (ja) 2020-09-23 2020-09-23 料理支援装置、プログラム及び料理支援方法
JP2021164715A Pending JP2022052768A (ja) 2020-09-23 2021-10-06 料理支援装置、プログラム及び料理支援方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020158640A Pending JP2022052324A (ja) 2020-09-23 2020-09-23 料理支援装置、プログラム及び料理支援方法

Country Status (1)

Country Link
JP (2) JP2022052324A (ja)

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09282139A (ja) * 1996-04-09 1997-10-31 Sony Corp 情報提供装置
JP2002244842A (ja) * 2001-02-21 2002-08-30 Japan Science & Technology Corp 音声通訳システム及び音声通訳プログラム
JP5193988B2 (ja) * 2009-12-03 2013-05-08 東芝テック株式会社 調理補助端末及びプログラム
JP5728159B2 (ja) * 2010-02-02 2015-06-03 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
CN105074625B (zh) * 2013-04-02 2018-09-21 索尼公司 信息处理设备、信息处理方法及计算机可读记录介质
JP6891897B2 (ja) * 2016-10-07 2021-06-18 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
JP2018160036A (ja) * 2017-03-22 2018-10-11 富士通株式会社 制御プログラム、制御方法、及び情報処理装置
JP7013403B2 (ja) * 2019-02-20 2022-01-31 Kddi株式会社 食材又は調味料の使用量を推定する情報装置、プログラム及び方法
JP7361358B2 (ja) * 2019-03-06 2023-10-16 博章 守安 レシピ抽出装置、レシピ抽出方法、及びプログラム

Also Published As

Publication number Publication date
JP2022052324A (ja) 2022-04-04

Similar Documents

Publication Publication Date Title
US9996983B2 (en) Manipulation of virtual object in augmented reality via intent
KR101694089B1 (ko) 사고를 통한 증강 현실에서의 가상 물체의 조작
US10803315B2 (en) Electronic device and method for processing information associated with food
KR20170026164A (ko) 가상 현실 디스플레이 장치 및 그 장치의 표시 방법
US10102658B2 (en) Method and apparatus for providing biometric information
JP2015133033A (ja) レコメンド装置、レコメンド方法、およびプログラム
US20170337350A1 (en) User terminal apparatus and method for driving user terminal apparatus
KR20190066428A (ko) 기계학습에 기반한 가상 현실 콘텐츠의 사이버 멀미도 예측 모델 생성 및 정량화 조절 장치 및 방법
CN114450624A (zh) 用于消费者装置的光场显示器
JP2022052768A (ja) 料理支援装置、プログラム及び料理支援方法
US11462006B2 (en) Systems and methods for monitoring consumption
JP2022094784A (ja) コンテンツ提案装置、感情測定端末、コンテンツ提案システム、及びプログラム
JP2016081407A (ja) カロリー情報取得装置、サーバー装置、摂取カロリー監視システムおよびカロリー情報取得方法
US20230237714A1 (en) Method for controlling appetite using smart glasses and apparatus therefor
WO2022270001A1 (ja) 活動量算出装置および活動量算出方法
CN114930378A (zh) 信息处理装置和信息处理方法
CN117707333A (zh) 用于协作使用的可穿戴电子设备