JP2022129867A - 音声インタフェースを起動させる方法、コンピュータプログラム及び制御装置 - Google Patents

音声インタフェースを起動させる方法、コンピュータプログラム及び制御装置 Download PDF

Info

Publication number
JP2022129867A
JP2022129867A JP2021028720A JP2021028720A JP2022129867A JP 2022129867 A JP2022129867 A JP 2022129867A JP 2021028720 A JP2021028720 A JP 2021028720A JP 2021028720 A JP2021028720 A JP 2021028720A JP 2022129867 A JP2022129867 A JP 2022129867A
Authority
JP
Japan
Prior art keywords
voice
voice interface
person
thermal
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021028720A
Other languages
English (en)
Inventor
佐登志 古澤
Satoshi Furusawa
知也 藤濤
Tomoya Fujinami
真弘 林
Shinko Hayashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2021028720A priority Critical patent/JP2022129867A/ja
Priority to PCT/JP2021/048256 priority patent/WO2022181039A1/ja
Priority to CN202180094475.XA priority patent/CN116917855A/zh
Priority to EP21928132.6A priority patent/EP4300487A1/en
Publication of JP2022129867A publication Critical patent/JP2022129867A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B6/00Heating by electric, magnetic or electromagnetic fields
    • H05B6/02Induction heating
    • H05B6/10Induction heating apparatus, other than furnaces, for specific applications
    • H05B6/12Cooking devices
    • H05B6/1209Cooking devices induction cooking plates or the like and devices to be used in combination with them
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24CDOMESTIC STOVES OR RANGES ; DETAILS OF DOMESTIC STOVES OR RANGES, OF GENERAL APPLICATION
    • F24C7/00Stoves or ranges heated by electric energy
    • F24C7/08Arrangement or mounting of control or safety devices
    • F24C7/082Arrangement or mounting of control or safety devices on ranges, e.g. control panels, illumination
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24CDOMESTIC STOVES OR RANGES ; DETAILS OF DOMESTIC STOVES OR RANGES, OF GENERAL APPLICATION
    • F24C7/00Stoves or ranges heated by electric energy
    • F24C7/08Arrangement or mounting of control or safety devices
    • F24C7/082Arrangement or mounting of control or safety devices on ranges, e.g. control panels, illumination
    • F24C7/083Arrangement or mounting of control or safety devices on ranges, e.g. control panels, illumination on tops, hot plates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Combustion & Propulsion (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Chemical & Material Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Electromagnetism (AREA)
  • General Health & Medical Sciences (AREA)
  • Induction Heating Cooking Devices (AREA)
  • Electric Stoves And Ranges (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】熱機器を操作するための音声インタフェースの起動に関する技術を提供する。【解決手段】熱機器を音声コマンドで操作するための音声インタフェースを起動させる方法を提供する。方法は、(a)熱機器の設置位置から所定範囲内に人が存在するか否かを検知する処理と、(b)処理(a)の検知結果に応じて、音声インタフェースを有効化し、または無効化する処理と、(c)処理(b)によって音声インタフェースが有効化されている期間中は、音声コマンドによる熱機器の操作を許可する処理とを包含する。【選択図】図9

Description

本開示は、音声インタフェースを起動させる方法、コンピュータプログラム及び制御装置に関する。
近年、音声認識、意味分析技術の進展に伴い、音声インタフェースを備える端末・機器・ロボット、音声インタフェースを利用したサービスが飛躍的に増加している。音声インタフェースは、ユーザが機器等に音声を用いた指示(音声コマンド)を与えることにより、機器等を音声コマンドの内容に応じて操作し、機器からその出力を得るユーザインタフェースである。そのため、音声インタフェースは、GUI(Graphical User Interface)に代表される従来のユーザインタフェースに比較して、その操作性や利便性の点で優位にある。
特許文献1では、ユーザがテレビを音声で操作したい場合、そのユーザはウェイクワードを発声し、その後「テレビをつけて」等の操作内容を発声する。音声認識機能を有する装置は、音声にウェイクワードが含まれるかどうかを認識し、含まれる場合には、クラウドサービスを提供するプラットフォームに操作内容の音声を示す音声データを送信する。プラットフォームは、受信した音声データを解析して、操作内容に対応する制御データを装置に送信する。当該装置はプラットフォームから受信した制御データをテレビに送信する。これにより、操作内容が実現される。
特開2019-86535号公報
音声インタフェースでは、テレビ等から出力された音声にたまたま含まれていたワードに反応して、ユーザの意図しないタイミングでウェイクアップ(待受け)中の機器が作動することがある。ノイズ等によって音声インタフェースが動作し、ユーザの意図しない操作が行われることは本来回避されるべきである。種々の機器の中でも、例えば調理用コンロのような火力や熱を扱う熱機器については、音声インタフェースによってユーザの意図しない操作がなされないようにすることが求められている。
本開示は、熱機器を操作するための音声インタフェースの起動に関する技術を提供する。
本開示の一態様にかかる方法は、熱機器を音声コマンドで操作するための音声インタフェースを起動させる方法である。当該方法は、(a)熱機器の設置位置から所定範囲内に人が存在するか否かを検知する処理と、(b)処理(a)の検知結果に応じて、音声インタフェースを有効化し、または無効化する処理と、(c)処理(b)によって音声インタフェースが有効化されている期間中は、音声コマンドによる熱機器の操作を許可する処理とを包含する。
本開示の他の一態様にかかる方法もまた、熱機器を音声コマンドで操作するための音声インタフェースを起動させる方法である。音声インタフェースによる熱機器の操作を許可されている使用者の特徴情報は予め登録されている。当該方法は、(a)センサの出力結果を用いて、熱機器を操作しようとする操作者の特徴情報を取得する処理と、(b)処理(a)の前または後に、または、処理(a)と並列的に、熱機器の設置位置から所定範囲内に人が存在するか否かを検知する処理と、(c)処理(a)によって取得された操作者の特徴情報、予め登録された使用者の特徴情報、及び処理(b)の検知結果に応じて、音声インタフェースを有効化し、または無効化する処理と、(d)処理(c)によって音声インタフェースが有効化されている期間中は、音声コマンドによる熱機器の操作を許可する処理とを包含する。処理(c)は、(c1)処理(a)によって取得された操作者の特徴情報と、予め登録されている使用者の特徴情報とを利用して、操作者が使用者であることを認証する処理と、(c2)処理(b)によって人の存在が検知されたか否かを判定する処理と、(c3)処理(c1)によって認証が成功し、かつ、処理(c2)によって人の存在が検知された場合は、音声インタフェースを有効化する処理とを包含する。
本開示の一態様にかかるコンピュータプログラムは、上述のいずれかの動作方法を、演算部に実行させるためのコンピュータプログラムである。
本開示の一態様にかかる装置は、熱機器を音声コマンドで操作するための音声インタフェースの起動を制御する制御装置である。制御装置は、熱機器の設置位置から所定範囲内を検出可能に設置されたセンサの出力を受信する通信インタフェースと、演算部とを備えている。演算部は、(a)受信したセンサの出力に基づいて、所定範囲内に人が存在するか否かを検知する処理と、(b)処理(a)の検知結果に応じて、音声インタフェースを有効化し、または無効化する処理とを実行する。
本開示によれば、熱機器を操作するための音声インタフェースの起動に関する技術が提供される。
制御装置100を内蔵した加熱調理器1が設置されたキッチン設備の上面図 所定範囲R内にユーザ200の存在が検出されている状態で、ユーザ200が音声コマンドを発しているシーンを示す図 加熱調理器1の設置位置から所定範囲R内に人は存在せず、スマートフォン202のみが置かれているシーンを示す図 加熱調理器1の設置位置から所定範囲R内に人は存在せず、スマートフォン202のみが置かれているシーンを示す図 本開示の制御装置を内蔵する加熱調理器を示す図 制御装置と加熱調理器1とが別個の筐体に収容され、通信線を介して互いに接続されている構成例を示す図 制御装置が、サーバ装置に搭載されている構成例を示す図。 制御装置のハードウェア構成図 例示的な実施の形態に係る誘導加熱調理器の斜視図 例示的な実施の形態に係る誘導加熱調理器の制御系を示すブロック図 誘導加熱調理器の構成の概略図 操作部及び表示部の部分概略図 制御装置の演算部によって実行される処理の手順を示すフローチャート 制御装置の演算部によって実行される処理の手順を示すフローチャート
(本願発明者の知見)
ユーザが機器を音声コマンドで操作することの利点は、種々存在する。例えば、ハンズフリーで操作できるため、機器に直接触れる必要がない。ユーザは離れた所から、機器の画面を確認することなく操作できる。また、音声によって素早く制御できるため、離れた位置から咄嗟の操作が必要になった場合でもすぐに対応できる。さらに、深い階層の下方に存在する設定項目であっても音声により簡単に呼び出して入力できるため、機器の画面を見ながら行う操作とは別に多様な操作が可能で、ユーザの入力の手間を減らすことができる。
このような音声コマンドで機器を操作する場合、従来、ユーザはまずウェイクアップワードという予め決められた音声を発し、その後さらに、操作したい内容に応じた操作ワードを発声する。機器は常にマイクからの音声信号を受け取っており、発話内容にウェイクアップワードが存在するかどうかを判定する。ウェイクアップワードを認識すると、機器は自身のシステムを起動し、続く操作ワードの音声を待ち受け、操作ワードを認識した場合には、その操作ワードに対応する動作を実行する。
音声コマンドで機器を操作する場合、テレビ、ラジオ、スマートフォン等から出力された音声を、機器が誤ってウェイクアップワードであると認識し、さらにその後に出力された音声を操作ワードであると認識する可能性がある。その場合、機器は操作ワードに応じた操作内容を実行する。例えば、機器が照明器具であり、操作内容が照明の点灯である場合には、誤認識による影響は軽微である。一方、機器が、火力や熱を扱う熱機器である場合には誤認識による影響が大きくなる可能性がある。熱機器の一例は、IHコンロを有するIHクッキングヒータ、ガスコンロを有するガス調理器、ストーブである。
本願発明者は、熱機器を音声コマンドで操作する際には、火力や熱を扱わない機器(非熱機器)に固有の起動条件を課すことが好ましいと考えた。具体的には、予め機器を見渡せる範囲(所定範囲)内の人の存否を判別し、機器の音声インタフェースを有効化/無効化することが好ましいと考えた。人が存在しない場合に機器の音声インタフェースを無効化することで、熱機器は、テレビの音声をウェイクアップワードや音声コマンドであると誤認識することがなくなる。一方、所定範囲内に人が存在する場合には機器の音声インタフェースが有効化される。この場合、熱機器がノイズ等をウェイクアップワードや音声コマンドを誤認識して点火を行ってしまう可能性がある。しかしながら、人が所定範囲内に存在するため、すぐに熱機器に近付き、手動による操作で火を消すことができる。
本願発明者はさらに、人の存否を判定するだけでは十分でない場合もあると考えた。例えば、人が存在すると判別されたものの、実際には子供や家庭内のペットが「人」であると判別された場合である。「人」であると判別されているため音声インタフェースが有効化され、音声コマンドによる熱機器の操作が行われ得る。しかしながら、音声コマンドの誤認識により意図しない点火がなされた場合、火が消す操作が行われない場合が発生し得る。
そこで本願発明者は、熱機器からの所定範囲内の人の存否の判別のみならず、人の認証を行い、その結果から、音声インタフェースの有効化/無効化を行うこととした。具体的には、熱機器からの所定範囲内に人が存在すること、及び、予め登録された人であると認証されたこと、を、熱機器の音声インタフェース有効化の条件として課すこととした。これにより、音声インタフェースによって意図しない点火がなされた場合でも、ユーザによって火を消す操作が行われる。
以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、発明者は、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって特許請求の範囲に記載の主題は限定されることはない。
(実施形態1)
(1)概要
以下、図1A~図3Cを参照しながら、本開示の実施形態に係る制御装置の概要を説明する。以下の実施形態の説明では、熱機器は加熱調理器であるとする。加熱調理器は、例えば電力を用いて調理容器を誘導加熱するIH(Induction Heating)クッキングヒータ、ガスを燃焼させて調理容器を加熱するガス調理器である。以下では、加熱調理器はIHクッキングヒータであるとする。
図1Aは、制御装置100を内蔵した加熱調理器1が設置されたキッチン設備の上面図である。加熱調理器1は赤外線センサ52を備えている。赤外線センサ52は、赤外線センサ52から所定範囲R内に存在する熱源から放射される赤外線を検出する。制御装置100は、加熱調理器1の赤外線センサ52から出力信号を受け取り、熱源が存在するか否かを判定する。典型的には、「熱源」は人であり、「所定範囲R」は赤外線センサ52が熱源を検出可能な範囲である。本明細書では、「所定範囲R」は赤外線センサ52を中心とする約2mの半円形の平面領域または半球形の空間を意味する。本明細書において、赤外線センサ52から所定範囲、という語は、加熱調理器1の設置位置から所定範囲、と同じ意味である。
赤外線センサ52の出力信号を受け取ると、制御装置100は、当該出力信号に基づいて加熱調理器1の設置位置から所定範囲R内の人の存否を判別する。図1Aには、所定範囲R内に存在するユーザ200が示されている。このとき制御装置100は、加熱調理器1の音声インタフェースを有効化する。音声インタフェースが有効化されている期間中は、制御装置100は、音声コマンドによる加熱調理器1の操作を許可する。
図1Bは、所定範囲R内にユーザ200の存在が検出されている状態で、ユーザ200が音声コマンドを発しているシーンを示している。このとき制御装置100は音声インタフェースを有効化している。ユーザ200が、所定のウェイクアップワードを発声した後、「右IH」及び「点火して」という音声コマンドを順次発声する。ユーザ200が発声した音声は、加熱調理器1のマイク50によって取得され、制御装置100に送られる。制御装置100は、当該音声コマンドに応答して、加熱調理器1の加熱部7~9のうちの「右IH」に対応する加熱部8を点火するよう加熱調理器1に指示する。これにより、ユーザ200は音声コマンドを用いて加熱調理器1を操作することができる。なお加熱調理器1上に本来載置されるべき鍋等の記載は便宜的に省略した。
図2A及び図2Bは、加熱調理器1の設置位置から所定範囲R内に人は存在せず、スマートフォン202のみが置かれているシーンを示している。人の存在が検出されないため、制御装置100は加熱調理器1の音声インタフェースを無効化している。そのため、スマートフォン202上で再生されている動画等に、たまたま、ウェイクアップワードが音声として含まれ、さらに「右IH」「点火」という音声が含まれていたとしても、制御装置100は音声コマンドによる加熱調理器1の操作を許可しない。したがって、図1Bの例と異なり、加熱調理器1の加熱部8は点火されることはない。
このように、制御装置100は、加熱調理器1の設置位置から所定範囲R内に人が存在するか否かを検知する処理(a)と、検知結果に応じて、加熱調理器1の音声インタフェースを有効化し、または無効化する処理(b)と、音声インタフェースが有効化されている期間中は、音声コマンドによる加熱調理器1の操作を許可する処理(c)とを実行する。音声インタフェースが有効化されている状況下で、音声コマンドが誤認識されて、ユーザ200にとって意図しない動作を加熱調理器1が行ったとしても、ユーザ200がすぐに加熱調理器1に近付き、手で操作して動作を停止させることができる。
図3Aは、本開示の制御装置100を内蔵する加熱調理器1を示している。本実施形態では、IHクッキングヒータである加熱調理器1は、3つのIHヒータである加熱部7~9を有する。加熱調理器1は、IHヒータまたはヒータを熱源とするグリルを有していてもよい。また加熱調理器1は、人の存在を検出するための赤外線センサ52と、音声認識のためにユーザ200の音声を取得するマイク50とを有している。
赤外線センサ52は、例えば人間の放射のエネルギーピークが存在する10マイクロメートル付近の波長に感度を有するセンサを採用できる。赤外線センサ52として、例えば焦電型赤外線人感センサを用いてもよいし、例えば画素数320×240の熱画像を出力可能な赤外線CCDカメラを使用することができる。センサ出力信号はアナログ信号であるが、加熱調理器1内のA/D変換器(図示せず)でデジタル信号に変換されて、制御装置100に伝送される。
制御装置100は、赤外線センサ52からの出力信号及びマイク50からの音声信号を受け取るよう、加熱調理器1の内部で加熱調理器1と接続されている。これにより、上述の処理(a)~(c)を実現できる。以下、本明細書では、赤外線センサ52からの出力信号を「センサ出力信号」と呼ぶことがある。
図3Aでは、制御装置100は加熱調理器1に内蔵されていたが、他の構成例も考えられる。図3Bは、制御装置100と加熱調理器1とが別個の筐体に収容され、通信線140を介して互いに接続されている構成例を示している。制御装置100は、センサ出力信号、及び、マイク50からの音声信号を、通信線140を介して受信する。制御装置100はセンサ出力信号に基づいて音声インタフェースを有効化し、または無効化する。音声インタフェースが有効化されている期間中は、制御装置100は音声認識処理を行い、認識結果に応じて加熱調理器1を動作させるための制御信号を、通信線140を介して加熱調理器1に送信する。音声インタフェースが無効化されている期間中は、制御装置100は音声認識処理を停止する。
図3Cは、制御装置100が、サーバ装置150に搭載されている構成例を示している。換言すると、サーバ装置150が上述の制御装置100の機能を有している。サーバ装置150は、センサ出力信号、及び、マイク50からの音声信号を、通信ネットワーク160を介して受信可能である。
以上のいずれの構成によっても、上述の動作を実現することができる。なお、人の存否検知処理と、音声認識処理と、制御信号の生成処理及び出力処理とが、1つの制御装置100内で行われる必要はない。例えば図3Aの制御装置100が人の存否検知処理を行い、外部のサーバ装置が音声認識処理を行い、制御装置100が音声認識結果を受け取ってもよい。制御装置100は、サーバ装置の認識結果に応じて制御信号を加熱調理器1に送信すればよい。また、例えば図3Bの構成において、加熱調理器1と制御装置100との間の通信は有線ではなく無線で行われてもよい。さらに図3Cの構成においても、加熱調理器1と通信ネットワーク160との間の通信の少なくとも一部は、無線で行われてもよい。
上述した有線による通信及び無線による通信は、公知の通信規格にしたがって行われ得る。例えば、有線通信は、イーサネット(登録商標)規格、USB(登録商標)規格等に準拠して行われ得る。無線通信は、LAN(Local Area Network)に関するIEEE802.11規格、移動体通信に関する、いわゆる4G/5Gと呼ばれる、第4世代/第5世代移動通信システム等に準拠して行われ得る。
(2)詳細
以下、図4~図8を参照しながら、制御装置100及び加熱調理器1の構成を説明する。その後、図9及び図10を参照しながら、制御装置100の動作を説明する。以下の説明では、図3Aに示す構成例に準じて説明する。
《制御装置》
図4は、制御装置100のハードウェア構成図である。
制御装置100は、演算部102と、記憶部104と、入力インタフェース(I/F)106と、出力インタフェース(I/F)108とを有している。
演算部102は、後述の処理を実行する演算回路であり、例えばCPU、マイクロコントローラ(マイコン)などの信号処理回路を含む。
記憶部104は、データの書き込み及び読み出しが可能な、1または複数の記憶装置である。そのような記憶装置の一例は、ROM、RAM、フラッシュメモリ、ハードディスクドライブ、SSDである。本実施形態では、記憶部104は、RAM104a及びフラッシュメモリ104bを含む。
入力I/F106及び出力I/F108は、加熱調理器1の内部バス(図示せず)に接続されている。入力I/F106は、センサ出力信号及び加熱調理器1のマイク50から出力された音声信号を受け取る。出力I/F108は、後述の加熱調理器1の制御部に制御信号を出力する。
以下、記憶部104をより詳細に説明する。
RAM104aは、演算部102によって実行されるコンピュータプログラムを保持している。本実施形態では、RAM104aは、音声認識エンジン110と、存否判定プログラム112とを保持している。音声認識エンジン110を実行することにより、演算部102は、入力I/F106を介して受信した音声信号に含まれている、ユーザ200が発したワードを認識することができる。音声認識エンジン110による認識処理には、既存の任意の音声認識技術を利用することができる。音声認識技術の具体的な内容の説明は省略する。
存否判定プログラム112を実行することにより、演算部102はセンサ出力信号から人の存否を検出する。例えば、赤外線センサ52が焦電型赤外線人感センサである場合、存否判定プログラム112はセンサ出力信号が所定の閾値を超えているか否かを判定する処理を含む。センサ出力信号が所定の閾値を超えている場合には、人が存在すると判定される。赤外線センサ52が熱画像を出力可能な赤外線CCDカメラである場合、存否判定プログラム112は熱画像中に、人の形状パターンが含まれているか否かを判定する処理を含む。人の形状パターンが含まれている場合には人が存在すると判定される。
フラッシュメモリ104bは、ウェイクアップワードデータ120と、操作ワード群122とを格納している。ウェイクアップワードデータ120はウェイクアップワードを示している。ウェイクアップワードは、固定されたワードでもよいし、ユーザが変更可能であってもよい。
各ウェイクアップワードには、制御コマンドが対応付けられている。制御コマンドは、どの加熱部が音声コマンドによる操作対象であるかを示す命令である。加熱調理器1の制御部31は、制御コマンドによって指定された加熱部を操作対象として処理を行う。
加熱調理器1または制御装置100の出荷時において、各ウェイクアップワードのデフォルト値が設定されている。任意のウェイクアップワードは、ユーザ200によって変更され得る。1または複数のウェイクアップワードが変更されたときは、フラッシュメモリ104bは、演算部102の制御により、既存のウェイクアップワードを変更後のウェイクアップワードに書き換える。なお制御コマンドは書き換えられない。
操作ワード群122は、種々の操作ワードの集合である。表1は、操作ワード群122の一例を示している。
Figure 2022129867000002

各操作ワードには、制御コマンドが対応付けられている。制御コマンドは、どのような操作を行うかを示す命令である。加熱調理器1の制御部31は、制御コマンドによって指定された加熱部に対して指定された動作を実行する。
演算部102は、上述の音声認識エンジン110、ウェイクアップワードデータ120及び操作ワード群122を用いることにより、ユーザ200が発した音声に、ウェイクアップワードが含まれているか否か、含まれている場合にはどの加熱部に対応するウェイクアップワードなのかを認識することができる。また、その後も音声認識を継続することにより、ユーザ200が発した音声に、操作ワードが含まれているか否か、含まれている場合にはどのような操作ワードなのかを認識することができる。
《加熱調理器》
以下、図5から図8を参照しながら、本開示の実施の形態に係る誘導加熱調理器を説明する。
図5は、例示的な実施の形態に係る誘導加熱調理器1の斜視図である。図6は、実施の形態に係る誘導加熱調理器1の制御系を示すブロック図である。図7は、誘導加熱調理器1の構成を概略的に示す図である。
本開示にかかる図面の一部にはX軸、Y軸および/またはZ軸が表示されている。誘導加熱調理器の使用時に使用者が誘導加熱調理器に対向したとき、X軸方向は、加熱調理器の幅方向(長手方向)を示し、Y軸方向は奥行き方向(短手方向)を示し、Z軸方向は高さ方向を示す。また、X軸の正の方向を右方、負の方向を左方とする。また、Y軸の正の方向を後方、負の方向を前方とする。
《誘導加熱調理器》
まず、本開示にかかる誘導加熱調理器1の一般的な構成を説明する。なお、赤外線センサ52については既に説明したため、再度の説明は省略する。
図5に示すように、誘導加熱調理器1は、本体3と、本体3の上面に容器が載置されるトッププレート5とを有する。容器には、例えば、シチューなどの調理対象としての食材を収容する、被加熱物である容器が収容されている。
誘導加熱調理器1の本体3の内部、より具体的には、誘導加熱調理器1のトッププレート5における容器載置領域の下側(-Z側)の位置には、加熱コイル7、8、9が配置されている。加熱コイル7~9は、容器を誘導加熱するために誘導磁界を発生させる。なお、加熱調理器1は3個の加熱コイル7~9を備えるが、1個、2個または4個以上の加熱コイルを備えてもよい。
誘導加熱調理器1では、例えば、加熱コイル7、8、9のそれぞれを操作するために物理的に操作可能な操作部19、20、21が設けられている。つまり、加熱コイル7、8、9のそれぞれは、操作部19、20、21のそれぞれと「対応」する。このように、本明細書では、加熱コイル7、8、9のそれぞれに対して設けられた構成要素のことを、加熱コイルに「対応する」構成要素と呼ぶ。
図5に示すように、加熱コイル7~9の上側(+Z側)のトッププレート5上には、加熱コイル7、8、9のそれぞれに「対応」して、容器載置領域を示すリング状のマーカ11、12、13が印刷されている。
上面視において、トッププレート5上の、加熱コイル7、8のそれぞれの外側には、リング状に光る発光部15、16が配置されている。また、トッププレート5上の、加熱コイル9の前側(-Y側)には、円弧形状の発光部17が配置されている。発光部15~17は、例えば、対応するそれぞれの加熱コイル7~9に電流が流れているときに発光する。発光部15~17は、それぞれ、例えば、不図示のLED発光基板を有する。
また、マーカ11~13内側の、トッププレート5の下側には温度センサ18が配置されている。温度センサ18が検出した検出値は、制御部31へ送られる。制御部31は、温度検出値を参照しながら、加熱コイル7~9に流れる電流量を調整し、調理方法のアシスト案内をするタイミングを決定する。
誘導加熱調理器1のトッププレート5の前側(-Y側)には、操作部19、20、21が配置されている。操作部19、20、21は、加熱コイル7~9のそれぞれを操作するためにユーザによって利用される。操作部19は加熱コイル7を操作し、操作部20は加熱コイル8を操作し、操作部21は加熱コイル9を操作するために設けられている。本明細書では、操作部19は加熱コイル7に対応し、操作部20は加熱コイル8に対応し、操作部21は加熱コイル9に対応する。
誘導加熱調理器1のトッププレート5の前側、加熱コイル7~9と操作部19~21との間には、表示部23、24、25がそれぞれ配置されている。表示部23、24、25は、それぞれ、操作部19~21の操作対象の状態を表示する。表示部23~25の動作は、後述する制御部31によって制御される。
表示部23~25は、それぞれ、例えば、マトリックス・ドット液晶表示装置を備えている。マトリックス・ドット液晶表示装置は、例えば、トッププレート5の幅方向に延びた帯形状を有する、フルドット液晶表示パネルである。
表示部23~25は、それぞれ、操作対象の状態、加熱コイル7~9の動作の内容等を画像オブジェクトで表示する。例えば、表示部23は加熱コイル7の動作の内容を表示し、表示部24は加熱コイル8の動作の内容を表示し、表示部25は加熱コイル9の動作の内容を表示する。
画像オブジェクトは文字および/または画像である。例えば、画像オブジェクトは「加熱」という文字である。このとき、誘導加熱調理器1では、その表示部23~25に対応する加熱コイル7~9を用いて加熱動作が可能であることを示している。また、表示部23~25は、「加熱」という文字とともに、加熱の開始を示す「スタート」という文字の画像オブジェクトを表示してもよい。加熱が開始された後は、表示部23~25は、加熱コイル7~9の加熱量(火力)の大きさを示す数字、アイコン等の画像オブジェクトを表示してもよい。
なお、表示部23~25は、セグメント表示の液晶表示装置であってもよい。1または複数のセグメントを用いて表示される文字および/または画像は、上述の画像オブジェクトの範疇である。
本体3は、加熱コイル7~9の加熱に関する情報を音声出力するスピーカ27を備える。スピーカ27は、誘導加熱調理器1の前面側に配置され、ユーザに対して音声案内を出力する。
図6に示すように、誘導加熱調理器1は、本体3の内部に、制御部31、及び、記憶部33を備える。制御部31は、例えばCPU、マイクロコントローラ(マイコン)などの信号処理回路を含む。記憶部33は、ROM、RAM、ハードディスクドライブ、SSDなどの記憶装置である。記憶部33は、誘導加熱調理器1を動作させるためのコンピュータプログラムを記憶している。制御部31は当該コンピュータプログラムを実行することによって後述する種々の機能を果たすように構成されている。
コンピュータプログラムを実行した制御部31は、その時々において、加熱コイル7~9に流す電流量を制御するコイル制御部35、表示部23~25の表示領域を制御する案内情報制御部37、案内情報の表示出力を制御する案内情報制御部45、及び、調理案内の情報出力を制御する調理案内制御部47として機能する。ただし、コイル制御部35、案内情報制御部37、および調理案内制御部47の一部または全部は、ソフトウェア的に実現されなくてもよく、1つまたは複数のCPU、マイクロプロセッサ、FPGAから構成されてもよい。
操作部19~21の出力信号は制御部31に入力される。制御部31は操作に応じて加熱コイル7~9の加熱量等を設定する。操作部19の操作指示に応じて、コイル制御部35として機能する制御部31は、加熱コイル7の加熱の開始又は停止を制御する。コイル制御部35は、加熱コイル7~9に高周波電流を供給してトッププレート5に載置された容器の加熱を行う。また、コイル制御部35は、加熱コイル7~9に流す電流量を制御することで、加熱コイル7~9からの加熱量を制御する。また、操作部19~21の出力信号は制御部31に入力されているので、案内情報制御部37および調理案内制御部39として機能する制御部31の動作の制御にも利用される。
調理案内制御部39は、予め定められた加熱シーケンスまたは調理シーケンスにしたがって、適切な条件が成立したタイミングで調理案内情報を案内情報制御部37に送る。適切な条件とは、温度センサ18による検出温度が予め定められた温度条件を満たすか否か、または、検出温度が予め定められた温度に達してから予め定められた時間経過したか否か等の条件である。調理案内するアシストメニューごとに、これらの条件が設定されている。調理案内制御部39が、これらの条件を満たしたと判断すると、調理案内制御部39は、その条件に対応した調理案内を表示部23~25から表示するように案内情報制御部37に指示する。これらの加熱シーケンス、調理シーケンス、及び調理案内は記憶部33に記憶されている。
制御部31は、制御信号を受け取ると、制御信号に含まれる制御コマンドを解析する。制御装置100がウェイクアップワードを認識した後、操作ワードを認識したときは、制御装置100は制御コマンドによって、操作対象となる加熱部を指定し、操作内容を指定する。
《表示部と操作部》
次に図8を参照して、表示部23~25および操作部19~21を説明する。操作部19~21は、それぞれ、第1操作部51、第2操作部53、第3操作部55、及び、第4操作部57を備える。第1操作部51~第4操作部57は、例えば、静電容量式のスイッチを含むタッチスイッチでもよいし、押しボタンスイッチでもよい。第1操作部51~第4操作部57は、対応する加熱コイル7~9の加熱動作を設定する。第1操作部51は、時計の模様が印刷されており、主に、タイマー設定を選択するのに用いられる。第2操作部53及び第3操作部55は、それぞれ矢印の模様、例えば「<」、「>」の記号、が印刷されており、主に、メニュー選択および火力量やタイマー時間を設定するのに用いられる。第4操作部57は、操作部と対応する加熱領域を示す模様が印刷されており、状況に応じて異なる機能が割り当てられる多機能スイッチとして機能する。電源スイッチ22は、誘導加熱調理器1の電源を投入する機能を有する。電源スイッチ22は、さらに誘導加熱調理器1の電源を遮断する機能を有していてもよい。電源スイッチ22とは別に、電源を遮断するためのスイッチが設けられていてもよい。
《制御装置の動作》
図9は、制御装置100の演算部102によって実行される処理の手順を示すフローチャートである。
ステップS10において、演算部102は、加熱調理器1の赤外線センサ52から、センサ出力信号を取得する。
ステップS12において、演算部102は、加熱調理器1の設置された位置から所定範囲R内に人が存在するか否かを判定する。人が存在しない場合には処理はステップS14に進み、人が存在する場合には処理はステップS16に進む。
ステップS14において、演算部102は、音声インタフェースを無効化する。「無効化する」と方法は種々考えられる。例えば、加熱調理器1のマイク50の動作を停止させること、マイク50で音声信号を取得するが制御装置100が音声信号の取得を停止すること、制御装置100は音声信号を取得するがその解析を停止すること、等を含み得る。
ステップS16において、演算部102は音声インタフェースを有効化する。すなわち演算部102は、マイク50から出力された音声信号を取得し、音声信号の解析を行うことが可能な処理に切り替える。
ステップS18において、演算部102は音声コマンドによる操作を許可する。例えば演算部102はウェイクアップワードを受け付ける待ち受けモードに移行し、ウェイクアップワードを検出した後は、操作ワードの待ち受けを行う。演算部102は、操作ワードを受け付けた場合、操作ワードに応じた加熱調理器1の制御を実行する。
(実施形態2)
本実施形態では、加熱調理器1が設置された位置から所定範囲R内に人が存在すること、及び、加熱調理器1のユーザが予め登録されたユーザであると認証されることの両方が満足された場合に、音声インタフェースが有効化される。認証を含めることにより、加熱調理器1を操作可能なユーザが、加熱調理器1の動作をより的確に監視することができる。例えば赤外線センサ52によって子供やペット等が人として認識され、音声インタフェース利用時に音声コマンドが誤認識されて加熱調理器1が意図しない動作を行った場合でも、そのユーザが加熱調理器1を直接操作して動作を停止させることができる。
図10は、本開示の例示的な第2の実施形態にかかる処理の手順を示すフローチャートである。図10では、図9の処理と同じ処理には同じ参照符号を付し、再度の説明は省略する。
ステップS10に続くステップS20において、演算部102は検出信号から特徴情報を取得する。特徴情報は、個々のユーザを識別可能な特徴を示す情報をいう。「特徴」は種々考えられる。例えば、特徴は、声紋、指紋、顔画像、静脈パターン、虹彩パターン、身長及び、行動パターンのうちから選択された少なくとも1つであり得る。例えば当該特徴が声紋である場合、演算部102は、マイク50において検出したユーザの音声信号を検出信号とし、検出信号から声紋を取得する。特徴が指紋である場合、演算部102は、不図示の指紋センサの出力信号を検出信号として指紋を取得する。特徴が、顔画像、静脈パターン、虹彩パターン及び身長のいずれかの場合には、各々を検出可能な感度または視野を有する撮像装置の検出信号が利用される。特徴が行動パターンである場合には、例えば、ある一定期間のユーザの加熱調理器1の操作履歴が利用され得る。
ステップS22において、演算部102は、取得した特徴情報と、予め登録された特徴情報とが一致したか否かを判定する。この判定処理の前提として、ステップS20で取得される特徴と同じ種類の特徴が、予め制御装置100に登録されている。例えば、加熱調理器1を操作可能なユーザの特徴情報を予め登録しておくことが考えられる。
以上説明したように、本実施形態では、音声インタフェースを有効化/無効化する判断のために、人の特徴情報を取得する処理と、取得された人の特徴情報と、予め登録されている使用者の特徴情報とを利用して、人が使用者であることを認証する処理と、人の存在を検出する処理と、認証が成功し、人の存在が検出された場合に、音声インタフェースが有効化される。
なお、順序に関して、ステップS12の処理は、ステップS20の処理とは独立して決定することができる。例えば、ステップS20の処理の前または後にステップS12の処理を行ってもよい。または、ステップS20の処理と並列的に、ステップS12の処理を行ってもよい。なお、ステップS12の処理は、ステップS22の処理とも独立して決定することができる。なおステップS22は、ステップS20の後に実行されればよい。
(3)変形例
以下、変形例を説明する。
上述の説明において、所定範囲Rは、赤外線センサ52が熱源を検出可能な範囲である例であると説明したが、センサの検出可能範囲を調整または制限することによって決定されてもよい。
上述の実施形態では、所定範囲R内の人の存否の検出に赤外線センサ52の検出結果を利用したが、他のセンサの出力結果を利用して人の存否を検出してもよい。例えば、他のセンサの出力結果として、人の接触を検知可能な接触センサの出力、イメージセンサによって取得された画像の認識結果、マイクによって取得された音声の認識結果、赤外線センサによって取得された熱画像の認識結果、および/または、生体センサによって取得されたバイタルサインの出力である。人の接触を検知することの中には、例えば加熱調理器1による操作の検出、トッププレート上に配置した接触センサによる検出、フットスイッチの押下による検出が含まれる。接触センサとして、例えば静電容量の変化を検出する静電容量センサが含まれ得る。これらは加熱調理器1からの距離を所定範囲R内に限定して設置することが可能である。なお、マイクによって取得された音声の認識結果に関しては、例えば、取得された音声信号の振幅が所定値以上あれば人が所定範囲R内に存在していると判定し、所定値未満であれば人が所定範囲R内に存在していないと判定することができる。
上述の他のセンサの出力結果として、特に、マイクによって取得された音声の認識結果は除外し、それ以外の出力結果を利用すると、音声の誤認識によって認証が成功してしまう可能性を排除できる。
加熱調理器1で加熱調理を行っている間は、加熱調理器1の近傍に人が存在することが好ましい。制御装置100は、音声インタフェースが有効な状態であっても、所定の時間間隔で、例えば5秒ごとに、人の検出処理を継続して実行する。加熱動作が開始された後、人の存在が検知されなくなった場合、制御装置100の演算部102は、加熱動作を停止する制御信号を出力してもよい。このとき、有効化されていた音声インタフェースは無効化される。あるいは、演算部102は、人の存在が検知されなくなった後、予め定められた期間の経過後に加熱動作を停止する制御信号を出力してもよい。これにより、加熱調理器1の操作者が一時的に加熱調理器1から離れることを許容することができる。
加熱動作を停止する制御信号を出力する際には、演算部102は自身の記憶部104に、または加熱調理器1の記憶部33に、加熱動作の動作条件の情報を保存してもよい。この動作条件の情報とは、例えば、加熱動作を行っていた加熱部を特定する情報、火力の値を特定する情報等である。
加熱動作を停止させた後、人が戻り、人の存在を再度検出した場合には、演算部102は、保存された動作条件の情報を用いて加熱動作を自動的に再開してもよい。人が存在しなくなると自動的に加熱動作が停止され、人が戻ってくると加熱動作が同じ条件で再開されるため、ユーザに高い利便性を提供することができる。なお、加熱動作を自動的に再開されることに代えて、演算部102は、保存された動作条件を用いて加熱動作を再開するか否かの指示をユーザから受け付けてもよい。演算部102は、加熱を行っていた加熱部に対応する加熱調理器1の表示部23~25にメッセージを表示させ、操作部19~21への入力に基づいて、加熱を再開するか否かを決定することができる。
ユーザは、音声インタフェースが有効化されているか無効化されているかを知りたい場合がある。そのため、表示部23~25やスピーカ27を介して、音声インタフェースが有効化されたこと、および/または無効化されたことを報知してもよい。
以上、本開示にかかる誘導加熱調理器1の実施の形態を説明した。上述したフローチャートによる処理は、コンピュータプログラムによって制御部31の動作として実現される。そのようなコンピュータプログラムは、記憶部33に記憶され、制御部31によって実行され得る。
(4)態様
上記実施の形態及び変形例から明らかなように、本開示は、下記の態様を含む。以下では、上記実施の形態との対応関係を明示するためだけに、符号を括弧付きで付している。
第1の態様は、熱機器(1)を音声コマンドで操作するための音声インタフェースを起動させる方法である。方法は、(a)熱機器の設置位置から所定範囲(R)内に人が存在するか否かを検知する処理(S12)と、(b)処理(a)の検知結果に応じて、音声インタフェースを有効化し、または無効化する処理(S14、S16)と、(c)処理(b)によって音声インタフェースが有効化されている期間中は、音声コマンドによる熱機器の操作を許可する処理(S18)とを包含する。
第2の態様は、第1の態様に基づく方法である。音声インタフェースによる熱機器の操作を許可されている使用者の特徴情報が予め登録されている。方法の処理(b)は、(b1)処理(a)によって人の存在が検知された場合に、存在を検知された人の特徴情報を取得する処理(S20)と、(b2)処理(b1)において取得された人の特徴情報と、予め登録されている使用者の特徴情報とを利用して、人が使用者であることを認証する処理(S22)と、(b3)処理(b2)によって認証が成功した場合に、音声インタフェースを有効化する処理(S16)とを包含する。
第3の態様は、第2の態様に基づく方法である。特徴情報は生体情報である。方法の処理(b2)は、特徴情報として声紋、指紋、顔画像、静脈パターン、虹彩パターン、及び、行動パターンのうちから選択された少なくとも1つを利用して行われる。
第4の態様は、第1から第3の態様のいずれかに基づく方法である。方法の処理(a)における人が存在するか否かを検知は、センサ(52等)の出力結果を利用して行われる。センサの出力結果は、人の接触を検知可能な接触センサの出力、イメージセンサによって取得された画像の認識結果、マイクによって取得された音声の認識結果、赤外線センサによって取得された熱画像の認識結果、および/または、生体センサによって取得されたバイタルサインの出力、である。
第5の態様は、第4の態様に基づく方法である。センサの出力結果は、音声の認識結果以外の出力結果である。
第6の態様は、第4の態様に基づく方法である。方法の処理(a)における所定範囲は、センサの検出可能範囲を調整することによって決定される。
第7の態様は、第1から第6の態様のいずれかに基づく方法である。方法の処理(a)は、処理(c)によって熱機器の操作が受け付けられた後も実行されている。熱機器を用いた加熱動作が開始された後、処理(a)によって人の存在が検知されなくなると、加熱動作を停止する。
第8の態様は、第1から第6の態様のいずれかに基づく方法である。方法の処理(a)は、処理(c)によって熱機器の操作が受け付けられた後も実行されている。熱機器を用いた加熱動作が開始された後、処理(a)によって人の存在が検知されなくなると、予め定められた期間の経過後に加熱動作を停止する。
第9の態様は、第7または第8の態様に基づく方法である。方法は、加熱動作の停止時に、加熱動作の動作条件を保存する。
第10の態様は、第9の態様に基づく方法である。方法は、加熱動作の停止後に、処理(a)から処理(c)が実行され、再度、音声インタフェースが有効化された場合、保存された動作条件を用いて加熱動作を再開する。
第10の態様は、第9の態様に基づく方法である。方法は、加熱動作の停止後に、処理(a)から処理(c)が実行され、再度、音声インタフェースが有効化された場合、保存された動作条件を用いて加熱動作を再開するか否かの指示を受け付ける。
第12の態様は、第1から第11の態様のいずれかに基づく方法である。方法の処理(b)は、音声インタフェースが有効化されたこと、および/または無効化されたことを報知する処理をさらに包含する。
第13の態様は、第1から第12の態様のいずれかに基づく方法である。熱機器は、使用者が物理的に操作可能な操作部を備えている。操作部は、音声インタフェースが有効化されているか無効化されているかに関わらず、操作部への操作を受け付ける。
第14の態様は、熱機器(1)を音声コマンドで操作するための音声インタフェースを起動させる方法である。音声インタフェースによる熱機器の操作を許可されている使用者の特徴情報が予め登録されている。方法は、(a)センサの出力結果を用いて、熱機器を操作しようとする操作者の特徴情報を取得する処理と、(b)処理(a)の前または後に、または、処理(a)と並列的に、熱機器の設置位置から所定範囲(R)内に人が存在するか否かを検知する処理と、(c)処理(a)によって取得された操作者の特徴情報、予め登録された使用者の特徴情報、及び処理(b)の検知結果に応じて、音声インタフェースを有効化し、または無効化する処理と、(d)処理(c)によって音声インタフェースが有効化されている期間中は、音声コマンドによる熱機器の操作を許可する処理とを包含する。処理(c)は、(c1)処理(a)によって取得された操作者の特徴情報と、予め登録されている使用者の特徴情報とを利用して、操作者が使用者であることを認証する処理と、(c2)処理(b)によって人の存在が検知されたか否かを判定する処理と、(c3)処理(c1)によって認証が成功し、かつ、処理(c2)によって人の存在が検知された場合は、音声インタフェースを有効化する処理とを包含する。
第15の態様は、第1から第14の態様のいずれかの方法を、演算部(102、150)に実行させるためのコンピュータプログラムである。
第16の態様は、熱機器(1)を音声コマンドで操作するための音声インタフェースの起動を制御する制御装置(100)である。制御装置は、熱機器の設置位置から所定範囲(R)内を検出可能に設置されたセンサ(52)の出力を受信する通信インタフェース(106)と、演算部(102)とを備えている。演算部は、(a)受信したセンサの出力に基づいて、所定範囲内に人が存在するか否かを検知する処理と、(b)処理(a)の検知結果に応じて、音声インタフェースを有効化し、または無効化する処理とを実行する。
第17の態様は、第16の態様に基づく制御装置である。制御装置は熱機器に搭載されている。
第17の態様は、第16の態様に基づく制御装置である。制御装置は、センサ及び熱機器と通信可能に接続されたサーバ装置(150)に搭載されている。
本開示の例示的な制御装置は、加熱調理器を音声コマンドで操作する用途に適用可能である。
1 加熱調理器
3 本体
5 トッププレート
7、8、9 加熱コイル
11、12、13 マーカ
15、16、17 発光部
18 温度センサ
19、20、21 操作入力部
22 電源スイッチ
23、24、25 表示部
27 スピーカ
31 制御部
33 記憶部
50 マイク
100 制御装置
102 演算部
104 記憶部
106 入力インタフェース(入力I/F)
108 出力インタフェース(出力I/F)
150 サーバ装置
160 通信ネットワーク

Claims (18)

  1. 熱機器を音声コマンドで操作するための音声インタフェースを起動させる方法であって、
    (a)前記熱機器の設置位置から所定範囲内に人が存在するか否かを検知する処理と、
    (b)前記処理(a)の検知結果に応じて、前記音声インタフェースを有効化し、または無効化する処理と、
    (c)前記処理(b)によって前記音声インタフェースが有効化されている期間中は、前記音声コマンドによる前記熱機器の操作を許可する処理と
    を包含する、方法。
  2. 前記音声インタフェースによる前記熱機器の操作を許可されている使用者の特徴情報が予め登録されており、
    前記処理(b)は、
    (b1)前記処理(a)によって人の存在が検知された場合に、存在を検知された前記人の特徴情報を取得する処理と、
    (b2)前記処理(b1)において取得された前記人の特徴情報と、予め登録されている前記使用者の特徴情報とを利用して、前記人が前記使用者であることを認証する処理と、
    (b3)前記処理(b2)によって認証が成功した場合に、前記音声インタフェースを有効化する処理と
    を包含する、請求項1に記載の方法。
  3. 前記特徴情報は生体情報であり、
    前記処理(b2)は、前記特徴情報として声紋、指紋、顔画像、静脈パターン、虹彩パターン、及び、行動パターンのうちから選択された少なくとも1つを利用して行われる、請求項2に記載の方法。
  4. 前記処理(a)における人が存在するか否かを検知は、センサの出力結果を利用して行われ、
    前記センサの出力結果は、人の接触を検知可能な接触センサの出力、イメージセンサによって取得された画像の認識結果、マイクによって取得された音声の認識結果、赤外線センサによって取得された熱画像の認識結果、および/または、生体センサによって取得されたバイタルサインの出力、である、請求項1から3のいずれかに記載の方法。
  5. 前記センサの出力結果は、音声の認識結果以外の出力結果である、請求項4に記載の方法。
  6. 前記処理(a)における前記所定範囲は、前記センサの検出可能範囲を調整することによって決定される、請求項4に記載の方法。
  7. 前記処理(a)は、前記処理(c)によって前記熱機器の操作が受け付けられた後も実行されており、
    前記熱機器を用いた加熱動作が開始された後、前記処理(a)によって前記人の存在が検知されなくなると、前記加熱動作を停止する、請求項1から6のいずれかに記載の方法。
  8. 前記処理(a)は、前記処理(c)によって前記熱機器の操作が受け付けられた後も実行されており、
    前記熱機器を用いた加熱動作が開始された後、前記処理(a)によって前記人の存在が検知されなくなると、予め定められた期間の経過後に前記加熱動作を停止する、請求項1から6のいずれかに記載の方法。
  9. 前記加熱動作の停止時に、前記加熱動作の動作条件を保存する、請求項7または8に記載の方法。
  10. 前記加熱動作の停止後に、前記処理(a)から前記処理(c)が実行され、再度、前記音声インタフェースが有効化された場合、保存された前記動作条件を用いて前記加熱動作を再開する、請求項9に記載の方法。
  11. 前記加熱動作の停止後に、前記処理(a)から前記処理(c)が実行され、再度、前記音声インタフェースが有効化された場合、保存された前記動作条件を用いて前記加熱動作を再開するか否かの指示を受け付ける、請求項9に記載の方法。
  12. 前記処理(b)は、前記音声インタフェースが有効化されたこと、および/または無効化されたことを報知する処理をさらに包含する、請求項1から11のいずれかに記載の方法。
  13. 前記熱機器は、前記使用者が物理的に操作可能な操作部を備えており、
    前記音声インタフェースが有効化されているか無効化されているかに関わらず、前記操作部への操作を受け付ける、請求項1から12のいずれかに記載の方法。
  14. 熱機器を音声コマンドで操作するための音声インタフェースを起動させる方法であって、
    前記音声インタフェースによる前記熱機器の操作を許可されている使用者の特徴情報が予め登録されており、
    (a)センサの出力結果を用いて、前記熱機器を操作しようとする操作者の特徴情報を取得する処理と、
    (b)前記処理(a)の前または後に、または、前記処理(a)と並列的に、前記熱機器の設置位置から所定範囲内に人が存在するか否かを検知する処理と、
    (c)前記処理(a)によって取得された前記操作者の特徴情報、予め登録された前記使用者の特徴情報、及び前記処理(b)の検知結果に応じて、前記音声インタフェースを有効化し、または無効化する処理と、
    (d)前記処理(c)によって前記音声インタフェースが有効化されている期間中は、前記音声コマンドによる前記熱機器の操作を許可する処理と
    を包含し、
    前記処理(c)は、
    (c1)前記処理(a)によって取得された前記操作者の特徴情報と、予め登録されている前記使用者の特徴情報とを利用して、前記操作者が前記使用者であることを認証する処理と、
    (c2)前記処理(b)によって人の存在が検知されたか否かを判定する処理と、
    (c3)前記処理(c1)によって認証が成功し、かつ、前記処理(c2)によって前記人の存在が検知された場合は、前記音声インタフェースを有効化する処理と
    を包含する、方法。
  15. 請求項1から14のいずれかに記載の動作方法を、演算部に実行させるためのコンピュータプログラム。
  16. 熱機器を音声コマンドで操作するための音声インタフェースの起動を制御する制御装置であって、
    前記熱機器の設置位置から所定範囲内を検出可能に設置されたセンサの出力を受信する通信インタフェースと、
    演算部と
    を備え、前記演算部は、
    (a)受信した前記センサの出力に基づいて、前記所定範囲内に人が存在するか否かを検知する処理と、
    (b)前記処理(a)の検知結果に応じて、前記音声インタフェースを有効化し、または無効化する処理と
    を実行する、制御装置。
  17. 前記熱機器に搭載されている、請求項16に記載の制御装置。
  18. 前記センサ及び前記熱機器と通信可能に接続されたサーバ装置に搭載されている、請求項16に記載の制御装置。
JP2021028720A 2021-02-25 2021-02-25 音声インタフェースを起動させる方法、コンピュータプログラム及び制御装置 Pending JP2022129867A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021028720A JP2022129867A (ja) 2021-02-25 2021-02-25 音声インタフェースを起動させる方法、コンピュータプログラム及び制御装置
PCT/JP2021/048256 WO2022181039A1 (ja) 2021-02-25 2021-12-24 音声インタフェースを起動させる方法、コンピュータプログラム及び制御装置
CN202180094475.XA CN116917855A (zh) 2021-02-25 2021-12-24 启动声音接口的方法、计算机程序以及控制装置
EP21928132.6A EP4300487A1 (en) 2021-02-25 2021-12-24 Method for starting speech interface, computer program, and control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021028720A JP2022129867A (ja) 2021-02-25 2021-02-25 音声インタフェースを起動させる方法、コンピュータプログラム及び制御装置

Publications (1)

Publication Number Publication Date
JP2022129867A true JP2022129867A (ja) 2022-09-06

Family

ID=83048799

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021028720A Pending JP2022129867A (ja) 2021-02-25 2021-02-25 音声インタフェースを起動させる方法、コンピュータプログラム及び制御装置

Country Status (4)

Country Link
EP (1) EP4300487A1 (ja)
JP (1) JP2022129867A (ja)
CN (1) CN116917855A (ja)
WO (1) WO2022181039A1 (ja)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005204974A (ja) * 2004-01-23 2005-08-04 Samii Kk 遊技機
JP4198074B2 (ja) * 2004-02-20 2008-12-17 三洋電機株式会社 加熱調理器
JP2006227135A (ja) * 2005-02-16 2006-08-31 Sharp Corp 遠隔操作装置、遠隔操作方法、及び遠隔操作プログラム
JP2009193480A (ja) * 2008-02-18 2009-08-27 Hitachi High-Tech Control Systems Corp 音声管理装置、システム管理方法およびプログラム
JP2011021845A (ja) * 2009-07-17 2011-02-03 Panasonic Corp 加熱調理器
JP2016186386A (ja) * 2015-03-27 2016-10-27 三菱電機株式会社 加熱調理器および加熱調理システム
US10514881B2 (en) * 2016-02-18 2019-12-24 Sony Corporation Information processing device, information processing method, and program
JP6543676B2 (ja) 2017-11-01 2019-07-10 ソフトバンク株式会社 送信制御装置及びプログラム

Also Published As

Publication number Publication date
WO2022181039A1 (ja) 2022-09-01
EP4300487A1 (en) 2024-01-03
CN116917855A (zh) 2023-10-20

Similar Documents

Publication Publication Date Title
US11268702B2 (en) Heating power control system and recording medium
KR101552887B1 (ko) 사용자 인증 기반의 조리 제어 방법 및 그 장치
US10599823B2 (en) Systems and methods for coordinating applications with a user interface
US20140247208A1 (en) Invoking and waking a computing device from stand-by mode based on gaze detection
US10223514B2 (en) Method for improving unlocking speed and mobile terminal
US20170322632A1 (en) Audio and motion-based control of a personalized smart appliance, media, and methods of use
KR20150128377A (ko) 지문 처리 방법 및 그 전자 장치
CN104464647B (zh) 一种背光亮度调节方法及终端
KR102070407B1 (ko) 전자장치 및 이를 사용하여 디스플레이에 연동된 생체 센서의 제어 방법
TW201510772A (zh) 手勢判斷方法及電子裝置
KR102579895B1 (ko) 전자장치, 이를 활용한 적외선 센서 기반의 심장 박동 수 측정 방법
CN109246525A (zh) 基于手势的耳机控制方法、装置及头戴式耳机
CN106227438B (zh) 终端操控方法和装置
TW201351203A (zh) 可攜式電子裝置及使用於可攜式電子裝置的方法
US20200050275A1 (en) Method and appratus for human-machine interaction, terminal, and computer-readable storage medium
CN105138173B (zh) 一种触控显示屏的控制方法
WO2022181039A1 (ja) 音声インタフェースを起動させる方法、コンピュータプログラム及び制御装置
US10588433B2 (en) Data setting method for body information analysis apparatus
WO2023276335A1 (ja) 音声インタフェースを制御する制御装置、及びそのような制御装置を備えた熱機器
JP6758345B2 (ja) 情報処理装置および情報処理装置の制御方法
US20220275944A1 (en) Cooking device
KR102408032B1 (ko) 전자장치 및 이를 사용하여 디스플레이에 연동된 생체 센서의 제어 방법
WO2022180885A1 (ja) 制御装置及び当該制御装置を有する加熱調理器
JP7515356B2 (ja) 加熱システム及び加熱システム用のプログラム
JP2023040893A (ja) 加熱調理器及びアプリケーションプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231205