JP2021124567A - 推定システム、及び、推定方法 - Google Patents

推定システム、及び、推定方法 Download PDF

Info

Publication number
JP2021124567A
JP2021124567A JP2020016869A JP2020016869A JP2021124567A JP 2021124567 A JP2021124567 A JP 2021124567A JP 2020016869 A JP2020016869 A JP 2020016869A JP 2020016869 A JP2020016869 A JP 2020016869A JP 2021124567 A JP2021124567 A JP 2021124567A
Authority
JP
Japan
Prior art keywords
estimation
target person
user
unit
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020016869A
Other languages
English (en)
Inventor
正也 花園
Masaya Hanazono
正也 花園
龍司 夏目
Ryuji Natsume
龍司 夏目
舜 広瀬
Shun Hirose
舜 広瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2020016869A priority Critical patent/JP2021124567A/ja
Publication of JP2021124567A publication Critical patent/JP2021124567A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザへの負担を軽減しつつ、歩行音に基づいてユーザが誰であるかを推定することができる推定システムを提供する。【解決手段】推定システム10は、建物80のユーザに関する情報の登録を受け付ける受付部24と、対象者が登録済みのユーザのいずれであるかを推定する第一推定部26aと、建物80の内部における対象者の歩行音を取得するマイクロフォン22と、マイクロフォン22によって取得されるユーザの歩行音を第一推定部26aの推定結果によってラベル付けし、ラベル付けされた当該歩行音を機械学習モデルに学習させる学習部26bと、機械学習モデルを用いて、対象者が登録済みのユーザのいずれであるかを推定する第二推定部26cとを備える。【選択図】図3

Description

本発明は、推定システム、及び、推定方法に関する。
音声認識に関する様々な技術が提案されている。例えば、特許文献1には、話者の音声から、音声の内容と話者とを正確に認識した後、話者を追加で認証することができる方法が開示されている。
特開2019−028464号公報
特許文献1に記載の方法では、ユーザは認証を受けるために声を出す必要がある。つまり、音声認識装置は、ユーザが誰であるかを推定するために、ユーザに声を出すことを求めることが必要である。
これに対し、ユーザの歩行音によってユーザが誰であるかを推定する方法が考えられるが、一般的に、歩行音に基づいてユーザ推定を行うためには、歩行音(歩行音から抽出される音声特徴量)を登録する必要があるが、この登録は、ユーザに歩行を要求するため、手間がかかる。また、登録時にユーザが緊張して歩いてしまうなどにより、適切な歩行音を取得できない可能性がある。つまり、歩行音によってユーザが誰であるかを推定する方法においては、ユーザへの負担の軽減が課題となる。
本発明は、ユーザへの負担を軽減しつつ、歩行音に基づいてユーザが誰であるかを推定することができる推定システム、及び、推定方法を提供する。
本発明の一態様に係る推定システムは、建物のユーザに関する情報の登録を受け付ける受付部と、対象者が登録済みのユーザのいずれであるかを推定する第一推定部と、前記建物の内部における前記対象者の歩行音を取得する音取得部と、前記音取得部によって取得される前記対象者の歩行音を前記第一推定部の推定結果によってラベル付けし、ラベル付けされた当該歩行音を機械学習モデルに学習させる学習部と、前記機械学習モデルを用いて、前記対象者が登録済みのユーザのいずれであるかを推定する第二推定部とを備える。
本発明の一態様に係る推定方法は、建物のユーザに関する情報の登録を受け付ける受付ステップと、対象者が登録済みのユーザのいずれであるかを推定する第一推定ステップと、前記建物の内部における前記対象者の歩行音を取得する音取得ステップと、前記音取得ステップにおいて取得される前記対象者の歩行音を前記第一推定ステップにおける推定結果によってラベル付けし、ラベル付けされた当該歩行音を機械学習モデルに学習させる学習ステップと、前記機械学習モデルを用いて、前記対象者が登録済みのユーザのいずれであるかを推定する第二推定ステップとを含む。
本発明の推定システム、及び、推定方法は、ユーザへの負担を軽減しつつ、歩行音に基づいてユーザが誰であるかを推定することができる。
図1は、実施の形態に係る推定システムの動作の概要を示す第一図である。 図2は、実施の形態に係る推定システムの動作の概要を示す第二図である。 図3は、実施の形態に係る推定システムの機能構成を示すブロック図である。 図4は、実施の形態に係る推定システムの登録動作のフローチャートである。 図5は、ユーザの登録名の入力画面の一例を示す図である。 図6は、音声入力画面の一例を示す図である。 図7は、登録情報の一例を示す図である。 図8は、登録済みのユーザの一覧画面の一例を示す図である。 図9は、ユーザ推定動作のフローチャートである。 図10は、スケジュール情報の表示画面の一例を示す図である。 図11は、歩行音の信号波形を示す図である。 図12は、到達度の表示動作のフローチャートである。 図13は、到達度を示す表示画面の一例を示す図である。 図14は、対象者が未登録であると推定される場合の動作のフローチャートである。 図15は、アイコンの表示画面の一例を示す図である。 図16は、アイコンの表示画面の別の一例を示す図である。
以下、実施の形態について、図面を参照しながら具体的に説明する。なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
なお、各図は模式図であり、必ずしも厳密に図示されたものではない。また、各図において、実質的に同一の構成に対しては同一の符号を付し、重複する説明は省略または簡略化される場合がある。
(実施の形態)
[概要]
まず、実施の形態に係る推定システムの動作の概要について説明する。図1及び図2は、実施の形態に係る推定システムの動作の概要を示す図である。
図1及び図2に示されるように、推定システム10は、配線器具21及び表示装置23によって構成される配線器具システム20を備える。配線器具21は、マイクロフォン22を備え、表示装置23は、マイクロフォン22によって取得される対象者の発話音に対して話者認識処理を行うことにより、対象者に応じた情報の表示を行うことができる。
図1に示されるように、例えば、表示装置23は、発話した対象者がユーザA(例えば、父親)であると推定した場合には、ユーザAに応じた情報として、出張先の天気情報を表示することができる。また、図2に示されるように、表示装置23は、発話した対象者がユーザB(例えば、子供)であると推定した場合には、ユーザBに応じた情報として、ユーザC(例えば、母親)の伝言メッセージを表示することができる。
ここで、表示装置23は、導入当初は、対象者が発話しなければ情報の表示を行うことができないが、導入してしばらくすると、対象者の歩行音を学習し、歩行音によって配線器具システム20の近くにいる対象者が誰であるかを推定できるようになる。つまり、表示装置23は、導入してしばらくすると、対象者に発話を要求することなく、対象者に応じた情報の表示ができるようになる。
一般的に、歩行音に基づいてユーザ推定を行うためには、歩行音(歩行音から抽出される音声特徴量)を登録する必要がある。しかしながら、この登録は、ユーザに歩行を要求するため、手間がかかる。また、登録時にユーザが緊張して歩いてしまうなどにより、適切な歩行音を取得できない可能性がある。
これに対し、推定システム10では、発話音に基づくユーザ推定及び情報の表示を行っている間に、バックグラウンドでユーザにとってシームレスに歩行音が学習されるため、意図的に歩行音を登録することをユーザに要求せずに、歩行音に基づくユーザ推定を実現することができる。
[機能構成]
以下、推定システム10の詳細な機能構成について説明する。図3は、推定システム10の機能構成を示すブロック図である。図3に示されるように、推定システム10は、配線器具システム20と、制御装置30と、照明機器40と、空調機器50と、サーバ装置60とを備える。また、図3では、スマートフォンまたはタブレット端末などの携帯端末70も図示されている。
図1に示される建物80は、例えば、集合住宅または戸建住宅などの住宅であるが、介護施設またはオフィスなどであってもよい。建物80内には、ユーザ(居住者)が位置する。また、建物80内には、配線器具システム20、制御装置30、照明機器40、及び、空調機器50が設置されている。サーバ装置60は、クラウド(言い換えれば、クラウドサーバ)として実現される。
まず、配線器具システム20について説明する。上述のように、配線器具システム20は、配線器具21と、表示装置23とを備える。配線器具21は、照明機器40への電力供給をオン及びオフするための壁スイッチ、または、コンセントなどの配線器具である。図1及び図2に示される例では、配線器具21は、建物80の玄関付近の壁に設けられるコンセントである。配線器具21は、例えば、建物80内の壁に取り付けられる。配線器具21は、マイクロフォン22を備える。マイクロフォン22は、音取得部の一例である。
表示装置23は、マイクロフォン22によって取得された発話音に基づいて、対象者が登録済みのユーザのいずれであるかの推定を行い、推定結果に基づいて情報を表示する。図1及び図2に示される例では、表示装置23は、建物80の玄関付近の壁に設けられる。なお、表示装置23は、壁スイッチと一体的に構成される表示装置として実現されてもよい。つまり、表示装置23自体が配線器具の一種であってもよい。
表示装置23は、具体的には、受付部24と、表示部25と、情報処理部26と、記憶部27と、通信部28とを備える。これらの構成要素は、表示装置23が備える筐体(図示せず)に収容される。
受付部24は、登録受付部の一例であり、建物80のユーザの操作をユーザから受け付ける。受付部24は、例えば、表示部25に重ね合わされるタッチパネルであるが、ハードウェアボタンであってもよい。
表示部25は、情報処理部26の制御に基づいて、画像を表示する。表示部25は、例えば、液晶パネルまたは有機EL(Electro Luminescence)パネルなどの表示パネルである。なお、表示装置23が壁スイッチと一体的に構成される表示される場合、スイッチは、ハードウェアスイッチではなく、表示部25を用いたGUI(Graphical User Interface)であってもよい。
情報処理部26は、表示部25への画像の表示制御、及び、マイクロフォン22から出力される信号の信号処理などを行う。情報処理部26は、例えば、マイクロコンピュータによって実現されるが、プロセッサによって実現されてもよい。情報処理部26は、第一推定部26a、学習部26b、及び、第二推定部26cを含む。
記憶部27は、情報処理部26が実行するコンピュータプログラムなどが記憶される記憶装置である。また、記憶部27には、歩行音に基づいてユーザを推定するための機械学習モデルがあらかじめ記憶される。記憶部27は、例えば、半導体メモリなどによって実現される。
通信部28は、配線器具システム20が制御装置30と局所通信ネットワークを介して通信を行うための通信回路(通信モジュール)である。通信部28によって行われる通信は、例えば、無線通信であるが、有線通信であってもよい。通信に用いられる通信規格についても特に限定されない。また、通信部28は、2種類以上の通信回路によって実現されてもよい。
次に、制御装置30について説明する。制御装置30は、例えば、エネルギーマネジメント機能を有するHEMS(Home Energy Management System)コントローラであり、建物80内に設置され、建物80内(あるいは、建物80の敷地内)に設置された機器(具体的には、照明機器40及び空調機器50など)の消費電力を管理する。また、制御装置30は、建物80内に設置された機器の状態の取得及び表示、並びに、建物80内に設置された機器の制御などを行う。制御装置30は、HEMSコントローラに限定されず、エネルギーマネジメント機能を有しない他のホームコントローラであってもよい。
また、制御装置30は、インターネットなどの広域通信ネットワーク90を介してサーバ装置60と通信を行うこともできる。この場合、制御装置30は、ゲートウェイとして機能し、配線器具システム20(表示装置23)は、制御装置30を介してサーバ装置60と通信を行うことができる。
[登録動作]
推定システム10を利用するためには、ユーザの登録が必要となる。以下、推定システム10の登録動作について説明する。図4は、推定システム10の登録受付動作のフローチャートである。
まず、受付部24は、建物80のユーザに関する情報の入力を受け付ける(S11)。建物80のユーザに関する情報は、例えば、ユーザの登録名、ユーザのアイコン(アバター)、及び、ユーザのスケジュール情報などである。図5は、ユーザの登録名の入力画面の一例を示す図である。
次に、情報処理部26は、表示部25に音声入力画面を表示させることにより、所定のフレーズの発話をユーザに要求する(S12)。図6は、音声入力画面の一例を示す図である。ユーザが発話すると、マイクロフォン22は発話音を取得し(S13)、情報処理部26は、マイクロフォン22によって出力される発話音の音声信号を信号処理することにより、n個(n≧1)の音声特徴量を抽出する(S14)。
次に、情報処理部26は、ステップS11において入力された情報と、ステップS14において抽出された1つ以上の音声特徴量とを対応付け、登録情報として記憶部27に記憶する(S15)。図7は、登録情報の一例を示す図である。
登録が完了すると、表示部25は、登録済みのユーザの一覧画面を表示する(S16)。図8は、登録済みのユーザの一覧画面の一例を示す図である。図8の例では、一覧画面には、例えば、登録済みのユーザの登録名、及び、アイコンが表示される。
[ユーザ推定動作]
次に、以上のような登録動作が行われた後に行われる、ユーザ推定動作について説明する。図9は、ユーザ推定動作のフローチャートである。
まず、マイクロフォン22は、常時、建物80の内部における音(発話音を含む)を取得し、これに対応する音声信号を出力している(S21)。音声信号は、記憶部27に一時的に記憶(バッファ)される。第一推定部26aは、マイクロフォン22によって取得された音に基づいて、話者認識処理を行う。第一推定部26aは、例えば、マイクロフォン22が出力する音声信号(記憶部27に記憶された音声信号)における、発話音が含まれる期間と、発話音が含まれる期間とを区別し、発話音が含まれる期間(言い換えれば、発話音の音声信号)を対象として音声特徴量を抽出する(S22)。この場合、例えば、音声信号の波形に基づいて、発話音とそれ以外の音を区別する既存技術が用いられる。
音声特徴量は、例えば、音の強度に関する情報、及び、音の周波数特性に関する情報などの少なくとも1つである。音の強度に関する情報は、具体的には、ひとかたまりの音の波形における最大振幅V、または、ひとかたまりの音の波形における振幅の二乗の時間平均値などである。音の周波数特性に関する情報は、具体的には、MFCC(Mel−Frequency Cepstral Coefficients)、または、メルスペクトラム(Log−mel Spectrum)などである。音の周波数特性に関する情報は、共振周波数などであってもよい。
なお、これらの音声特徴量は一例であり、第一推定部26aは、これらの音声特徴量以外の特徴量を抽出してもよい。
次に、第一推定部26aは、抽出された音声特徴量(言い換えれば、マイクロフォン22が出力する音声信号)に基づいて話者認識処理を行うことにより、対象者が登録済みのユーザのいずれであるかを推定する(S23)。第一推定部26aは、例えば、ステップS22において抽出したn個の音声特徴量を要素とするn次のベクトルと、登録動作において登録された複数のユーザそれぞれの、音声特徴量のn次のベクトルとの距離(つまり、音声特徴量の類似度)を特定し、特定した距離が最も短くなる登録済みのユーザ(以下、第一ユーザとも記載される)が対象者に相当すると推定(特定)する。
次に、第一推定部26aは、ステップS23において特定した第一ユーザに応じた情報を表示部25に表示させる(S24)。第一推定部26aは、具体的には、記憶部27に記憶された登録情報を参照することにより、第一ユーザに紐づけられたスケジュール情報を表示部25に表示させる。図10は、スケジュール情報の表示画面の一例を示す図である。
図10の例では、スケジュール情報とともに、第一ユーザの登録名、及び、第一ユーザのアイコンが表示されている。このように、表示部25は、第一推定部26aにより、対象者が登録済みの第一ユーザであると推定された場合、第一ユーザの登録名または第一ユーザのアイコンを表示する。
なお、図1に示されるように、スケジュール情報に対応して天気情報などが表示されてもよく、この場合、天気情報は、例えば、天気情報を管理するサーバ装置60から取得される。また、図2に示されるように、表示装置23は、第一ユーザあてに記憶部27に記憶された伝言メッセージを表示することもできる。また、図示されないが、スケジュール情報に対応して公共交通機関の時刻表情報などが表示されてもよく、この場合、時刻表情報は、例えば、時刻表情報を管理するサーバ装置60から取得される。
このように、表示装置23は、話者認識に基づいて対象者に応じた情報を表示する一方で、記憶部27に記憶された学習モデルに歩行音を学習させる。具体的には、学習部26bは、マイクロフォン22によって出力された音声信号(記憶部27に記憶された音声信号)の、音声特徴量を抽出したタイミング付近の期間のうち、歩行音が含まれる期間(言い換えれば、歩行音の音声信号)を対象として、音声特徴量を抽出する(S25)。
音声特徴量を抽出したタイミング付近の期間とは、例えば、音声特徴量を抽出したタイミングを終点(または始点)とする数秒程度の期間であるが、音声特徴量を抽出したタイミングの前後にわたる数秒程度の期間であってもよい。歩行音が含まれる期間の特定には、例えば、音声信号の波形に基づいて、歩行音とそれ以外の音を区別する既存技術などが用いられる。
歩行音の音声特徴量は、例えば、歩行音に基づいて定まる歩行周期に関する情報、歩行音の強度に関する情報、及び、歩行音の周波数特性に関する情報などの少なくとも1つである。図11は、歩行音の信号波形を示す図である。
図11において、1つの波形のかたまりは、対象者が足を着地させたことによる歩行音(1歩分の歩行音)に相当する。歩行周期に関する情報は、具体的には、歩行音の信号波形のうち正のピークから次の正のピークまでの時間間隔T(例えば、右足を着地してから左足を着地するまでの時間間隔)であるが、正のピークから次の次の正のピークまでの時間間隔(右足を着地してから次に右足を着地するまでの時間)であってもよい。また、時間間隔は、負のピークを基準に特定されてもよいし、平均化などの統計処理が行われてもよい。
歩行音の強度に関する情報は、具体的には、1歩分の歩行音の波形における最大振幅V、または、1歩分の歩行音の振幅の二乗の時間平均値などである。歩行音の周波数特性に関する情報は、具体的には、MFCC、または、メルスペクトラムなどである。歩行音の周波数特性に関する情報は、共振周波数などであってもよい。なお、これらの音声特徴量は一例であり、学習部26bは、これらの音声特徴量以外の音声特徴量を抽出してもよい。
次に、学習部26bは、ステップS25において抽出された音声特徴量(歩行音)を、ステップS23において特定された第一ユーザのユーザIDでラベル付けする(S26)。そして、学習部26bは、このように話者認識の結果(つまり、第一推定部26aの推定結果)に応じてラベル付けされた音声特徴量を教師データとして、記憶部27にあらかじめ記憶された機械学習モデルに歩行音を学習させる(S27)。
次に、学習部26bは、機械学習モデルによるユーザの推定精度が所定水準に到達したか否かを判定する(S28)。機械学習モデルは、登録済みのユーザである確率(スコア)が何%であるかを出力する構成(ユーザAである確率50%、ユーザBである確率30%・・など)であることが想定される。このような場合、学習部26bは、ステップS25において抽出した歩行音の音声特徴量を実際に機械学習モデルに入力し、このときの機械学習モデルの出力が高確率(例えば、90%以上)でステップS23において特定された第一ユーザであることを示しているときに、機械学習モデルによるユーザの推定精度が所定水準に到達したと判定する。学習部26bは、機械学習モデルの出力が全ユーザに対して高確率で第一推定部26aの推定結果と一致するときに、推定精度が所定水準に到達したと判定してもよいし、1人以上の所定人数のユーザに対して高確率で第一推定部26aの推定結果と一致するときに、推定精度が所定水準に到達したと判定してもよい。学習部26bは、機械学習モデルの出力が高確率で第一ユーザであることを示していない場合には、ユーザの推定精度が所定水準に到達していないと判定する。
なお、推定精度が所定水準に到達したか否かは、どのように判定されてもよい。学習部26bは、学習回数(ステップS27が行われた回数)が所定回数以上である場合に、推定精度が所定水準に到達したと判定してもよい。この場合、全ユーザの歩行音の学習回数がいずれも所定回数以上である場合に、推定精度が所定水準に到達したと判定してもよいし、1人以上の所定人数のユーザの歩行音の学習回数がいずれも所定回数以上である場合に、推定精度が所定水準に到達したと判定してもよい。また、学習部26bは、推定システム10が導入されてからの期間が所定期間(例えば、1か月など)以上となった場合に、推定精度が所定水準に到達したと判定してもよい。
学習部26bによって推定精度が所定水準に到達していないと判定されると(S28でNo)、ステップS21〜S27の処理が行われる。つまり、学習部26bによって推定精度が所定水準に到達したと判定されるまで、ステップS21〜S27の処理が繰り返される。
学習部26bによって推定精度が所定水準に到達したと判定されると(S28でYes)、歩行音に基づくユーザ推定が開始される(S29)。歩行音に基づくユーザ推定は、第二推定部26cによって行われる。第二推定部26cは、具体的には、マイクロフォン22によって出力された音声信号(記憶部27に記憶された音声信号)のうち、歩行音が含まれる期間(言い換えれば、歩行音の音声信号)を対象として、音声特徴量を抽出し、抽出した音声特徴量を機械学習モデルに入力する。第二推定部26cは、機械学習モデルによって推定(特定)したユーザに応じた情報を表示部25に表示させる。情報の表示態様は、ステップS24と同様である。
以上説明したように、推定システム10は、当初は、発話音に基づくユーザ推定を行って情報を表示する。その後、ユーザが推定システム10を利用しつつ建物80内で普通に生活していると、推定システム10は、発話音に基づくユーザ推定機能に加えて、歩行音に基づくユーザ推定機能が有効になる。歩行音に基づくユーザ推定によれば、対象者は、マイクロフォン22の周辺で発話するか否かにかかわらず、情報の提示を受けることができる。
なお、音声信号の数秒程度の長さの期間に、発話音及び歩行音の両方が含まれるような場合、推定システム10は、第一推定部26a及び第二推定部26cを併用してユーザ推定を行ってもよい。例えば、上記数秒程度の長さの期間に、第一推定部26aによるa回の推定結果が得られ、第二推定部26cによるb回の推定結果が得られる場合、推定結果の多数決によって、対象者が登録済みのユーザのいずれであるかが推定されてもよい。
[到達度の表示動作]
上述のように、歩行音に基づくユーザ推定機能は、推定精度が所定水準に到達すると有効になる。ここで、表示部25は、推定精度の所定水準に対する到達度を表示してもよい。図12は、到達度の表示動作のフローチャートである。
まず、受付部24は、到達度の表示を指示する入力をユーザから受け付け(S31)、表示部25は、このような入力が受け付けられたことを契機に到達度を表示する(S32)。図13は、到達度を示す表示画面の一例を示す図である。
図13に示されるように、到達度は、例えば、複数のユーザごとに示される。複数のユーザそれぞれの到達度は、例えば、当該ユーザの歩行音(音声特徴量)の学習回数によって定められる。学習回数は、学習部26bによってカウントされ、カウント値は記憶部27に記憶される。
到達度は、グラフなどによって表示されてもよいが、図13の例では、アイコンの表示位置によって示される。図13では、階段のオブジェクトの上のほうにアイコンが位置しているユーザほど、到達度が高いことを意味している。表示部25は、機械学習モデルによる学習回数が少ないときには、図13の(a)のような表示画面を表示するが、学習が進むと、図13の(b)のような表示画面を表示する。また、表示部25は、全ユーザの学習回数が所定回数以上となった場合には、図13の(c)のような表示画面を表示し、歩行音に基づくユーザ推定有効になる。
このような表示画面が表示されれば、複数のユーザのそれぞれは、歩行音に基づくユーザ推定が有効になるまでの到達度を容易に認識することができる。
なお、学習部26bは、複数のユーザの全員の、歩行音に基づくユーザ推定が有効になった後も学習回数のカウントを継続し、学習回数が多いほど推定精度が高いとみなして推定精度を示す表示画面を表示部25に表示させてもよい。この表示画面において、推定精度は、グラフによって表示されてもよいし、図13のようにアイコンの表示位置によって示されてもよい。
[対象者が未登録である場合の動作]
上記ステップS23において、第一推定部26aは、対象者が登録済みのユーザのいずれにも該当しないと推定(判定)することもできる。言い換えれば、第一推定部26aは、対象者が未登録であると推定することもできる。以下、このように対象者が未登録であると推定される場合の動作について説明する。図14は、対象者が未登録であると推定される場合の動作のフローチャートである。
まず、第一推定部26aは、対象者が未登録であると推定する(S41)。例えば、ステップS22において抽出したn個の音声特徴量を要素とするn次のベクトルと、登録動作において登録された複数のユーザそれぞれの、音声特徴量のn次のベクトルとの距離(つまり、音声特徴量の類似度)に対する最低限の閾値が記憶部27にあらかじめ記憶される。第一推定部26aは、上記距離が閾値を下回る登録済みのユーザ(つまり、類似度がある程度高い登録済みのユーザ)が存在しない場合に、対象者が登録済みのユーザのいずれにも該当しないと推定(判定)することができる。
次に、第一推定部26aは、対象者の属性を推定する(S42)。例えば、記憶部27に、不特定多数のユーザの属性情報(性別、年齢など)と、当該ユーザの音声特徴量とが対応付けられた、ユーザ属性推定用のデータベースがあらかじめ記憶されていれば、第一推定部26aは、このようなデータベースを用いて、対象者の属性を推定することができる。また、記憶部27に音声特徴量を入力として属性情報を出力する機械学習モデルが記憶されていれば、第一推定部26aは、このような機械学習モデルを用いて対象者の属性を推定することもできる。
次に、表示部25は、第一推定部26aの推定結果に基づいて、対象者の属性に関する情報を表示する(S43)。表示部25は、例えば、対象者の属性に関する情報として、対象者の属性に応じたアイコン(アバター)を表示する。図15及び図16は、アイコンの表示画面の一例を示す図である。なお、表示部25は、対象者の属性に関する情報として、対象者の推定年齢及び推定性別を文字で表示してもよい。
図15及び図16に示されるように、アイコンは対象者の属性に応じたものとなり、対象者が高齢の女性であると推定された場合には、図15のようなアイコンが表示され、対象者が若い女性であると推定された場合には、図16のようなアイコンが表示される。
このように表示されるアイコンは、例えば、性別及び年齢層(20代、30代・・)ごとに区別された状態で記憶部27にあらかじめ記憶されている。なお、アイコンは多数準備されており、例えば、20代女性に対応するアイコンは1つではなく複数準備されている。どのアイコンが表示されるかは、例えば、ランダムに決定される。
対象者の属性に応じたアイコンが表示されているときに、受付部24によって登録を希望することを示す操作が受け付けられると(S44)、表示部25は、この操作をトリガとして、登録画面を表示する(S45)。ここでの登録画面とは、図5の登録名の入力画面、及び、図6の音声入力画面などである。その後、登録操作が行われると、未登録の対象者が登録される。
以上のように、推定システム10は、対象者が登録済みのユーザのいずれにも該当しないと推定した場合に、対象者の属性に応じたアイコンを提案することにより、対象者へユーザ登録を促すことができる。
なお、このような対象者が未登録である場合の動作は、第二推定部26cによって、対象者が登録済みのユーザのいずれにも該当しないと推定(判定)されたときにも適用できる。
例えば、歩行音に基づくユーザ推定の結果、機械学習モデルから出力されるスコア(確率)に対する最低限の閾値が記憶部27にあらかじめ記憶される。第二推定部26cは、上記スコアが閾値を上回る登録済みのユーザ(つまり、確率がある程度高い登録済みのユーザ)が存在しない場合に、対象者が登録済みのユーザのいずれにも該当しないと推定(判定)することができる。
このように上記図14の動作は、第二推定部26cによって行われてもよい。つまり、上記図14の説明における第一推定部26aは、適宜、第二推定部26cに読み替えられてもよい。
ここで、第二推定部26cは、対象者の属性を推定するときに、ユーザ属性推定用のデータベースを用いてもよいし、機械学習モデルを用いてもよい。このデータベースにおいては、不特定多数のユーザの属性情報(性別、年齢など)と、当該ユーザの歩行音から抽出された音声特徴量とが対応付けられている。ここで、このデータベースにおいては、さらに、歩行速度、体重、体調などが対応付けられていてもよく、これにより、第二推定部26cは、未登録のユーザの歩行速度、体重、体調などを推定することもできる。
[第一推定部によるユーザ推定の変形例]
推定システム10では、建物80内でユーザがマイクロフォン22の周辺で発話して情報の提示を受けることを繰り返していると、歩行音に基づくユーザ推定機能が有効になる。しかしながら、導入当初に発話音によってユーザが推定されることは必須ではない。第一推定部26aは、歩行音以外の方法でユーザ推定を行えばよい。
例えば、ユーザが受付部24へ当該ユーザの名称などの識別情報を入力して情報の提示を受けることが繰り返されることで、歩行音に基づくユーザ推定機能が有効になってもよい。この場合、第一推定部26aは、受付部24に入力された識別情報に基づいてユーザを推定する。
また、センサにより対象者をセンシングして情報の提示を行うことが繰り返されることで、歩行音に基づくユーザ推定機能が有効になってもよい。なお、この場合のセンサにはマイクロフォン22も含まれる。
上記センサのマイクロフォン22以外の例としては、カメラが挙げられる。この場合、第一推定部26aは、カメラに対象者の顔を認識する顔認識処理によってユーザを推定する。また、上記センサは、建物80内のドアなどに設けられる指紋センサであってもよい。この場合、第一推定部26aは、指紋認証処理によってユーザを推定する。
また、上記センサは、携帯端末70からのビーコン信号を受信する電波通信モジュールであってもよい。この場合、第一推定部26aは、電波通信モジュールによって受信されたビーコン信号に含まれるIDに基づいてユーザ(つまり、携帯端末70の所有者)を推定してもよい。
[推定システムの他のユースケース]
上記実施の形態において、推定システム10は、ユーザの推定結果に応じて情報を表示したが、推定システム10は、情報を音声によって出力してもよい。また、推定システム10は、情報の提示(表示または音声による出力)以外の用途に用いられてもよい。以下、推定システム10の他のユースケースについて説明する。なお、以下の説明におけるユーザ推定は、歩行音に基づくものであってもよいし、歩行音以外(話者認識、顔認証、指紋認証など)に基づくものであってもよい。
例えば、推定システム10は、機器の制御に用いられてもよい。例えば、登録情報においてユーザごとに照明機器40の明るさ、及び、空調機器50の設定温度などの機器の制御内容が記憶されている場合、推定結果に応じて機器の制御が行われてもよい。機器の制御は、例えば、配線器具システム20が制御装置30に機器の制御を依頼することにより実現されるが、配線器具システム20によって直接機器が制御されてもよい。また、登録情報において、ユーザごとに当該ユーザの部屋に設置された機器が対応付けられていれば、ユーザが外出すると推定されるときに当該ユーザの部屋に設置された機器をオフする、といった制御が可能となる。
なお、外出するか否かは、例えば、ユーザ推定が行われた曜日、及び、時間帯によって判定される。上述のように配線器具システム20が玄関に設置されているような場合には、平日の朝にユーザ推定が行われた場合これから対象者が外出すると判断し、平日の夕方以降にユーザ推定が行われた場合には対象者が帰宅したと判定することができる。また、複数のマイクロフォン22によって構成されるマイクアレイにより、歩行音の到達方向(つまり、対象者の歩行の向き)を判定することにより、外出、及び、帰宅を区別することもできる。
このように、外出、帰宅が区別できれば、推定システム10は、特定のユーザ(例えば、子供)が帰宅したときに、建物80から離れて位置する別のユーザ(例えば、お母さん)の携帯端末70に通知を行うこともできる。つまり、推定システム10は、帰宅通知システムとして用いることもできる。
また、推定システム10は、防犯システムとして用いられてもよい。推定システム10は、例えば、対象者が登録されたユーザのいずれでもないと推定された場合、サーバ装置60、携帯端末70、または、表示装置23を用いてその旨の通知を行うことができる。推定システム10は、音によってユーザを推定するため、特定の人(登録済みのユーザ)のみが使用する更衣室またはトイレなどのカメラが設置できない場所を対象とした防犯システムとして有用である。また、銀行の金庫、研究室など特定の人(登録済みのユーザ)だけが利用する建物80における防犯システムとしても有用である。
また、推定システム10は、建物80への入室時間及び建物80からの退出時間の管理システム(より具体的には、勤怠管理システムなど)として用いられてもよい。推定システム10は、例えば、あるユーザの建物80の利用時間が一定時間を超えたときに、サーバ装置60、携帯端末70、または、表示装置23を用いて、建物80の管理者等に通知を行うことができる。
また、推定システム10は、上述の未登録ユーザの属性推定により、建物80内に滞在する人を属性ごとに集計(分類)する集計システムとして用いられてもよい。推定システム10は、例えば、図書館などの比較的大規模な施設において、当該施設の職員(登録済みのユーザ)以外の人の属性を集計(男性20代:5人、男性30代:30人・・など)することができる。
なお、機械学習モデルの教師データとして使用される歩行音が取得される場所(場所Aとも記載される)と、歩行音に基づくユーザ推定が行われる場所(場所B)は、異なってもよい。
[ユーザ推定の精度の向上方法]
以下、発話音、及び、歩行音に基づくユーザ推定の精度を向上するための信号処理について説明する。第一推定部26a及び第二推定部26cは、例えば、音声信号のうちユーザ推定との関連性が低い期間を音声認識の対象から除外する処理を行ってもよい。
例えば、音声信号を複数のフレーム単位で音声認識の対象とする場合、無音部であると考えられるフレームが音声認識の対象から除外されてもよい。無音であると考えられるフレームとは、例えば、フレームの全期間において振幅の大きさが所定値以下であるフレームである。
また、発明者らの知見によれば、発話音が音声認識の対象である場合には、子音部よりも母音部のほうが音声認識への寄与度が高いと考えられる。そこで、上記フレームのうち、母音部であると考えられるフレームが音声認識の対象とされ、子音部であると考えられるフレームが音声認識の対象から除外されてもよい。例えば、音声信号の波形の周期性(ゼロクロスの数など)に基づいて子音部と母音部とを区別する技術が知られており、子音部の特定にはこのような技術が用いられる。
また、残響音に相当すると考えられるフレームが音声認識の対象から除外されてもよい。例えば、統計的な残響時間等に基づいて、残響音に相当するフレームを特定する方法が考えられる。
また、第一推定部26a及び第二推定部26cは、音声信号において音声認識への寄与度が高い重要区間を強調する処理を行ってもよい。
例えば、発話音が音声認識の対象である場合には、母音部に相当するフレームを周波数領域(スペクトル)に変換し、変換後のスペクトルを複数回、後段の処理部に入力する処理が行われてもよい。つまり、母音部が強調されてもよい。
また、音声信号のうち発話音または歩行音であると判定される期間を、(時間領域の信号のまま)繰り返し後段の処理部に入力される処理が行われてもよい。つまり、発話音または歩行音の全体が強調されてもよい。
[効果等]
以上説明したように、推定システム10は、建物80のユーザに関する情報の登録を受け付ける受付部24と、対象者が登録済みのユーザのいずれであるかを推定する第一推定部26aと、建物80の内部における対象者の歩行音を取得するマイクロフォン22と、マイクロフォン22によって取得されるユーザの歩行音を第一推定部26aの推定結果によってラベル付けし、ラベル付けされた当該歩行音を機械学習モデルに学習させる学習部26bと、機械学習モデルを用いて、対象者が登録済みのユーザのいずれであるかを推定する第二推定部26cとを備える。マイクロフォン22は、音取得部の一例である。
このような推定システム10は、第一推定部26aによってユーザ推定が行われている間に、バックグラウンドでユーザにとってシームレスに歩行音を学習することができる。このため、推定システム10は、意図的に歩行音を登録することをユーザに要求せずに、歩行音に基づくユーザ推定を実現することができる。つまり、推定システム10は、ユーザへの負担を軽減しつつ、歩行音に基づいてユーザが誰であるかを推定することができる。
また、例えば、第一推定部26aは、対象者をセンシングするセンサによって出力されるセンシングの結果を示す情報に基づいて、対象者が登録済みのユーザのいずれであるかを推定する。
このような推定システム10は、第一推定部26aによってセンサを用いたユーザ推定が行われている間に、バックグラウンドでユーザにとってシームレスに歩行音を学習することができる。
また、例えば、マイクロフォン22は、さらに、前記対象者の発話音を取得し、センサは、マイクロフォン22であり、センシングの結果を示す情報として、対象者の発話音の音声信号を出力する。第一推定部26aは、音声信号に基づく話者認識処理を行うことにより、対象者が登録済みのユーザのいずれであるかを推定する。
このような推定システム10は、第一推定部26aによって発話音に基づくユーザ推定が行われている間に、バックグラウンドでユーザにとってシームレスに歩行音を学習することができる。
また、例えば、第二推定部26cによる推定は、機械学習モデルによる対象者の推定精度が所定水準に到達したと判定された場合に開始される。推定システム10は、さらに、機械学習モデルによる対象者の推定精度の所定水準までの到達度を画像で表示する表示部25を備える。
このような推定システム10は、ユーザが機械学習の進捗を把握することを支援することができる。
また、例えば、推定システム10は、さらに、第一推定部26a、及び、第二推定部26cの少なくとも一方により、対象者が登録済みの第一ユーザであると推定された場合、第一ユーザの登録名または第一ユーザのアイコンを表示する表示部25を備える。
このような推定システム10は、推定結果を登録名またはアイコンで表示することで、ユーザが推定結果を把握することを支援することができる。
また、例えば、第一推定部26a及び第二推定部26cの少なくとも一方は、対象者が登録済みのユーザのいずれにも該当しないと推定した場合、対象者の属性を推定し、表示部25は、第一推定部26aによって対象者が登録済みのユーザのいずれにも該当しないと推定した場合、対象者の属性に関する情報を表示する。
このような推定システム10は、対象者が未登録のユーザであると推定した場合に、対象者の属性を表示することができる。
また、例えば、表示部25は、対象者の属性に関する情報として、対象者の属性に応じたアイコンを表示する。
このような推定システム10は、対象者が未登録のユーザであると推定した場合に、対象者の属性に応じたアイコンを表示することができる。
また、例えば、表示部25は、対象者の属性に応じたアイコンが表示されているときに受け付けられた操作をトリガとして、登録画面を表示する。
このような推定システム10は、対象者が未登録である場合に、対象者(新規ユーザ)を登録することを支援することができる。
また、例えば、推定システム10は、配線器具システム20として実現される。
このような推定システム10は、配線器具システム20から得られる歩行音に基づいて、ユーザを推定することができる。
また、推定システム10などのコンピュータによって実行される推定方法は、建物80のユーザに関する情報の登録を受け付ける受付ステップ(S11、S13、S14)と、対象者が登録済みのユーザのいずれであるかを推定する第一推定ステップ(S23)と、建物80の内部における対象者の歩行音を取得する音取得ステップと(S21)、音取得ステップにおいて取得される対象者の歩行音を第一推定ステップにおける推定結果によってラベル付けし、ラベル付けされた当該歩行音を機械学習モデルに学習させる学習ステップと(S25、S26)、機械学習モデルを用いて、対象者が登録済みのユーザのいずれであるかを推定する第二推定ステップ(S28)とを含む。
このような推定方法は、第一推定ステップにおいてユーザ推定が行われている間に、バックグラウンドでユーザにとってシームレスに歩行音を学習することができる。このため、推定方法は、意図的に歩行音を登録することをユーザに要求せずに、歩行音に基づくユーザ推定を実現することができる。つまり、推定方法は、ユーザへの負担を軽減しつつ、歩行音に基づいてユーザが誰であるかを推定することができる。
(その他の実施の形態)
以上、実施の形態について説明したが、本発明は、上記実施の形態に限定されるものではない。
例えば、上記実施の形態では、第一推定部は、マイクロフォンが出力する音声信号のうち発話音が含まれる期間を対象に話者認識処理を行い、第二推定部は、マイクロフォンが出力する音声信号のうち歩行音が含まれる期間を対象に歩行音の認識処理を行った。しかしながら、このように期間を特定する処理は必須ではなく、第一推定部及び第二推定部は、音声信号の全期間を対象に認識処理を行ってもよい。
また、表示部は、ユーザの受付部への操作等に基づいて、歩行音の周期を表示してもよい。これにより、ユーザは、自身の歩行音の周期を認識することができる。
また、上記実施の形態では、推定システムは、1つのマイクロフォンにより、発話音及び歩行音の両方が取得されると説明されたが、発話音を取得するためのマイクロフォン、及び、歩行音を取得するためのマイクロフォンを個別に備えてもよい。つまり、音声取得部は、複数のマイクによって実現されてもよい。この場合、歩行音を取得するためのマイクロフォンは、例えば、発話音を取得するためのマイクロフォンよりも低い位置に設置される。
また、上記実施の形態では、ユーザインタフェースとして配線器具システムに含まれる表示装置が用いられたが、表示装置に代えて携帯端末がユーザインタフェースとして用いられてもよい。例えば、登録動作における入力等は、携帯端末を介して行われてもよい。
また、上記実施の形態では、ユーザ推定の対象者は、人間であったが、犬または猫などの動物であってもよい。ユーザ推定の対象者は、生物であればよい。
例えば、上記実施の形態に係る推定システムが備える各構成要素は、複数の装置(例えば、配線器具、表示装置、制御装置、及び、サーバ装置)にどのように振り分けられてもよい。
例えば、配線器具システムが備えると説明された全ての構成要素は、制御装置によって備えられてもよい。つまり、配線器具システムによって実行される処理(ユーザの推定処理)は、制御装置によって実行されてもよい。また、配線器具が備えると説明された構成要素のうち、情報処理量が多いと考えられる、第一推定部、学習部、及び、第二推定部の少なくとも1つの構成要素が制御装置によって備えられてもよい。つまり、配線器具によって実行される処理の一部は、制御装置によって実行されてもよい。また、配線器具が備えると説明された構成要素のうち、情報処理量が多いと考えられる、第一推定部、学習部、及び、第二推定部の少なくとも1つの構成要素がサーバ装置によって備えられることにより、推定システムは、クライアントサーバシステムとして実現されてもよい。つまり、配線器具システムによって実行される処理の一部は、サーバ装置によって実行されてもよい。
また、上記実施の形態では、推定システムは、複数の装置によって実現されたが、単一の装置として実現されてもよい。例えば、推定システムは、配線器具に相当する単一の装置として実現されてもよいし、制御装置に相当する第一の装置として実現されてもよいし、サーバ装置に相当する単一の装置として実現されてもよい。
例えば、上記実施の形態における装置間の通信方法については特に限定されるものではない。また、装置間の通信においては、図示されない中継装置が介在してもよい。
また、上記実施の形態において、特定の処理部が実行する処理を別の処理部が実行してもよい。また、複数の処理の順序が変更されてもよいし、複数の処理が並行して実行されてもよい。また、上記実施の形態の動作例1〜8は任意に組み合わされてよい。
また、上記実施の形態において、各構成要素は、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
また、各構成要素は、ハードウェアによって実現されてもよい。例えば、各構成要素は、回路(または集積回路)でもよい。これらの回路は、全体として1つの回路を構成してもよいし、それぞれ別々の回路でもよい。また、これらの回路は、それぞれ、汎用的な回路でもよいし、専用の回路でもよい。
また、本発明の全般的または具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよい。また、システム、装置、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。
例えば、本発明は、推定システムなどのコンピュータが実行する推定方法として実現されてもよいし、このような推定方法をコンピュータに実行させるためのプログラムとして実現されてもよいし、このようなプログラムが記録されたコンピュータ読み取り可能な非一時的な記録媒体として実現されてもよい。
その他、各実施の形態に対して当業者が思いつく各種変形を施して得られる形態、または、本発明の趣旨を逸脱しない範囲で各実施の形態における構成要素及び機能を任意に組み合わせることで実現される形態も本発明に含まれる。
10 推定システム
20 配線器具システム
22 マイクロフォン(音取得部)
24 受付部
25 表示部
26a 第一推定部
26b 学習部
26c 第二推定部
80 建物

Claims (10)

  1. 建物のユーザに関する情報の登録を受け付ける受付部と、
    対象者が登録済みのユーザのいずれであるかを推定する第一推定部と、
    前記建物の内部における前記対象者の歩行音を取得する音取得部と、
    前記音取得部によって取得される前記対象者の歩行音を前記第一推定部の推定結果によってラベル付けし、ラベル付けされた当該歩行音を機械学習モデルに学習させる学習部と、
    前記機械学習モデルを用いて、前記対象者が登録済みのユーザのいずれであるかを推定する第二推定部とを備える
    推定システム。
  2. 前記第一推定部は、前記対象者をセンシングするセンサによって出力されるセンシングの結果を示す情報に基づいて、前記対象者が登録済みのユーザのいずれであるかを推定する
    請求項1に記載の推定システム。
  3. 前記音取得部は、さらに、前記対象者の発話音を取得し、
    前記センサは、前記音取得部であり、前記センシングの結果を示す情報として、前記対象者の発話音の音声信号を出力し、
    前記第一推定部は、前記音声信号に基づく話者認識処理を行うことにより、前記対象者が登録済みのユーザのいずれであるかを推定する
    請求項2に記載の推定システム。
  4. 前記第二推定部による推定は、前記機械学習モデルによる前記対象者の推定精度が所定水準に到達したと判定された場合に開始され、
    前記推定システムは、さらに、前記機械学習モデルによる前記対象者の推定精度の前記所定水準までの到達度を画像で表示する表示部を備える
    請求項1〜3のいずれか1項に記載の推定システム。
  5. 前記推定システムは、さらに、前記第一推定部、及び、前記第二推定部の少なくとも一方により、前記対象者が登録済みの第一ユーザであると推定された場合、前記第一ユーザの登録名または前記第一ユーザのアイコンを表示する表示部を備える
    請求項1〜3のいずれか1項に記載の推定システム。
  6. 前記第一推定部、及び、前記第二推定部の少なくとも一方は、前記対象者が登録済みのユーザのいずれにも該当しないと推定した場合、前記対象者の属性を推定し、
    前記表示部は、前記対象者が登録済みのユーザのいずれにも該当しないと推定された場合、前記対象者の属性に関する情報を表示する
    請求項5に記載の推定システム。
  7. 前記表示部は、前記対象者の属性に関する情報として、前記対象者の属性に応じたアイコンを表示する
    請求項6に記載の推定システム。
  8. 前記表示部は、前記対象者の属性に応じたアイコンが表示されているときに受け付けられた操作をトリガとして、登録画面を表示する
    請求項7に記載の推定システム。
  9. 前記推定システムは、配線器具システムとして実現される
    請求項1〜8のいずれか1項に記載の推定システム。
  10. 建物のユーザに関する情報の登録を受け付ける受付ステップと、
    対象者が登録済みのユーザのいずれであるかを推定する第一推定ステップと、
    前記建物の内部における前記対象者の歩行音を取得する音取得ステップと、
    前記音取得ステップにおいて取得される前記対象者の歩行音を前記第一推定ステップにおける推定結果によってラベル付けし、ラベル付けされた当該歩行音を機械学習モデルに学習させる学習ステップと、
    前記機械学習モデルを用いて、前記対象者が登録済みのユーザのいずれであるかを推定する第二推定ステップとを含む
    推定方法。
JP2020016869A 2020-02-04 2020-02-04 推定システム、及び、推定方法 Pending JP2021124567A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020016869A JP2021124567A (ja) 2020-02-04 2020-02-04 推定システム、及び、推定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020016869A JP2021124567A (ja) 2020-02-04 2020-02-04 推定システム、及び、推定方法

Publications (1)

Publication Number Publication Date
JP2021124567A true JP2021124567A (ja) 2021-08-30

Family

ID=77458739

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020016869A Pending JP2021124567A (ja) 2020-02-04 2020-02-04 推定システム、及び、推定方法

Country Status (1)

Country Link
JP (1) JP2021124567A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023196199A1 (en) * 2022-04-06 2023-10-12 Johnson Controls Tyco IP Holdings LLP A method and system for indoor geolocation and access control

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023196199A1 (en) * 2022-04-06 2023-10-12 Johnson Controls Tyco IP Holdings LLP A method and system for indoor geolocation and access control

Similar Documents

Publication Publication Date Title
US11687319B2 (en) Speech recognition method and apparatus with activation word based on operating environment of the apparatus
JP5935516B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US11495229B1 (en) Ambient device state content display
JP2019220194A (ja) 情報処理装置、情報処理方法及びプログラム
JP5895716B2 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2016136062A1 (ja) 情報処理装置、情報処理方法、及びプログラム
KR20180070970A (ko) 음성 인식 방법 및 장치
KR102409303B1 (ko) 음성 인식 방법 및 장치
CN107003723A (zh) 用于会话系统中的响应选择和组成的自动化的方法和系统
US20220049971A1 (en) Method and system for providing public transport route guide service based on voice guide
CN103488666A (zh) 信息处理设备、电子装置、信息处理方法和程序
CN104285427A (zh) 根据通过使不同数据源相关确定的上下文配置终端装置
JP2008003655A (ja) 情報処理装置、情報処理方法、およびプログラム
US11862170B2 (en) Sensitive data control
CN109871807A (zh) 人脸图像处理方法和装置
KR20190105182A (ko) 전자 장치 및 그 제어 방법
KR20190118996A (ko) 음성 처리 방법 및 음성 처리 장치
JPWO2020105302A1 (ja) 応答生成装置、応答生成方法及び応答生成プログラム
US20210125627A1 (en) Method and apparatus for speech analysis
JP6183489B2 (ja) 情報処理システム、情報処理方法、及びプログラム
JP2021124567A (ja) 推定システム、及び、推定方法
JP2019012506A (ja) 機械の自動活性のための方法及びシステム
WO2017175442A1 (ja) 情報処理装置、および情報処理方法
JP2006230548A (ja) 体調判定装置およびそのプログラム
US20240071408A1 (en) Acoustic event detection