JPWO2016158792A1 - 情報処理装置、制御方法、およびプログラム - Google Patents
情報処理装置、制御方法、およびプログラム Download PDFInfo
- Publication number
- JPWO2016158792A1 JPWO2016158792A1 JP2017509929A JP2017509929A JPWO2016158792A1 JP WO2016158792 A1 JPWO2016158792 A1 JP WO2016158792A1 JP 2017509929 A JP2017509929 A JP 2017509929A JP 2017509929 A JP2017509929 A JP 2017509929A JP WO2016158792 A1 JPWO2016158792 A1 JP WO2016158792A1
- Authority
- JP
- Japan
- Prior art keywords
- output
- response
- user
- information processing
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M19/00—Current supply arrangements for telephone systems
- H04M19/02—Current supply arrangements for telephone systems providing ringing current or supervisory tones, e.g. dialling tone or busy tone
- H04M19/04—Current supply arrangements for telephone systems providing ringing current or supervisory tones, e.g. dialling tone or busy tone the ringing-current being generated at the substations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/20—Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
Abstract
Description
1.本開示の一実施形態による音声認識システムの概要
2.構成
3.動作処理
4.応答出力例
4−1.音声による応答出力
4−2.表示による応答出力
4−3.機器連携による応答出力
4−4.動的な応答出力
4−5.出力許容レベルの通知
5.複数ユーザ環境下における出力
6.まとめ
本開示の一実施形態による音声認識システムは、ユーザの発話に対して音声認識・意味解析を行い、音声により応答を行う基本機能を有する。以下、図1を参照して本開示の一実施形態による音声認識システムの概要について説明する。
図2は、本実施形態による情報処理装置1の構成の一例を示す図である。図2に示すように、情報処理装置1は、制御部10、通信部11、マイクロホン12、スピーカ13、カメラ14、測距センサ15、投影部16、記憶部17、および発光部18を有する。
制御部10は、情報処理装置1の各構成を制御する。制御部10は、CPU(Central
Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、および不揮発性メモリを備えたマイクロコンピュータにより実現される。また、本実施形態による制御部10は、図2に示すように、音声認識部10a、意味解析部10b、応答生成部10c、レベル算出部10d、決定部10e、および出力制御部10fとしても機能する。
レベル算出部10dは、時間帯に応じて出力許容レベルを算出してもよい。例えば夜間においては、既に就寝している人や隣家への配慮をする必要があるため、レベル算出部10dは出力許容レベルを低く算出する。時間帯に応じた出力許容レベルは、ユーザまたはシステムが予め設定してもよい。また、時間帯は、情報処理装置1に内蔵の時計部(不図示)から取得されてもよいし、ネットワーク上の所定サーバから取得されてもよい。
レベル算出部10dは、外部音源の存在に応じて出力許容レベルを算出してもよい。例えば、TV、ラジオ、音楽スピーカ、工事騒音などの外部音源が存在する環境では、音声による応答出力は外部音源の存在を邪魔してしまうため好まれない。したがってレベル算出部10dは、出力方法が「表示」に切り替えられるよう、出力許容レベルを低く算出する。また、レベル算出部10dは、外部音源が存在する場合であっても重要度が高い応答の場合は、出力許容レベルを高く算出し、外部音源にかき消されないよう応答出力の音量を上げようにしてもよい。なお外部音源には、音声UIを介さない人同士の会話や電話による会話も含まれる。外部音源の存在は、情報処理装置1に設けられたマイクロホン12により収音された音声信号に基づいて検知される。また、マイクロホン12には情報処理装置1自身が発する音声(自発音)が入力されてしまう場合もあるが、自発音は例えばエコーキャンセルによりキャンセルすることが可能であり、制御部10は純粋な外部音源だけを検知することができる。
レベル算出部10dは、対象者であるユーザ周辺の様子(すなわちユーザ環境)に応じて出力許容レベルを算出してもよい。例えばユーザの付近で人(赤ちゃんを含む)が寝ている際は、音声による出力は好ましくない環境であるため、レベル算出部10dは、出力方法が「表示」に切り替えられるよう出力許容レベルを低く算出する。また、表示出力する際に表示装置の明るさで寝ている人に迷惑をかけないために、表示装置の輝度を落とすよう、レベル算出部10dは出力許容レベルをさらに低く算出してもよい。なおレベル算出部10dは、情報処理装置1の照度センサ(不図示)により検知された部屋の照度もユーザ周辺の様子として取得し、出力許容レベルを算出してもよい。
レベル算出部10dは、ユーザの様子に応じて出力許容レベルを算出してもよい。例えばユーザが小声で発話したときは、音声UIからも小声で返答されることが期待され、大声が適切でない環境であると判断されるため、レベル算出部10dは出力許容レベルを低く算出する。なお小声が否かの判別は、ユーザの普段の発話音量と比較して行われてもよいし、ユーザによる口元に手を添える等の動作に基づいて行われてもよい。ユーザの様子は、情報処理装置1に設けられたマイクロホン12、およびカメラ14等により取得され得る。また、レベル算出部10dは、音声コマンド、ジェスチャー、本体操作(ハードウェアボタン(不図示)の操作等)、またはリモートコントローラ(不図示)操作等によりユーザ自身が明示的に出力許容レベルを指定した場合、これに基づいて出力許容レベルを算出してもよい。
レベル算出部10dは、情報処理装置1に対するユーザの位置に応じて出力許容レベルを算出してもよい。例えばユーザの位置が情報処理装置1に近い場合、応答出力の音量を下げてもユーザには聞こえるため、レベル算出部10dは出力許容レベルを低く算出してもよい。このように音量を下げることで、近くに居る対象ユーザには聞こえるが、離れた場所に居る他の人物には聞こえ難くなり、応答の音漏れを軽減することができる。情報処理装置1に対するユーザの位置は、例えば情報処理装置1に設けられた測距センサ15により取得され得る。
レベル算出部10dは、アクセスシビリティを考慮して出力許容レベルを算出してもよい。例えば、ユーザが耳に障害を持っていたり、老人であったり、聞き返しが多い場合、レベル算出部10dは、音声ではなく表示で応答を出力するよう、出力許容レベルを低く算出する。これにより、ユーザはストレスなく音声UIを利用することができる。一方、視力が悪いユーザや、通常掛けている眼鏡を外しているユーザの場合、レベル算出部10dは、表示ではなく音声で応答出力されるよう出力許容レベルを高く算出してもよい。アクセスシビリティを考慮する際に用いられるユーザの身体的特徴に関する情報は、例えば記憶部17から取得され得る。
通信部11は、外部装置とデータの送受信を行う。例えば通信部11は、ネットワーク上の所定サーバと接続し、応答生成部10cによる応答生成に必要な情報を受信する。また、通信部11は、周辺の機器と連携し、出力制御部10fの制御に従って対象機器に応答データを送信する。
マイクロホン12は、周辺の音声を収音し、音声信号として制御部10に出力する機能を有する。また、マイクロホン12は、アレイマイクロホンにより実現されていてもよい。
スピーカ13は、出力制御部10fの制御に従って音声信号を音声に変換して出力する機能を有する。
カメラ14は、情報処理装置1に設けられた撮像レンズにより周辺を撮像し、撮像画像を制御部10に出力する機能を有する。また、カメラ14は、360度カメラまたは広角カメラ等により実現されてもよい。
測距センサ15は、情報処理装置1とユーザやユーザの周辺に居る人物との距離を測定する機能を有する。測距センサ15は、例えば光センサ(発光・受光タイミングの位相差情報に基づいて対象物までの距離を測定するセンサ)により実現される。
投影部16は、表示装置の一例であって、壁やスクリーンに画像を(拡大して)投影することで表示する機能を有する。
記憶部17は、情報処理装置1の各構成が機能するためのプログラムを格納する。また、記憶部17は、レベル算出部10dが出力許容レベルを算出する際に用いる各種パラメータや、決定部10eが出力許容レベルに応じて出力方法を決定する際に用いる各種閾値を格納する。また、記憶部17は、ユーザの登録情報を格納する。ユーザの登録情報には、個人識別用情報(音声の特徴量、顔画像、人画像(身体画像を含む)の特徴量、氏名、識別番号等)、年齢、性別、趣味・嗜好、属性(主婦、会社員、学生等)、特徴(視力が悪い、耳が聞こえ難い等)、およびユーザが所有する通信端末に関する接続情報等が含まれる。
発光部18は、LED等の発光素子により実現され、全灯、一部点灯、点滅、または点灯位置の制御等が可能である。例えば発光部18は、制御部10の制御にしたがって音声認識部10aにより認識された発話者の方向を一部点灯することで、発話者の方向に視線を向けているように見せることができる。
次に、本実施形態による音声認識システムの動作処理について図3を参照して具体的に説明する。
<4−1.音声による応答出力>
上述したように、本実施形態による情報処理装置1(音声UIエージェント機能)は、出力許容レベルが高い場合は音声で応答出力を行う。例えば情報処理装置1の決定部10eは、出力許容レベルが第1の閾値よりも高い場合、スピーカ13から全方位に向けて通常時の音量で音声出力による応答を行う出力方法に決定する。
また、本実施形態による音声UIは、出力許容レベルが低い場合、音声による応答出力を避けて表示による応答出力に切り替える。例えば、情報処理装置1の決定部10eは、出力許容レベルが第2の閾値よりも低い場合、音声出力ではなく表示による応答出力に決定する。具体的には、決定部10eは、投影部16により応答を示す応答画像21bや応答関連画像21cを壁20に投影させて表示する方法(図1参照)に決定する。
また、決定部10eは、出力許容レベルが第3の閾値よりも低い場合、表示装置の輝度を落として応答出力する方法に決定する。これにより、例えば夜間の時間帯や付近で人が寝ている場合にユーザの発話に対して突然表示装置がONになって(または投影が行われて)明るくなり、寝ている人を起こしてしまうといった事態を回避することができる。なお上述した第1〜第3の閾値は、第1の閾値より第2の閾値が低く、また、第2の閾値より第3の閾値が低い関係性を有する。
また、情報処理装置1にサブディスプレイが設けられている場合、決定部10eは、出力許容レベルに応じて当該サブディスプレイを利用した出力方法に決定することも可能である。ここで、図4に、サブディスプレイ19が設けられている情報処理装置1xの一例を示す。図4に示すように、円柱形状で形成された情報処理装置1xの側面上に設けられるサブディスプレイ19は、投影部16による表示に比べると、表示領域が小さく、解像度が低いといった表示上の制限があることが想定されるが、応答文を端的なテキストで表示することで、サブディスプレイ19でも応答出力が可能となる。また、このように小さな表示領域で応答することで、応答内容がユーザ以外の人物に見られることを回避し、プライバシーを保護することも可能となる。
また、本実施形態による情報処理装置1は、外部装置との機器連携が可能な場合、出力許容レベルに応じて、外部装置から応答を出力する方法に決定することも可能である。例えば決定部10eは、周辺に設置されているTVやPC等の表示画面から表示出力する方法や、ユーザが所持する携帯電話端末、スマートフォン、またはウェアラブル端末等の通信端末に所定のアプリケーションやメールを用いてプッシュ通知する方法に決定してもよい。なおTVやPCが他の人物により使用されている場合は、これらの装置への応答出力は他の人物の邪魔になるため、回避する。また、ユーザが所持する通信端末から応答出力する場合、出力制御部10fは、その旨をサブディスプレイ19等に表示してユーザに通知してもよい。以下、図5を参照して説明する。
また、本実施形態による決定部10eは、継続的に観測される周辺環境の変化に応じて変化する出力許容レベルに応じて、対話中に応答出力方法を変更してもよい。
また、本実施形態では、現在の出力許容レベルをアイコン等によりサブディスプレイ19や、壁20への投影により表示してユーザに通知することも可能である。これによりユーザは、出力許容レベルの設定に応じた出力制限が行われていることを直感的に把握することができる。ここで、本実施形態による出力許容レベルを示す表示例を図6に示す。
<5−1.概要>
次に、本実施形態の他の例として、複数ユーザ環境下における出力について説明する。上述した実施形態では、主に一のユーザを前提として説明したが、家庭空間等では複数のユーザが存在する環境が想定される。
図7は、本実施形態の他の例による情報処理装置1aの構成の一例を示す図である。図7に示すように、情報処理装置1aは、制御部100、通信部11、マイクロホン12、スピーカ13、カメラ14、測距センサ15、投影部16、記憶部17、および発光部18を有する。図2を参照して説明した構成と同符号の構成については、ここでの説明は省略する。
Public
all:全てのユーザが確認可能な、全てのユーザに向けた通知。一般的な情報通知や家族全体に対する通知等が想定される。
Public
person:全てのユーザが確認可能であるが、特定のユーザのみを対象とする通知。例えば家族内の特定の誰かへの通知(母親へのリマインダー通知等)が想定される。
Private
group:特定グループのみが確認可能な通知。例えば「大人」、「両親」、「女性」、「子供」、「親戚」等のグループである。グループの設定は事前にユーザによりカスタマイズされ得る。
Private
person:特定のユーザのみが確認可能な、特定のユーザのみを対象とする通知。
続いて、本実施形態の他の例による動作処理について図8を参照して説明する。図8は、本実施形態の他の例による通知処理を示すフローチャートである。
(5−4−1.Public通知)
図9Aは、Public通知の方法について説明する図である。図9A左側には、Public allタイプの通知例を示す。Public allタイプは、例えば家族全体への一般的な情報通知(天気、交通、ニュース、家族の予定)や、家族への推薦情報(写真、音楽等)が想定される。具体的には、例えば情報処理装置1aは、図示するように「今日は夕方から雨が降りそうですよ」といった発話をスピーカ13から出力したり、発光部18を発光(予め設定された通知内容に応じた発光(色、点滅等))させたりする。また、情報処理装置1aに表示部が設けられている場合、当該表示部に通知情報を表示してもよいし、投影部16で通知情報を壁等に投影してもよい。また、情報処理装置1aは、香り(匂い)を出力する機能を有する場合、通知情報があることを全てのユーザに気付かせるために香りを出力してユーザの注目を集めてから、発話や発光、表示、投影等により通知を行うようにしてもよい。
図9Bは、Private通知の方法について説明する図である。図9B左側には、Private
groupタイプの通知例を示す。Private groupタイプは、特定グループへの秘匿性のある通知であって、例えば子供には秘匿にしたい親宛の通知(子供へのプレゼントに関する通知、子供の学友関係のトラブル通知、学費の相談)等が想定される。この場合、情報処理装置1aは、図示したように親グループ等特定のグループに対してのみ通知を行う。具体的には、例えば情報処理装置1aは、特定グループのユーザを近くに呼び寄せて小さな音声で「ABC人形入荷したそうです」(子供へのプレゼントについての情報)と発話したり、有線/無線(Blue tooth(登録商標)等)で接続されたイヤホンを通して発話したりする。通知対象者の特定グループのユーザに近付いて来て貰うことにより、通知情報の秘匿性を確保することができる。
・特定グループのユーザに直接話し掛ける。例えば「ご両親さん、ちょっとこちらに来て頂けませんか?」等。
・空気の渦を特定グループのユーザに向けて噴射し、特定グループのユーザにだけ近づいてきてもらう。
・特定グループのユーザを表す特定の光(色、点滅パターン等)を発光部18から出力してユーザに気付いてもらう。
・表示や投影により特定グループの名称を示してユーザに気付いてもらう。若しくは特定グループのユーザを表す特定の光(色、点滅パターン等)を表示や投影により出力してもよい。
・特定グループに対応するSE(Sound Effect;効果音)やBGMを流してユーザに気付いてもらう。
・特定グループのユーザが情報処理装置1aを見ている時にだけ、発光部18や表示、投影により特別なフィードバック(目線を合わせてウインクする等のアイコンタクト、うなずき等)を行い、ユーザに気付いてもらう。
・特定グループの各ユーザが保持するデバイス(スマートフォン、ウェアラブル端末等)を振動させて気付いてもらう。
・特定ユーザに直接話し掛ける。例えば「娘ちゃん、ちょっとこちらに来て頂けませんか?」等。
・空気の渦を特定ユーザに向けて噴射し、特定ユーザにだけ近づいてきてもらう。
・特定ユーザを表す特定の光(色、点滅パターン等)を発光部18から出力してユーザに気付いてもらう。
・表示や投影により特定ユーザの名前を示してユーザに気付いてもらう。若しくは特定ユーザを表す特定の光(色、点滅パターン等)を表示や投影により出力してもよい。
・特定ユーザに対応するSE(Sound Effect;効果音)やBGMを流してユーザに気付いてもらう。
・特定ユーザが情報処理装置1aを見ている時にだけ、発光部18や表示、投影により特別なフィードバック(目線を合わせてウインクする等のアイコンタクト、うなずき等)を行い、ユーザに気付いてもらう。
・特定ユーザが保持するデバイス(スマートフォン、ウェアラブル端末等)を振動させて気付いてもらう。
・情報処理装置1aが自走できる場合、情報処理装置1a自体が特定グループまたは特定ユーザに近付いて情報を通知してもよい。また、可能な限り自走して特定グループまたは特定ユーザに近付いて、その後上述したようなユーザを近くに呼び寄せる方法を用いてもよい。
・特定グループまたは特定ユーザが情報処理装置1aの設置場所に近付いて来た時に通知するようにしてもよい。
・日付を用いる:「昨日頼まれていたこと、大丈夫です」
・誰のことかだけを示す:「Bさんから頼まれていたこと、大丈夫です」
・指示語を用いる:「あのことです」「あれのことです」
・固有のIDを用いる:「A103のことです」「タスク13です」
・隠語を用いる:「パインのことです」「ブックです」
・暗号表示や暗号発話を用いる:「○□△#%」
上述したように、本開示の実施形態では、音声UIによる応答時に、現在の周辺環境に応じて適切な応答出力方法を決定することで、音声認識システムの利便性を向上することが可能となる。
(1)
ユーザの発話に対する応答を生成する応答生成部と、
現在の周辺環境に応じて応答出力方法を決定する決定部と、
前記決定された応答出力方法で前記生成された応答を出力するよう制御する出力制御部と、
を備える、情報処理装置。
(2)
前記決定部は、音声による応答出力または表示による応答出力を決定する、前記(1)に記載の情報処理装置。
(3)
前記決定部は、前記現在の周辺環境に応じて、前記音声による応答出力時における音量または指向性の制御を決定する、前記(2)に記載の情報処理装置。
(4)
前記決定部は、前記現在の周辺環境に応じて、前記表示による応答出力時における表示装置の選択、または輝度調整を決定する、前記(2)に記載の情報処理装置。
(5)
前記表示装置は、メインディスプレイ、サブディスプレイ、および連携する外部表示装置のいずれかから選択される、前記(4)に記載の情報処理装置。
(6)
前記情報処理装置は、
前記現在の周辺環境に基づいて出力許容レベルを算出する算出部をさらに備え、
前記決定部は、前記算出された出力許容レベルに応じて前記応答出力方法を決定する、前記(2)〜(5)のいずれか1項に記載の情報処理装置。
(7)
前記現在の周辺環境は、時間帯、外部音源の存在、ユーザ環境、ユーザの様子、ユーザの位置、およびユーザの身体的特徴の少なくともいずれかを含む、前記(6)に記載の情報処理装置。
(8)
前記決定部は、前記出力許容レベルが所定の閾値を上回るか否かに応じて前記応答出力方法を決定する、前記(6)または(7)に記載の情報処理装置。
(9)
前記決定部は、対話中に周辺環境が変化して前記出力許容レベルも変化した場合、変化した前記出力許容レベルに応じて前記応答出力方法を変更する、前記(6)〜(8)のいずれか1項に記載の情報処理装置。
(10)
前記出力制御部は、前記出力許容レベルをユーザに通知するよう制御する、前記(6)〜(9)のいずれか1項に記載の情報処理装置。
(11)
ユーザの発話に対する応答を生成することと、
現在の周辺環境に応じて応答出力方法を決定することと、
前記決定された応答出力方法で前記生成された応答を出力するよう出力制御部により制御することと、
を含む、制御方法。
(12)
コンピュータを、
ユーザの発話に対する応答を生成する応答生成部と、
現在の周辺環境に応じて応答出力方法を決定する決定部と、
前記決定された応答出力方法で前記生成された応答を出力するよう制御する出力制御部と、
として機能させる、プログラム。
3 通信端末
10 制御部
10a 音声認識部
10b 意味解析部
10c 応答生成部
10d レベル算出部
10e 決定部
10f 出力制御部
11 通信部
12 マイクロホン
13 スピーカ
14 カメラ
15 測距センサ
16 投影部
17 記憶部
18 発光部
19 サブディスプレイ
20 壁
21a 発話内容画像
21b 応答画像
21c 応答関連画像
30a〜30e 表示例
31〜33 アイコン
Claims (12)
- ユーザの発話に対する応答を生成する応答生成部と、
現在の周辺環境に応じて応答出力方法を決定する決定部と、
前記決定された応答出力方法で前記生成された応答を出力するよう制御する出力制御部と、
を備える、情報処理装置。 - 前記決定部は、音声による応答出力または表示による応答出力を決定する、請求項1に記載の情報処理装置。
- 前記決定部は、前記現在の周辺環境に応じて、前記音声による応答出力時における音量または指向性の制御を決定する、請求項2に記載の情報処理装置。
- 前記決定部は、前記現在の周辺環境に応じて、前記表示による応答出力時における表示装置の選択、または輝度調整を決定する、請求項2に記載の情報処理装置。
- 前記表示装置は、メインディスプレイ、サブディスプレイ、および連携する外部表示装置のいずれかから選択される、請求項4に記載の情報処理装置。
- 前記情報処理装置は、
前記現在の周辺環境に基づいて出力許容レベルを算出する算出部をさらに備え、
前記決定部は、前記算出された出力許容レベルに応じて前記応答出力方法を決定する、請求項2に記載の情報処理装置。 - 前記現在の周辺環境は、時間帯、外部音源の存在、ユーザ環境、ユーザの様子、ユーザの位置、およびユーザの身体的特徴の少なくともいずれかを含む、請求項6に記載の情報処理装置。
- 前記決定部は、前記出力許容レベルが所定の閾値を上回るか否かに応じて前記応答出力方法を決定する、請求項6に記載の情報処理装置。
- 前記決定部は、対話中に周辺環境が変化して前記出力許容レベルも変化した場合、変化した前記出力許容レベルに応じて前記応答出力方法を変更する、請求項6に記載の情報処理装置。
- 前記出力制御部は、前記出力許容レベルをユーザに通知するよう制御する、請求項6に記載の情報処理装置。
- ユーザの発話に対する応答を生成することと、
現在の周辺環境に応じて応答出力方法を決定することと、
前記決定された応答出力方法で前記生成された応答を出力するよう出力制御部により制御することと、
を含む、制御方法。 - コンピュータを、
ユーザの発話に対する応答を生成する応答生成部と、
現在の周辺環境に応じて応答出力方法を決定する決定部と、
前記決定された応答出力方法で前記生成された応答を出力するよう制御する出力制御部と、
として機能させる、プログラム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015073895 | 2015-03-31 | ||
JP2015073895 | 2015-03-31 | ||
JPPCT/JP2015/086098 | 2015-12-24 | ||
PCT/JP2015/086098 WO2016157658A1 (ja) | 2015-03-31 | 2015-12-24 | 情報処理装置、制御方法、およびプログラム |
PCT/JP2016/059715 WO2016158792A1 (ja) | 2015-03-31 | 2016-03-25 | 情報処理装置、制御方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2016158792A1 true JPWO2016158792A1 (ja) | 2018-02-01 |
JP6760267B2 JP6760267B2 (ja) | 2020-09-23 |
Family
ID=57005525
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017509929A Active JP6760267B2 (ja) | 2015-03-31 | 2016-03-25 | 情報処理装置、制御方法、およびプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US10776070B2 (ja) |
EP (1) | EP3279791A4 (ja) |
JP (1) | JP6760267B2 (ja) |
CN (1) | CN107408028B (ja) |
WO (2) | WO2016157658A1 (ja) |
Families Citing this family (48)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10621992B2 (en) * | 2016-07-22 | 2020-04-14 | Lenovo (Singapore) Pte. Ltd. | Activating voice assistant based on at least one of user proximity and context |
CN107734213A (zh) * | 2016-08-11 | 2018-02-23 | 漳州立达信光电子科技有限公司 | 智能家用电子装置与系统 |
JP2018067100A (ja) * | 2016-10-18 | 2018-04-26 | 株式会社日立製作所 | ロボット対話システム |
CN106354025A (zh) * | 2016-10-31 | 2017-01-25 | 广州华凌制冷设备有限公司 | 一种基于语音识别的智能家电控制方法及装置、空调 |
US10074359B2 (en) * | 2016-11-01 | 2018-09-11 | Google Llc | Dynamic text-to-speech provisioning |
US10593329B2 (en) | 2016-12-30 | 2020-03-17 | Google Llc | Multimodal transmission of packetized data |
US10708313B2 (en) | 2016-12-30 | 2020-07-07 | Google Llc | Multimodal transmission of packetized data |
CN110447067A (zh) * | 2017-03-23 | 2019-11-12 | 夏普株式会社 | 发话装置、该发话装置的控制方法及该发话装置的控制程序 |
JP7095684B2 (ja) * | 2017-03-30 | 2022-07-05 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、プログラム |
KR101934954B1 (ko) | 2017-05-24 | 2019-01-03 | 네이버 주식회사 | 음성요청에 대응하는 정보 전달 향상을 위한 출력 |
US10664533B2 (en) | 2017-05-24 | 2020-05-26 | Lenovo (Singapore) Pte. Ltd. | Systems and methods to determine response cue for digital assistant based on context |
US10564928B2 (en) * | 2017-06-02 | 2020-02-18 | Rovi Guides, Inc. | Systems and methods for generating a volume- based response for multiple voice-operated user devices |
JP7272265B2 (ja) * | 2017-09-05 | 2023-05-12 | ソニーグループ株式会社 | 情報処理装置 |
JP2019057092A (ja) * | 2017-09-20 | 2019-04-11 | 富士ゼロックス株式会社 | 情報処理装置及びプログラム |
JP2019057093A (ja) * | 2017-09-20 | 2019-04-11 | 富士ゼロックス株式会社 | 情報処理装置及びプログラム |
JP2019079083A (ja) * | 2017-10-19 | 2019-05-23 | アイシン精機株式会社 | 運転支援装置 |
EP3567585A4 (en) * | 2017-11-15 | 2020-04-15 | Sony Corporation | INFORMATION PROCESSING DEVICE AND INFORMATION PROCESSING METHOD |
CN107919120B (zh) * | 2017-11-16 | 2020-03-13 | 百度在线网络技术(北京)有限公司 | 语音交互方法及装置,终端,服务器及可读存储介质 |
JP7192208B2 (ja) * | 2017-12-01 | 2022-12-20 | ヤマハ株式会社 | 機器制御システム、デバイス、プログラム、及び機器制御方法 |
JP6962158B2 (ja) | 2017-12-01 | 2021-11-05 | ヤマハ株式会社 | 機器制御システム、機器制御方法、及びプログラム |
US20200388268A1 (en) * | 2018-01-10 | 2020-12-10 | Sony Corporation | Information processing apparatus, information processing system, and information processing method, and program |
US11030979B2 (en) * | 2018-01-12 | 2021-06-08 | Sony Corporation | Information processing apparatus and information processing method |
WO2019143336A1 (en) * | 2018-01-18 | 2019-07-25 | Hewlett-Packard Development Company, L.P. | Learned quiet times for digital assistants |
JP6774438B2 (ja) * | 2018-01-22 | 2020-10-21 | ヤフー株式会社 | 情報処理システム、情報処理方法、およびプログラム |
JP6788620B2 (ja) * | 2018-01-22 | 2020-11-25 | ヤフー株式会社 | 情報処理システム、情報処理方法、およびプログラム |
JP7067082B2 (ja) | 2018-01-24 | 2022-05-16 | ヤマハ株式会社 | 機器制御システム、機器制御方法、及びプログラム |
WO2019163255A1 (ja) * | 2018-02-23 | 2019-08-29 | ソニー株式会社 | 情報処理装置、情報処理方法、および、プログラム |
CN108469966A (zh) * | 2018-03-21 | 2018-08-31 | 北京金山安全软件有限公司 | 语音播报控制方法、装置、智能设备及介质 |
JP7098390B2 (ja) * | 2018-04-12 | 2022-07-11 | 株式会社Nttドコモ | 情報処理装置 |
CN108601176A (zh) * | 2018-04-28 | 2018-09-28 | 深圳春沐源控股有限公司 | 亮度调节装置的控制方法、系统、计算机设备及存储介质 |
JP2021128350A (ja) * | 2018-05-09 | 2021-09-02 | ソニーグループ株式会社 | 情報処理システム、情報処理方法、および記録媒体 |
JP2019204287A (ja) | 2018-05-23 | 2019-11-28 | ソニー株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
JP6700338B2 (ja) * | 2018-06-19 | 2020-05-27 | ソフトバンク株式会社 | 情報処理装置、情報処理方法、情報処理プログラム |
JP7093266B2 (ja) * | 2018-08-20 | 2022-06-29 | ヤフー株式会社 | 決定装置、決定方法及び決定プログラム |
JP7055722B2 (ja) * | 2018-08-27 | 2022-04-18 | 京セラ株式会社 | 音声認識機能を有する電子機器、その電子機器の制御方法およびプログラム |
CN110874201B (zh) * | 2018-08-29 | 2023-06-23 | 斑马智行网络(香港)有限公司 | 交互方法、设备、存储介质和操作系统 |
CN109150675A (zh) * | 2018-08-31 | 2019-01-04 | 珠海格力电器股份有限公司 | 一种家用电器的交互方法及装置 |
CN109166580A (zh) * | 2018-09-17 | 2019-01-08 | 珠海格力电器股份有限公司 | 一种语音反馈提示控制方法、系统及空调器 |
WO2020090322A1 (ja) * | 2018-11-01 | 2020-05-07 | ソニー株式会社 | 情報処理装置、その制御方法及びプログラム |
US11151990B2 (en) * | 2018-12-14 | 2021-10-19 | International Business Machines Corporation | Operating a voice response system |
US20210404830A1 (en) * | 2018-12-19 | 2021-12-30 | Nikon Corporation | Navigation device, vehicle, navigation method, and non-transitory storage medium |
US10795670B2 (en) | 2018-12-20 | 2020-10-06 | Roblox Corporation | Developer collaboration control system |
JP2020119412A (ja) * | 2019-01-28 | 2020-08-06 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
EP3933828A1 (en) | 2019-02-25 | 2022-01-05 | Sony Group Corporation | Information processing device and information processing method |
JP7318241B2 (ja) * | 2019-03-18 | 2023-08-01 | コニカミノルタ株式会社 | 音声情報処理装置及びプログラム |
JP7474058B2 (ja) | 2020-02-04 | 2024-04-24 | 株式会社デンソーテン | 表示装置および表示装置の制御方法 |
CN115461699A (zh) * | 2020-04-27 | 2022-12-09 | 索尼集团公司 | 信息处理装置、信息处理方法、输出装置、输出方法、程序和通知系统 |
WO2021217527A1 (zh) * | 2020-04-29 | 2021-11-04 | 华为技术有限公司 | 一种车内语音交互方法及设备 |
Family Cites Families (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06124097A (ja) * | 1992-10-13 | 1994-05-06 | Hitachi Ltd | 携帯型端末装置 |
JP3729918B2 (ja) * | 1995-07-19 | 2005-12-21 | 株式会社東芝 | マルチモーダル対話装置及び対話方法 |
JP3518113B2 (ja) * | 1995-12-06 | 2004-04-12 | 日産自動車株式会社 | 表示装置 |
US8419650B2 (en) * | 1999-04-16 | 2013-04-16 | Cariocom, LLC | Downloadable datasets for a patient monitoring system |
JP2001005487A (ja) * | 1999-06-18 | 2001-01-12 | Mitsubishi Electric Corp | 音声認識装置 |
US6640098B1 (en) * | 2000-02-14 | 2003-10-28 | Action Engine Corporation | System for obtaining service-related information for local interactive wireless devices |
US7167830B2 (en) * | 2000-03-10 | 2007-01-23 | Entrieva, Inc. | Multimodal information services |
US7640006B2 (en) * | 2001-10-03 | 2009-12-29 | Accenture Global Services Gmbh | Directory assistance with multi-modal messaging |
JP3733322B2 (ja) * | 2001-11-21 | 2006-01-11 | キヤノン株式会社 | マルチモーダル文書受信装置及びマルチモーダル文書送信装置、マルチモーダル文書送受信システム及びそれらの制御方法、プログラム |
US7162451B2 (en) * | 2001-11-30 | 2007-01-09 | International Business Machines Corporation | Information content distribution based on privacy and/or personal information |
US6807529B2 (en) * | 2002-02-27 | 2004-10-19 | Motorola, Inc. | System and method for concurrent multimodal communication |
US7250846B2 (en) * | 2002-03-05 | 2007-07-31 | International Business Machines Corporation | Method and apparatus for providing dynamic user alert |
US7272564B2 (en) * | 2002-03-22 | 2007-09-18 | Motorola, Inc. | Method and apparatus for multimodal communication with user control of delivery modality |
CH698655B1 (fr) * | 2002-12-05 | 2009-09-30 | Asulab Sa | Adaptabilité de l'interface d'un objet portable en fonction de son environnement. |
US7650170B2 (en) * | 2004-03-01 | 2010-01-19 | Research In Motion Limited | Communications system providing automatic text-to-speech conversion features and related methods |
JP2007041920A (ja) * | 2005-08-04 | 2007-02-15 | Matsushita Electric Ind Co Ltd | 健康端末装置、健康診断ネットワークシステム、及びプログラム |
US7912187B1 (en) * | 2006-06-01 | 2011-03-22 | At&T Mobility Ii Llc | Transcoding voice to/from text based on location of a communication device |
US8000969B2 (en) * | 2006-12-19 | 2011-08-16 | Nuance Communications, Inc. | Inferring switching conditions for switching between modalities in a speech application environment extended for interactive text exchanges |
US10311446B2 (en) * | 2008-12-05 | 2019-06-04 | Nokia Technologies Oy | Method and apparatus for obfuscating context information |
AU2010221722A1 (en) * | 2009-02-06 | 2011-08-18 | Oculis Labs, Inc. | Video-based privacy supporting system |
US8839150B2 (en) * | 2010-02-10 | 2014-09-16 | Apple Inc. | Graphical objects that respond to touch or motion input |
US20120003989A1 (en) * | 2010-07-01 | 2012-01-05 | Cox Communications, Inc. | Location Status Update Messaging |
US9179214B2 (en) * | 2010-07-23 | 2015-11-03 | Nec Corporation | Audio equipment and oscillation unit |
US8265938B1 (en) * | 2011-05-24 | 2012-09-11 | Verna Ip Holdings, Llc | Voice alert methods, systems and processor-readable media |
JP5831929B2 (ja) * | 2011-08-29 | 2015-12-09 | 日本電気株式会社 | 表示装置、制御方法、及びプログラム |
US8793118B2 (en) * | 2011-11-01 | 2014-07-29 | PES School of Engineering | Adaptive multimodal communication assist system |
US8731822B2 (en) * | 2012-01-17 | 2014-05-20 | Motorola Mobility Llc | Systems and methods for interleaving navigational directions with additional audio in a mobile device |
KR101999182B1 (ko) * | 2012-04-08 | 2019-07-11 | 삼성전자주식회사 | 사용자 단말 장치 및 그의 제어 방법 |
US9953326B2 (en) * | 2012-05-02 | 2018-04-24 | Jpmorgan Chase Bank, N.A. | Alert optimization system and method |
US9510141B2 (en) * | 2012-06-04 | 2016-11-29 | Apple Inc. | App recommendation using crowd-sourced localized app usage data |
JP2013254395A (ja) * | 2012-06-07 | 2013-12-19 | Ricoh Co Ltd | 処理装置、処理システム、出力方法およびプログラム |
WO2013187610A1 (en) * | 2012-06-15 | 2013-12-19 | Samsung Electronics Co., Ltd. | Terminal apparatus and control method thereof |
US9874991B2 (en) * | 2013-01-15 | 2018-01-23 | Apple Inc. | Progressive tiling |
US20140310277A1 (en) * | 2013-04-15 | 2014-10-16 | Flextronics Ap, Llc | Suspending user profile modification based on user context |
CN104424470B (zh) * | 2013-09-03 | 2018-04-27 | 联想(北京)有限公司 | 一种手势识别方法及装置 |
US9037455B1 (en) * | 2014-01-08 | 2015-05-19 | Google Inc. | Limiting notification interruptions |
CN103747346B (zh) * | 2014-01-23 | 2017-08-25 | 中国联合网络通信集团有限公司 | 一种多媒体视频播放的控制方法及多媒体视频播放器 |
US9031812B2 (en) * | 2014-02-27 | 2015-05-12 | Fitbit, Inc. | Notifications on a user device based on activity detected by an activity monitoring device |
EP3114574A4 (en) * | 2014-03-03 | 2018-03-07 | Inrix, Inc. | Traffic obstruction detection |
US9779474B2 (en) * | 2014-04-04 | 2017-10-03 | Blackberry Limited | System and method for electronic device display privacy |
US10203665B2 (en) * | 2014-04-24 | 2019-02-12 | Vivint, Inc. | Managing home automation system based on behavior and user input |
US9378641B2 (en) * | 2014-06-18 | 2016-06-28 | Justin Edward Beumler | Detecting unsafe car seat passenger-conditions |
CN104394261A (zh) * | 2014-10-08 | 2015-03-04 | 小米科技有限责任公司 | 电话留言提示方法和装置 |
US20160132975A1 (en) * | 2014-11-07 | 2016-05-12 | Opower, Inc. | Identifying high usage periods |
US9443195B2 (en) * | 2014-11-26 | 2016-09-13 | Sense Labs, Inc. | Assisted labeling of devices with disaggregation |
-
2015
- 2015-12-24 WO PCT/JP2015/086098 patent/WO2016157658A1/ja active Application Filing
-
2016
- 2016-03-25 JP JP2017509929A patent/JP6760267B2/ja active Active
- 2016-03-25 US US15/560,555 patent/US10776070B2/en active Active
- 2016-03-25 WO PCT/JP2016/059715 patent/WO2016158792A1/ja active Application Filing
- 2016-03-25 EP EP16772673.6A patent/EP3279791A4/en not_active Withdrawn
- 2016-03-25 CN CN201680017903.8A patent/CN107408028B/zh not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
CN107408028A (zh) | 2017-11-28 |
WO2016157658A1 (ja) | 2016-10-06 |
US10776070B2 (en) | 2020-09-15 |
US20180107445A1 (en) | 2018-04-19 |
EP3279791A1 (en) | 2018-02-07 |
WO2016158792A1 (ja) | 2016-10-06 |
CN107408028B (zh) | 2020-12-18 |
JP6760267B2 (ja) | 2020-09-23 |
EP3279791A4 (en) | 2018-10-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6760267B2 (ja) | 情報処理装置、制御方法、およびプログラム | |
US11277519B2 (en) | Methods and apparatus to assist listeners in distinguishing between electronically generated binaural sound and physical environment sound | |
CN107408027B (zh) | 信息处理设备、控制方法及程序 | |
CN106257355A (zh) | 设备控制方法和控制器 | |
JP2017009867A (ja) | 制御装置、その方法及びプログラム | |
US20160071389A1 (en) | Smart led lighting system and monitoring method thereof | |
WO2018066191A1 (ja) | サーバ、クライアント端末、制御方法、および記憶媒体 | |
CN106463108A (zh) | 提供与干扰的隔离 | |
WO2017141530A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JPWO2015186387A1 (ja) | 情報処理装置、制御方法、およびプログラム | |
US11544968B2 (en) | Information processing system, information processingmethod, and recording medium | |
JP6973380B2 (ja) | 情報処理装置、および情報処理方法 | |
KR20220013498A (ko) | 층간소음 분쟁을 예방하기 위한 인공지능 기반의 이웃간 데이터 처리 장치 및 이를 이용한 데이터 처리 방법 | |
JP2016080894A (ja) | 電子機器、家電、制御システム、制御方法、および制御プログラム | |
US9420111B2 (en) | Communication device, method, and program | |
US20220141283A1 (en) | Information processing device and information processing method | |
Olaosun et al. | Assistive technology for hearing and speech disorders | |
JP2017050280A (ja) | ユーザの照明嗜好に基づいて照明システムを操作するためのシステム及び方法 | |
JPWO2018216271A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP7212766B2 (ja) | コミュニケーションロボットおよびその制御方法、情報処理サーバならびに情報処理方法 | |
JP7074343B2 (ja) | 情報処理装置 | |
JP2017211798A (ja) | ネットワークシステム、情報処理方法、およびサーバ | |
JP2022032697A (ja) | 情報処理装置およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A524 | Written submission of copy of amendment under article 19 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A527 Effective date: 20170705 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190204 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190204 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190208 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20190214 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190222 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20190515 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190522 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200616 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200720 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200804 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200817 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6760267 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |