JPWO2016158792A1 - 情報処理装置、制御方法、およびプログラム - Google Patents

情報処理装置、制御方法、およびプログラム Download PDF

Info

Publication number
JPWO2016158792A1
JPWO2016158792A1 JP2017509929A JP2017509929A JPWO2016158792A1 JP WO2016158792 A1 JPWO2016158792 A1 JP WO2016158792A1 JP 2017509929 A JP2017509929 A JP 2017509929A JP 2017509929 A JP2017509929 A JP 2017509929A JP WO2016158792 A1 JPWO2016158792 A1 JP WO2016158792A1
Authority
JP
Japan
Prior art keywords
output
response
user
information processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017509929A
Other languages
English (en)
Other versions
JP6760267B2 (ja
Inventor
淳己 大村
淳己 大村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2016158792A1 publication Critical patent/JPWO2016158792A1/ja
Application granted granted Critical
Publication of JP6760267B2 publication Critical patent/JP6760267B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M19/00Current supply arrangements for telephone systems
    • H04M19/02Current supply arrangements for telephone systems providing ringing current or supervisory tones, e.g. dialling tone or busy tone
    • H04M19/04Current supply arrangements for telephone systems providing ringing current or supervisory tones, e.g. dialling tone or busy tone the ringing-current being generated at the substations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/20Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use

Abstract

現在の周辺環境に応じて適切な応答出力方法を決定することで、音声認識システムの利便性を向上することが可能な情報処理装置、制御方法、およびプログラムを提供する。ユーザの発話に対する応答を生成し、現在の周辺環境に応じて応答出力方法を決定し、前記決定された応答出力方法で前記生成された応答を出力するよう制御する。

Description

本開示は、情報処理装置、制御方法、およびプログラムに関する。
従来から、ユーザの発話に対して音声認識・意味解析を行い、音声により応答する技術の開発が行われている。特に昨今の音声認識アルゴリズムの進歩とコンピュータ技術の発展により、音声認識処理を実用的な時間で行うことが可能となり、音声を用いたUI(ユーザインタフェース)がスマートフォンやタブレット端末等において普及してきている。
例えばスマートフォンやタブレット端末等に搭載された音声UIのアプリケーションでは、ユーザの音声による質問に対して音声で応答したり、ユーザの音声による指示に対して対応する処理を実行したりすることが可能となる。
特開2014−132396号公報
しかしながら、声を発するのが好ましくない環境や騒音が大きい環境においては、音声UIの使い勝手が悪かった。例えば上記特許文献1では、マナーモードにセットされた携帯端末に着信があると、相手側の音声をテキストに変換してユーザに提示し、ユーザがテキストで応答すると、そのテキストを相手側には音声変換して伝えることで、疑似的な音声電話のやり取りを可能とする携帯端末システムが提案されている。これによれば、声を発するのが好ましくない環境や騒音が大きい環境においても、音声電話を行う携帯端末の使い勝手が向上される。
ただし、上記携帯端末システムによる音声−テキスト変換による疑似的な音声電話のやり取りは、予めマナーモードに設定されている際に適用されるものであって、その時のユーザ状況や環境に応じて自動的に設定されるものではない。
そこで、本開示では、現在の周辺環境に応じて適切な応答出力方法を決定することで音声認識システムの利便性を向上することが可能な情報処理装置、制御方法、およびプログラムを提案する。
本開示によれば、ユーザの発話に対する応答を生成する応答生成部と、現在の周辺環境に応じて応答出力方法を決定する決定部と、前記決定された応答出力方法で前記生成された応答を出力するよう制御する出力制御部と、を備える情報処理装置を提案する。
本開示によれば、ユーザの発話に対する応答を生成することと、現在の周辺環境に応じて応答出力方法を決定することと、前記決定された応答出力方法で前記生成された応答を出力するよう出力制御部により制御することと、を含む制御方法を提案する。
本開示によれば、コンピュータを、ユーザの発話に対する応答を生成する応答生成部と、現在の周辺環境に応じて応答出力方法を決定する決定部と、前記決定された応答出力方法で前記生成された応答を出力するよう制御する出力制御部と、として機能させるプログラムを提案する。
以上説明したように本開示によれば、現在の周辺環境に応じて適切な応答出力方法を決定することで音声認識システムの利便性を向上することが可能となる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態による音声認識システムの概要を説明するための図である。 本実施形態による情報処理装置の構成の一例を示す図である。 本実施形態による音声認識システムの動作処理を示すフローチャートである。 本実施形態によるサブディスプレイが設けられている情報処理装置の一例を示す図である。 本実施形態による応答出力を通信端末から行う旨をサブディスプレイで通知する場合について説明する図である。 本実施形態による出力許容レベルを示す表示例を示す図である。 本実施形態の他の例による情報処理装置の構成の一例を示す図である。 本実施形態の他の例による通知処理を示すフローチャートである。 本実施形態の他の例によるPublic通知の方法を説明する図である。 本実施形態の他の例によるPrivate通知の方法を説明する図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、説明は以下の順序で行うものとする。
1.本開示の一実施形態による音声認識システムの概要
2.構成
3.動作処理
4.応答出力例
4−1.音声による応答出力
4−2.表示による応答出力
4−3.機器連携による応答出力
4−4.動的な応答出力
4−5.出力許容レベルの通知
5.複数ユーザ環境下における出力
6.まとめ
<<1.本開示の一実施形態による音声認識システムの概要>>
本開示の一実施形態による音声認識システムは、ユーザの発話に対して音声認識・意味解析を行い、音声により応答を行う基本機能を有する。以下、図1を参照して本開示の一実施形態による音声認識システムの概要について説明する。
図1は、本開示の一実施形態による音声認識システムの概要を説明するための図である。図1に示す情報処理装置1は、ユーザの発話に対して音声認識・意味解析を行い、ユーザへの応答を音声により出力することが可能な音声UIエージェント機能を有する。情報処理装置1の外観は特に限定しないが、例えば図1に示すような円柱形状であってもよく、部屋の床やテーブルの上等に設置される。また、情報処理装置1には、LED(Light Emitting Diode)等の発光素子により形成された発光部18が側面の水平方向中央領域を囲むよう帯状に設けられている。情報処理装置1は、発光部18の全体を光らせたり、一部を光らせたりすることで、ユーザに対して情報処理装置1の状態を知らせることが可能である。例えば情報処理装置1は、ユーザと対話している際は発光部18においてユーザの方向すなわち発話者方向を一部光らせることで、図1に示すようにユーザに視線を向けているように見せることができる。また、情報処理装置1は、応答生成中やデータ検索中は発光部18で光が側面上を回っているように制御することで、処理中であることをユーザに知らせることができる。
ここで、従来、音声UIの応答は一意に音声出力により行われていた。しかしながら、時間帯が夜間であったり、ユーザの周辺で子供が寝ていたりする場合には音声による応答出力が好ましくない。また、騒音が大きい環境においても、音声による応答出力は好ましくない。
そこで、本開示による一実施形態による音声認識システムでは、ユーザの現在の状態に応じて、適切な応答出力方法を決定することで、音声認識システムの利便性を向上させることを可能とする。
具体的には、情報処理装置1は、例えば図1に示すように壁20に画像を投影して表示する機能を有し、夜の時間帯やユーザの近くで赤ちゃんが寝ている場合には応答をテキスト化して壁20に投影する出力方法に自動的に切り替え、音声による応答出力を回避し、音声による応用出力が好ましくない環境において適切な応答を行うことができる。図1に示す例では、ユーザの発話「明日は晴れるかな?」に対して、情報処理装置1が、認識した発話内容を示す発話内容画像21aと、テキスト化した応答「明日は晴れるようですよ」を示す応答画像21bと、応答内容に付随する応答関連画像21cを壁20に投影している。これによりユーザは、自身の発話が情報処理装置1に正しく認識されたことを把握し、また、当該発話に対する応答を目視で認識することができる。
以上、本開示による音声認識システムの概要について説明した。なお情報処理装置1の形状は図1に示す円柱形状に限定されず、例えば立方体、球体、多面体等であってもよい。続いて、本開示の一実施形態による音声認識システムを実現する情報処理装置1の基本構成および動作処理について順次説明する。
<<2.基本構成>>
図2は、本実施形態による情報処理装置1の構成の一例を示す図である。図2に示すように、情報処理装置1は、制御部10、通信部11、マイクロホン12、スピーカ13、カメラ14、測距センサ15、投影部16、記憶部17、および発光部18を有する。
(制御部10)
制御部10は、情報処理装置1の各構成を制御する。制御部10は、CPU(Central
Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、および不揮発性メモリを備えたマイクロコンピュータにより実現される。また、本実施形態による制御部10は、図2に示すように、音声認識部10a、意味解析部10b、応答生成部10c、レベル算出部10d、決定部10e、および出力制御部10fとしても機能する。
音声認識部10aは、情報処理装置1のマイクロホン12により収音されたユーザの音声を認識し、文字列への変換を行い、発話テキストを取得する。また、音声認識部10aは、音声の特徴に基づいて声を出している人を識別したり、音声の発生源すなわち発話者の方向を推定したりすることも可能である。
意味解析部10bは、音声認識部10aにより取得された発話テキストに対して自然言語処理等を用いて意味解析を行う。意味解析の結果は、応答生成部10cに出力される。
応答生成部10cは、意味解析結果に基づいて、ユーザの発話に対する応答を生成する。例えば応答生成部10cは、ユーザの発話が「明日の天気」を求めるものである場合、ネットワーク上の天気予報サーバから「明日の天気」に関する情報を取得し、応答を生成する。
レベル算出部10dは、現在の周辺環境に基づいて、応答の出力許容レベルを算出する。本明細書において、応答の出力許容レベルとは、ユーザに許容される(あるいはユーザにとって好ましい)応答出力の度合いを示すものであって、例えば音声出力が好ましい環境では出力許容レベルが高く算出され、音声出力が好ましくなく、表示出力が好ましい環境では出力許容レベルが低く算出される。また、表示出力が好ましい環境において、ユーザ周辺の環境に応じて表示内容の制限や表示装置の選択、または輝度制限等が望まれる状況の場合、さらに出力許容レベルが低く算出される。一方、音声出力が好ましい環境においても、ユーザ周辺の環境に応じて音量を押さえる必要がある場合には出力許容レベルが低く算出され、一方、音量を上げる必要がある場合には出力許容レベルが高く算出される。また、本実施形態による「出力許容レベル」は、所謂マナーモードレベルと称されてもよい。この場合、音声出力が好ましい環境ではマナーモードレベルが低く算出され、音声出力は好ましくなく、表示出力が好ましい環境ではマナーモードが高く算出される。
また、周辺環境(すなわちシステムの利用環境)を判断するには様々な要素が存在するため、レベル算出部10dは、以下に説明する様々な要素の少なくとも1以上に応じて現在の周辺環境を判断して適切な出力許容レベルを算出する。
・時間帯
レベル算出部10dは、時間帯に応じて出力許容レベルを算出してもよい。例えば夜間においては、既に就寝している人や隣家への配慮をする必要があるため、レベル算出部10dは出力許容レベルを低く算出する。時間帯に応じた出力許容レベルは、ユーザまたはシステムが予め設定してもよい。また、時間帯は、情報処理装置1に内蔵の時計部(不図示)から取得されてもよいし、ネットワーク上の所定サーバから取得されてもよい。
・外部音源の存在
レベル算出部10dは、外部音源の存在に応じて出力許容レベルを算出してもよい。例えば、TV、ラジオ、音楽スピーカ、工事騒音などの外部音源が存在する環境では、音声による応答出力は外部音源の存在を邪魔してしまうため好まれない。したがってレベル算出部10dは、出力方法が「表示」に切り替えられるよう、出力許容レベルを低く算出する。また、レベル算出部10dは、外部音源が存在する場合であっても重要度が高い応答の場合は、出力許容レベルを高く算出し、外部音源にかき消されないよう応答出力の音量を上げようにしてもよい。なお外部音源には、音声UIを介さない人同士の会話や電話による会話も含まれる。外部音源の存在は、情報処理装置1に設けられたマイクロホン12により収音された音声信号に基づいて検知される。また、マイクロホン12には情報処理装置1自身が発する音声(自発音)が入力されてしまう場合もあるが、自発音は例えばエコーキャンセルによりキャンセルすることが可能であり、制御部10は純粋な外部音源だけを検知することができる。
・ユーザ環境
レベル算出部10dは、対象者であるユーザ周辺の様子(すなわちユーザ環境)に応じて出力許容レベルを算出してもよい。例えばユーザの付近で人(赤ちゃんを含む)が寝ている際は、音声による出力は好ましくない環境であるため、レベル算出部10dは、出力方法が「表示」に切り替えられるよう出力許容レベルを低く算出する。また、表示出力する際に表示装置の明るさで寝ている人に迷惑をかけないために、表示装置の輝度を落とすよう、レベル算出部10dは出力許容レベルをさらに低く算出してもよい。なおレベル算出部10dは、情報処理装置1の照度センサ(不図示)により検知された部屋の照度もユーザ周辺の様子として取得し、出力許容レベルを算出してもよい。
また、家庭空間に情報処理装置1が設置され、客人等の非登録ユーザがユーザ周辺に存在する場合、レベル算出部10dは、応答内容のプライバシーを考慮して、音声ではなく表示による出力が行われるよう出力許容レベルを低く算出する。また、プライバシー保護を重視する場合、レベル算出部10dは、壁20への投影による表示ではなく、ユーザが所持するスマートフォン等の通信端末に表示させる出力方法に切り替えるよう出力許容レベルをさらに低く算出する。ユーザ周辺の様子は、情報処理装置1に設けられたマイクロホン12、およびカメラ14等により取得され得る。
・ユーザの様子
レベル算出部10dは、ユーザの様子に応じて出力許容レベルを算出してもよい。例えばユーザが小声で発話したときは、音声UIからも小声で返答されることが期待され、大声が適切でない環境であると判断されるため、レベル算出部10dは出力許容レベルを低く算出する。なお小声が否かの判別は、ユーザの普段の発話音量と比較して行われてもよいし、ユーザによる口元に手を添える等の動作に基づいて行われてもよい。ユーザの様子は、情報処理装置1に設けられたマイクロホン12、およびカメラ14等により取得され得る。また、レベル算出部10dは、音声コマンド、ジェスチャー、本体操作(ハードウェアボタン(不図示)の操作等)、またはリモートコントローラ(不図示)操作等によりユーザ自身が明示的に出力許容レベルを指定した場合、これに基づいて出力許容レベルを算出してもよい。
・ユーザの位置
レベル算出部10dは、情報処理装置1に対するユーザの位置に応じて出力許容レベルを算出してもよい。例えばユーザの位置が情報処理装置1に近い場合、応答出力の音量を下げてもユーザには聞こえるため、レベル算出部10dは出力許容レベルを低く算出してもよい。このように音量を下げることで、近くに居る対象ユーザには聞こえるが、離れた場所に居る他の人物には聞こえ難くなり、応答の音漏れを軽減することができる。情報処理装置1に対するユーザの位置は、例えば情報処理装置1に設けられた測距センサ15により取得され得る。
・アクセスシビリティの考慮
レベル算出部10dは、アクセスシビリティを考慮して出力許容レベルを算出してもよい。例えば、ユーザが耳に障害を持っていたり、老人であったり、聞き返しが多い場合、レベル算出部10dは、音声ではなく表示で応答を出力するよう、出力許容レベルを低く算出する。これにより、ユーザはストレスなく音声UIを利用することができる。一方、視力が悪いユーザや、通常掛けている眼鏡を外しているユーザの場合、レベル算出部10dは、表示ではなく音声で応答出力されるよう出力許容レベルを高く算出してもよい。アクセスシビリティを考慮する際に用いられるユーザの身体的特徴に関する情報は、例えば記憶部17から取得され得る。
以上、周辺環境を判断する際の要素について説明した。レベル算出部10dは、上記各要素の少なくとも1以上に基づいて、現在の周辺環境に適切な出力許容レベルを算出する。また、レベル算出部10dは、要素毎に算出した出力許容レベルに重み付けを行った上で加算した和を、最終的な出力許容レベルとして算出してもよい。
決定部10eは、現在の周辺環境に応じて応答出力方法を決定する。例えば決定部10eは、レベル算出部10dにより算出された出力許容レベルに基づいて応答出力方法を決定する。応答出力方法は、例えば音声による出力方法または画像表示(投影による画像表示を含む)による出力方法が想定され、また、音声出力時における音量や指向性、表示出力時における表示装置の選択(投影部16(メインディスプレイ)/サブディスプレイ/連携する外部表示装置)や輝度調整等も決定される。
出力制御部10fは、決定部10eで決定された応答出力方法に従って、応答生成部10cにより生成された応答を出力するよう制御する。本実施形態による具体的な応答出力例については後述する。
(通信部11)
通信部11は、外部装置とデータの送受信を行う。例えば通信部11は、ネットワーク上の所定サーバと接続し、応答生成部10cによる応答生成に必要な情報を受信する。また、通信部11は、周辺の機器と連携し、出力制御部10fの制御に従って対象機器に応答データを送信する。
(マイクロホン12)
マイクロホン12は、周辺の音声を収音し、音声信号として制御部10に出力する機能を有する。また、マイクロホン12は、アレイマイクロホンにより実現されていてもよい。
(スピーカ13)
スピーカ13は、出力制御部10fの制御に従って音声信号を音声に変換して出力する機能を有する。
(カメラ14)
カメラ14は、情報処理装置1に設けられた撮像レンズにより周辺を撮像し、撮像画像を制御部10に出力する機能を有する。また、カメラ14は、360度カメラまたは広角カメラ等により実現されてもよい。
(測距センサ15)
測距センサ15は、情報処理装置1とユーザやユーザの周辺に居る人物との距離を測定する機能を有する。測距センサ15は、例えば光センサ(発光・受光タイミングの位相差情報に基づいて対象物までの距離を測定するセンサ)により実現される。
(投影部16)
投影部16は、表示装置の一例であって、壁やスクリーンに画像を(拡大して)投影することで表示する機能を有する。
(記憶部17)
記憶部17は、情報処理装置1の各構成が機能するためのプログラムを格納する。また、記憶部17は、レベル算出部10dが出力許容レベルを算出する際に用いる各種パラメータや、決定部10eが出力許容レベルに応じて出力方法を決定する際に用いる各種閾値を格納する。また、記憶部17は、ユーザの登録情報を格納する。ユーザの登録情報には、個人識別用情報(音声の特徴量、顔画像、人画像(身体画像を含む)の特徴量、氏名、識別番号等)、年齢、性別、趣味・嗜好、属性(主婦、会社員、学生等)、特徴(視力が悪い、耳が聞こえ難い等)、およびユーザが所有する通信端末に関する接続情報等が含まれる。
(発光部18)
発光部18は、LED等の発光素子により実現され、全灯、一部点灯、点滅、または点灯位置の制御等が可能である。例えば発光部18は、制御部10の制御にしたがって音声認識部10aにより認識された発話者の方向を一部点灯することで、発話者の方向に視線を向けているように見せることができる。
以上、本実施形態による情報処理装置1の構成について具体的に説明した。なお、図2に示す構成は一例であって、本実施形態はこれに限定されない。例えば、情報処理装置1は、周辺環境に関する情報を取得するために、IR(infrared:赤外線)カメラ、深度カメラ、ステレオカメラ、または人感センサ等をさらに備えていてもよい。また、情報処理装置1に設けられるマイクロホン12、スピーカ13、カメラ14、および発光部18等の設置位置は特に限定しない。また、本実施形態による制御部10の各機能は、通信部11を介して接続されるクラウド上にあってもよい。
<<3.動作処理>>
次に、本実施形態による音声認識システムの動作処理について図3を参照して具体的に説明する。
図3は、本実施形態による音声認識システムの動作処理を示すフローチャートである。図3に示すように、まずステップS103において、情報処理装置1は、各種センサにより周辺環境をセンシングする。具体的には、情報処理装置1は、マイクロホン12、カメラ14、または測距センサ15により外部音源の存在、周辺に存在する人物(ユーザを含む)の位置、状態等を取得し、また、情報処理装置1に内蔵された時計部(不図示)若しくはネットワーク上の所定サーバから現在時刻を取得し得る。なおS103に示す周辺環境のセンシングは、後述する処理と並行して継続され得る。
次いで、ステップS106において、情報処理装置1の制御部10は、マイクロホン12から収音した音声信号の音声認識および意味解析によりユーザによる発話を検知する。すなわち、制御部10は、音声認識部10aによりマイクロホン12で収音した音声信号の認識を行い、変換した文字列の意味解析を意味解析部10bにより行い、発話を検知し、検知した発話の意味解析結果を応答生成部10cに出力する。
次に、ステップS109において、レベル算出部10dは、現在の周辺環境に基づいて出力許容レベルを算出する。具体的には、レベル算出部10dは、システム利用環境における様々な要素(外部音源の存在、ユーザ環境、ユーザの振る舞い、ユーザの位置等)に基づいて、音声による応答出力が好ましい(許容される)環境であるか否かを示す出力許容レベルを算出する。
次いで、ステップS112において、決定部10eは、レベル算出部10dにより算出された出力許容レベルに基づいて応答の出力方法を決定する。例えば、音声による応答出力が好ましくない環境であることを示す出力許容レベルが算出された場合、決定部10eは、表示による出力方法に決定する。
続いて、ステップS115において、出力制御部10fは、応答生成部10cが意味解析部10bによる発話の意味解析結果に対して生成したユーザの発話に対する応答を、決定部10eにより決定された出力方法で出力するよう制御する。これにより、本実施形態による音声UIシステムでは、ユーザの発話に対する応答が音声に限定されず、表示出力等、環境に応じて最適な出力方法を自動的に決定して応答することが可能となる。例えば夜間やユーザの隣で赤ちゃんが寝ている場合には、音声による応答は好ましくないため、情報処理装置1は、投影部16により応答画像を投影して表示することで、最適な出力方法で応答することができる。このような応答出力例について、以下詳細に説明する。
<<4.応答出力例>>
<4−1.音声による応答出力>
上述したように、本実施形態による情報処理装置1(音声UIエージェント機能)は、出力許容レベルが高い場合は音声で応答出力を行う。例えば情報処理装置1の決定部10eは、出力許容レベルが第1の閾値よりも高い場合、スピーカ13から全方位に向けて通常時の音量で音声出力による応答を行う出力方法に決定する。
また、決定部10eは、出力許容レベルが第1の閾値よりも低い場合、スピーカ13から通常時の音量よりも小さい音量で音声出力による応答を行う出力方法に決定する。このとき情報処理装置1は測距センサ15等によりユーザの位置を把握し、ユーザが情報処理装置1から離れた位置にいる場合はユーザに対して装置に近づくよう音声または表示で指示してもよい。また、スピーカ13が指向性を有する場合、決定部10eは、対象ユーザにだけ音声を届けるよう指向性制御する音声出力方法に決定してもよい。以上説明した出力方法により、対象ユーザ以外には応答が聞こえないようにすることができる。
<4−2.表示による応答出力>
また、本実施形態による音声UIは、出力許容レベルが低い場合、音声による応答出力を避けて表示による応答出力に切り替える。例えば、情報処理装置1の決定部10eは、出力許容レベルが第2の閾値よりも低い場合、音声出力ではなく表示による応答出力に決定する。具体的には、決定部10eは、投影部16により応答を示す応答画像21bや応答関連画像21cを壁20に投影させて表示する方法(図1参照)に決定する。
(輝度調整)
また、決定部10eは、出力許容レベルが第3の閾値よりも低い場合、表示装置の輝度を落として応答出力する方法に決定する。これにより、例えば夜間の時間帯や付近で人が寝ている場合にユーザの発話に対して突然表示装置がONになって(または投影が行われて)明るくなり、寝ている人を起こしてしまうといった事態を回避することができる。なお上述した第1〜第3の閾値は、第1の閾値より第2の閾値が低く、また、第2の閾値より第3の閾値が低い関係性を有する。
(サブディスプレイ)
また、情報処理装置1にサブディスプレイが設けられている場合、決定部10eは、出力許容レベルに応じて当該サブディスプレイを利用した出力方法に決定することも可能である。ここで、図4に、サブディスプレイ19が設けられている情報処理装置1xの一例を示す。図4に示すように、円柱形状で形成された情報処理装置1xの側面上に設けられるサブディスプレイ19は、投影部16による表示に比べると、表示領域が小さく、解像度が低いといった表示上の制限があることが想定されるが、応答文を端的なテキストで表示することで、サブディスプレイ19でも応答出力が可能となる。また、このように小さな表示領域で応答することで、応答内容がユーザ以外の人物に見られることを回避し、プライバシーを保護することも可能となる。
<4−3.機器連携による応答出力>
また、本実施形態による情報処理装置1は、外部装置との機器連携が可能な場合、出力許容レベルに応じて、外部装置から応答を出力する方法に決定することも可能である。例えば決定部10eは、周辺に設置されているTVやPC等の表示画面から表示出力する方法や、ユーザが所持する携帯電話端末、スマートフォン、またはウェアラブル端末等の通信端末に所定のアプリケーションやメールを用いてプッシュ通知する方法に決定してもよい。なおTVやPCが他の人物により使用されている場合は、これらの装置への応答出力は他の人物の邪魔になるため、回避する。また、ユーザが所持する通信端末から応答出力する場合、出力制御部10fは、その旨をサブディスプレイ19等に表示してユーザに通知してもよい。以下、図5を参照して説明する。
図5は、本実施形態による応答出力を通信端末3から行う旨をサブディスプレイ19で通知する場合について説明する図である。図19に示すように、情報処理装置1がユーザの所持する通信端末3に応答情報を送信して通信端末3から出力させる場合、例えばサブディスプレイ19には、通信端末3に応答情報を送信したことを示すアイコン等が表示される。これによりユーザは、自身の通信端末3から応答が行われることを直感的に把握することができる。
また、決定部10eは、情報処理装置1が設置されている部屋とは別の部屋(ユーザの自室)に設置されているTV等の表示装置と連携して、当該別の部屋の表示装置から応答出力する方法に決定することも可能である。これにより、ユーザ周辺に居る人物に応答内容が見られることや、ユーザ周辺で寝ている人を起こしてしまうことを回避することができる。また、この際、出力制御部10fは、別の部屋の表示装置で応答する旨をサブディスプレイ19等に表示してユーザに通知する。
また、決定部10eは、ユーザがイヤホンやヘッドホン等の音声出力装置を使用している場合、当該音声出力装置から応答を行う出力方法に決定してもよい。この場合、出力制御部10fは、通信部11を介して当該音声出力装置に対して応答を行うための音声信号を送信する。さらに、決定部10eは、ユーザが所持する携帯電話端末、スマートフォン、ウェアラブル端末等の表示画面でも併せて応答出力を行い、音声と表示の両方で応答出力する方法に決定してもよい。
<4−4.動的な応答出力>
また、本実施形態による決定部10eは、継続的に観測される周辺環境の変化に応じて変化する出力許容レベルに応じて、対話中に応答出力方法を変更してもよい。
例えば通常の音声対話を行っている際に、何らかの要因により出力許容レベルが低くなった場合、決定部10eは、途中から表示出力に切り替えてもよい。このとき、対話が中途半端である場合は、出力制御部10fは直前の対話内容を表示して、ユーザと音声UIの対話がスムーズに進むようにする。一方、発話と表示出力により対話が行われている際に、何らかの要因により出力許容レベルが高くなった場合、決定部10eは、途中から音声出力に切り替えてもよい。このとき、対話が中途半端である場合は、出力制御部10fは現在の対話が終了するまで表示による応答出力と音声による応答出力とを並列して行い、スムーズな応答出力方法の切り替えを実現する。
<4−5.出力許容レベルの通知>
また、本実施形態では、現在の出力許容レベルをアイコン等によりサブディスプレイ19や、壁20への投影により表示してユーザに通知することも可能である。これによりユーザは、出力許容レベルの設定に応じた出力制限が行われていることを直感的に把握することができる。ここで、本実施形態による出力許容レベルを示す表示例を図6に示す。
図6の表示例30a〜30eに示すように、出力許容レベルは、音声出力の状態を示すアイコン31、表示出力の状態を示すアイコン32、表示出力における輝度の状態を示すアイコン33を用いて表される。
例えば図6の1段目左に示す表示例30aでは、表示出力状態を示すアイコン32aと輝度状態を示すアイコン33aにバツ印が付され、バツ印が付されていないアイコン31aにより音声出力状態であることが示される。また、音声出力状態を示すアイコン31aの下方には「音量:2」と表示され、音声出力の状態が具体的に明示されている。例えば通常の音量が5の場合、出力許容レベルに応じて音量が小さく制御されていることが分かる。
図6の2段目左に示す表示例30bでは、音声出力状態を示すアイコン31bにバツ印が付され、バツ印が付されていないアイコン32b、33bにより表示出力状態であることが示される。
図6の3段目左に示す表示例30cでは、音声出力状態を示すアイコン31cにバツ印が付され、バツ印が付されていないアイコン32c、33cにより表示出力状態であることが示される。また、輝度状態を示すアイコン33cの下方には「40%」と表示され、出力許容レベルに応じて表示装置の輝度が制限されていることが分かる。
図6の1段目右に示す表示例30dでは、音声出力状態を示すアイコン31dにバツ印が付され、バツ印が付されていないアイコン32d、33dにより表示出力状態であることが示される。また、表示出力状態を示すアイコン32dの下方には「サブ」と表示され、出力許容レベルに応じて表示領域等に制限のあるサブディスプレイ19から応答出力されることが分かる。
図6の2段目右に示す表示例30eでは、声出力状態を示すアイコン31eにバツ印が付され、バツ印が付されていないアイコン32e、33eにより表示出力状態であることが示される。表示出力状態を示すアイコン32eの下方には「端末」と表示され、出力許容レベルに応じてユーザ所有のスマートフォンや携帯電話端末、タブレット端末、またはウェアラブル端末等の通信端末から応答出力されることが分かる。
以上、図6を参照して出力許容レベルの表示例について説明したが、図6に示す表示例は一例であって、本実施形態による出力許容レベルの通知はこれに限定されない。例えば情報処理装置1は、出力許容レベルを数値化して表示してもよいし、出力許容レベルに段階がある場合は当該段階を表示してもよい。また、情報処理装置1は、出力許容レベルの段階を示す所定の色で発光部18を照明するよう制御してもよいし、発光部18の輝度を落として間接的に出力制限モード(出力許容レベルに応じて出力が制限されている状態)であることを伝えてもよい。
<<5.複数ユーザ環境下における出力>>
<5−1.概要>
次に、本実施形態の他の例として、複数ユーザ環境下における出力について説明する。上述した実施形態では、主に一のユーザを前提として説明したが、家庭空間等では複数のユーザが存在する環境が想定される。
例えば、特開2015-18502号公報には、家族でメッセージ交換ができるSNSシステムを利用して、家庭のデバイスに生じたエラーを家族全員に通知し、各ユーザの属性に応じた適切な解決策を提供する情報通知装置が記載されている。かかる特許文献では、複数ユーザを前提として各ユーザの属性に応じた解決策を提供しているが、通知の性質として匿名性(誰に対する通知であるかを隠す)や秘匿性(通知内容を隠す)が要求される点については何ら考慮されていない。
例えば、家族が寛ぐリビング等に情報処理装置1が置かれている場合、ある特定のユーザに対する通知が家族の前で行われると通知内容が他の家族にも知られてしまうが、内容によっては知られたくない場合も想定される。
そこで、本実施形態の他の例として、複数ユーザに利用されることを前提とした場合における特定ユーザへの出力(通知)の仕組みについて説明する。
本実施形態の他の例による情報処理装置1aの形状については特に限定しないが、例えば図1を参照して説明した情報処理装置1と同様の円柱形状であってもよいし、立方体、球体、若しくは多面体等であってもよい。また、情報処理装置1aは、部屋の床やテーブルの上等に設置される。また、情報処理装置1aは、自走可能なロボットのようなものでもよい。続いて、情報処理装置1aの構成について図7を参照して説明する。
<5−2.構成>
図7は、本実施形態の他の例による情報処理装置1aの構成の一例を示す図である。図7に示すように、情報処理装置1aは、制御部100、通信部11、マイクロホン12、スピーカ13、カメラ14、測距センサ15、投影部16、記憶部17、および発光部18を有する。図2を参照して説明した構成と同符号の構成については、ここでの説明は省略する。
制御部100は、情報処理装置1aの各構成を制御する。制御部100は、CPU、ROM、RAM、および不揮発性メモリを備えたマイクロコンピュータにより実現される。また、本実施形態による制御部100は、図7に示すように、音声認識部10a、意味解析部10b、応答生成部10c、通知情報取得部10g、通知タイプ決定部10h、環境認識部10i、および出力制御部10jとしても機能する。
音声認識部10a、意味解析部10b、および応答生成部10cは、図2を参照して説明した同符号の構成と同様の機能を有する。
通知情報取得部10gは、ユーザへの通知情報を取得する。例えば通知情報取得部10gは、ユーザのスケジュール情報に基づくリマインダー通知や、天気、交通、ニュース等の一般的な通知情報、特定ユーザへのメッセージ通知等、システム側から自動的に発信する通知情報を取得する。これらの通知情報は、記憶部17から取得されてもよいし、通信部11を介してネットワーク上から取得されてもよい。
通知タイプ決定部10hは、通知情報取得部10gにより取得した通知情報のタイプ(すなわち、種類)を決定する。本実施形態による通知の種類は、通知の公開性および通知対象者に応じて以下のように設定される。
Public
all:全てのユーザが確認可能な、全てのユーザに向けた通知。一般的な情報通知や家族全体に対する通知等が想定される。
Public
person:全てのユーザが確認可能であるが、特定のユーザのみを対象とする通知。例えば家族内の特定の誰かへの通知(母親へのリマインダー通知等)が想定される。
Private
group:特定グループのみが確認可能な通知。例えば「大人」、「両親」、「女性」、「子供」、「親戚」等のグループである。グループの設定は事前にユーザによりカスタマイズされ得る。
Private
person:特定のユーザのみが確認可能な、特定のユーザのみを対象とする通知。
通知タイプ決定部10hは、取得した通知情報のタイプ(種類)を通知内容に応じて決定する。例えば通知タイプ決定部10hは、誰宛のどのような通知であるかに応じて、「Public all」、「Public person」、「Private group」、または「Private person」のいずれのタイプであるかを判断する。また、通知タイプは、予めユーザにより任意に設定されていてもよい。また、予めユーザにより明示的に通知対象者が限定されている場合、通知タイプ決定部10hは、「Private」通知と決定する。また、通知情報発信元のアプリケーション毎に通知タイプが設定されていてもよい。例えばスケジューラーの個人への予定通知がPrivate personに設定されていてもよい。
環境認識部10iは、周辺環境を認識する。例えば環境認識部10iは、カメラ14により撮像された周辺の撮像画像や、測距センサ15によるセンサデータに基づいて、周辺ユーザの位置や、周辺に居るユーザの認識(例えば顔認識)を行う。また、環境認識部10iは、撮像画像等から性別、年代等の属性を取得し、周辺にいる人物のグループを認識することも可能である。例えば、環境認識部10iは、撮像画像に基づいて、両親グループ、子供グループ、女性グループ、ゲストグループ(家族以外)、カスタムグループ(お父さんとAちゃん等)を認識する。
出力制御部10jは、応答生成部10cにより生成された応答を、スピーカ13、投影部16、または発光部18から出力するよう制御する。
また、出力制御部10jは、環境認識部10iによる環境認識結果と、通知タイプ決定部10hにより決定された通知タイプに応じて、スピーカ13、投影部16、または発光部18から適切な出力(ユーザ通知)を行う。例えば出力制御部10jは、Public通知(「Public all」または「Public person」)であれば全てのユーザが確認可能な通知方法で通知し、Private通知(「Private group」または「Private person」)であれば対象ユーザのみが確認可能な方法で通知するよう制御する。この際、出力制御部10jは、周辺環境に応じて通知方法を変更し得る。具体的な通知方法については、図9A、図9Bを参照して後述する。
<5−3.動作処理>
続いて、本実施形態の他の例による動作処理について図8を参照して説明する。図8は、本実施形態の他の例による通知処理を示すフローチャートである。
図8に示すように、まず、ユーザへの通知情報があるか否かを判断する(ステップS203)。
次いで、通知情報がある場合(すなわち通知情報取得部10gによりユーザへの通知情報が取得された場合)(ステップS203/Yes)、通知タイプ決定部10hは、当該通知情報の通知タイプを決定する(ステップS206)。
次に、環境認識部10iは、周辺環境情報を取得し(ステップS209)、周辺環境を認識する(ステップS212)。例えば環境認識部10iは、測距センサ15によりユーザがいる方向(位置)を認識したり、カメラ14により周辺にいるユーザの顔を認識したりする。
次いで、出力制御部10jは、通知のタイプおよび現在の環境に応じて通知が可能か否かを判断する(ステップS218)。例えば出力制御部10jは、通知タイプがPrivateの場合、周辺に複数のユーザがいるときは通知不可能と判断し、対象のユーザのみである場合は通知可能と判断する。また、出力制御部10jは、通知タイプがPublicの場合、周辺に複数のユーザがいても通知可能と判断する。
通知不可能と判断された場合(ステップS218/No)、出力制御部10jは、例えば記憶部17に格納する通知キューに当該通知情報を追加して通知を見送ってもよい。この場合、一定時間毎に本動作処理が繰り返され、上記ステップS203で通知情報取得部10gは通知キューからも通知情報を取得する。
一方、通知可能と判断された場合(ステップS218/Yes)、出力制御部10jは、適切な通知方法で通知を行うよう制御する。
以上、本実施形態の他の例による通知処理について説明した。続いて、通知タイプおよび環境に応じた通知方法の具体例について図9Aおよび図9Bを参照して説明する。
<5−4.通知例>
(5−4−1.Public通知)
図9Aは、Public通知の方法について説明する図である。図9A左側には、Public allタイプの通知例を示す。Public allタイプは、例えば家族全体への一般的な情報通知(天気、交通、ニュース、家族の予定)や、家族への推薦情報(写真、音楽等)が想定される。具体的には、例えば情報処理装置1aは、図示するように「今日は夕方から雨が降りそうですよ」といった発話をスピーカ13から出力したり、発光部18を発光(予め設定された通知内容に応じた発光(色、点滅等))させたりする。また、情報処理装置1aに表示部が設けられている場合、当該表示部に通知情報を表示してもよいし、投影部16で通知情報を壁等に投影してもよい。また、情報処理装置1aは、香り(匂い)を出力する機能を有する場合、通知情報があることを全てのユーザに気付かせるために香りを出力してユーザの注目を集めてから、発話や発光、表示、投影等により通知を行うようにしてもよい。
図9A右側には、Public personタイプの通知例を示す。Public personタイプは、家族全体に確認されてもよい特定ユーザへの通知(秘匿性のない通知)であって、例えば家族内でのメッセージ通知等が想定される。具体的には、例えば情報処理装置1aは、図示するように「パパは今日夕飯いらなくなったそうです」といった父親からのメッセージを発話し、当該メッセージが母親宛の場合は発光部18を母親用の色に点灯させる。メッセージを発話する際、誰宛のメッセージであるかは、発光部18の色の他、スピーカ13から出力する音楽(BGM;Background Music)、発話音声の声色、香り等で識別させることが可能である。また、表示や投影により通知を行う場合は、「ママさんへ パパは今日夕飯いらなくなったそうです」というように誰宛へのメッセージであるかを文字で示すようにしてもよい。
(5−4−2.Private通知)
図9Bは、Private通知の方法について説明する図である。図9B左側には、Private
groupタイプの通知例を示す。Private groupタイプは、特定グループへの秘匿性のある通知であって、例えば子供には秘匿にしたい親宛の通知(子供へのプレゼントに関する通知、子供の学友関係のトラブル通知、学費の相談)等が想定される。この場合、情報処理装置1aは、図示したように親グループ等特定のグループに対してのみ通知を行う。具体的には、例えば情報処理装置1aは、特定グループのユーザを近くに呼び寄せて小さな音声で「ABC人形入荷したそうです」(子供へのプレゼントについての情報)と発話したり、有線/無線(Blue tooth(登録商標)等)で接続されたイヤホンを通して発話したりする。通知対象者の特定グループのユーザに近付いて来て貰うことにより、通知情報の秘匿性を確保することができる。
ユーザを近くに呼び寄せる方法は、例えば以下のようなものが挙げられる。
・特定グループのユーザに直接話し掛ける。例えば「ご両親さん、ちょっとこちらに来て頂けませんか?」等。
・空気の渦を特定グループのユーザに向けて噴射し、特定グループのユーザにだけ近づいてきてもらう。
・特定グループのユーザを表す特定の光(色、点滅パターン等)を発光部18から出力してユーザに気付いてもらう。
・表示や投影により特定グループの名称を示してユーザに気付いてもらう。若しくは特定グループのユーザを表す特定の光(色、点滅パターン等)を表示や投影により出力してもよい。
・特定グループに対応するSE(Sound Effect;効果音)やBGMを流してユーザに気付いてもらう。
・特定グループのユーザが情報処理装置1aを見ている時にだけ、発光部18や表示、投影により特別なフィードバック(目線を合わせてウインクする等のアイコンタクト、うなずき等)を行い、ユーザに気付いてもらう。
・特定グループの各ユーザが保持するデバイス(スマートフォン、ウェアラブル端末等)を振動させて気付いてもらう。
また、情報処理装置1aは、スピーカーアレイで特定グループのユーザ方向のみ発話が聞こえるようにしてもよい。また、情報処理装置1aは、特定グループのユーザに通知情報がある旨だけを発話し、具体的な内容は特定グループの各ユーザが保持するデバイス(スマートフォン、ウェアラブル端末、各ユーザの自室のテレビ等)に転送してもよい。
また、図9B右側には、Private personタイプの通知例を示す。Private personタイプは、特定ユーザへの秘匿性のある通知であって、例えばユーザ個人の趣味・嗜好に応じた推薦(音楽、映画、本、イベント等)や、仕事メールの内容通知等が想定される。この場合、情報処理装置1aは、図示したように特定のユーザに対してのみ通知を行う。具体的には、例えば情報処理装置1aは、特定ユーザを近くに呼び寄せて小さな音声で「DDの写真集が発売みたいですよ」(個人の趣味・嗜好に応じた商品の推薦情報)と発話したり、有線/無線(Blue tooth(登録商標)等)で接続されたイヤホンを通して発話したりする。通知対象者のユーザに近付いて来て貰うことにより、通知情報の秘匿性を確保することができる。
ユーザを近くに呼び寄せる方法は、上述した例えば以下のようなものが挙げられる。
・特定ユーザに直接話し掛ける。例えば「娘ちゃん、ちょっとこちらに来て頂けませんか?」等。
・空気の渦を特定ユーザに向けて噴射し、特定ユーザにだけ近づいてきてもらう。
・特定ユーザを表す特定の光(色、点滅パターン等)を発光部18から出力してユーザに気付いてもらう。
・表示や投影により特定ユーザの名前を示してユーザに気付いてもらう。若しくは特定ユーザを表す特定の光(色、点滅パターン等)を表示や投影により出力してもよい。
・特定ユーザに対応するSE(Sound Effect;効果音)やBGMを流してユーザに気付いてもらう。
・特定ユーザが情報処理装置1aを見ている時にだけ、発光部18や表示、投影により特別なフィードバック(目線を合わせてウインクする等のアイコンタクト、うなずき等)を行い、ユーザに気付いてもらう。
・特定ユーザが保持するデバイス(スマートフォン、ウェアラブル端末等)を振動させて気付いてもらう。
また、情報処理装置1aは、スピーカーアレイで特定ユーザ方向のみ発話が聞こえるようにしてもよい。また、情報処理装置1aは、特定ユーザに通知情報がある旨だけを発話し、具体的な内容は特定ユーザが保持するデバイス(スマートフォン、ウェアラブル端末、各ユーザの自室のテレビ等)に転送してもよい。
なお、Private groupタイプおよびPrivate personタイプの通知において、特定グループまたは特定ユーザにのみ通知する他の方法として、以下のようなものも挙げられる。
・情報処理装置1aが自走できる場合、情報処理装置1a自体が特定グループまたは特定ユーザに近付いて情報を通知してもよい。また、可能な限り自走して特定グループまたは特定ユーザに近付いて、その後上述したようなユーザを近くに呼び寄せる方法を用いてもよい。
・特定グループまたは特定ユーザが情報処理装置1aの設置場所に近付いて来た時に通知するようにしてもよい。
また、上述した方法では誰宛の通知情報であるかが他のユーザにも認識されてしまうが、情報処理装置1aは、さらに通知の匿名性を確保(誰宛の通知情報であるかを秘匿)することも可能である。
具体的には、例えば情報処理装置1aは、カメラ14(RGBカメラ等)、測距センサ15、IR(InfraRed)等のセンシングデバイスにより、通知可能な範囲に特定ユーザ以外のユーザがいないことを確認した上で、発話や表示、投影により通知を行うようにしてもよい。また、特定ユーザのみ居る場合が望ましいが、他のユーザが十分に離れている場合も、発話や表示、投影により通知を行うようにしてもよい。有線/無線接続した特定ユーザのイヤホンを介して発話する際や、特定ユーザが保持するデバイスへ通知情報を転送する場合は、このようなセンシングデバイスを用いなくてもよい。
また、情報処理装置1aは、特定ユーザ(ターゲットユーザ)や特定ユーザ以外のユーザ(非ターゲットユーザ)の位置を、各ユーザが保持するデバイスのGPS情報に基づいて把握したり、各ユーザの普段の行動習慣(例えば平日は会社で外出等)に基づいて把握したりすることも可能である。例えば情報処理装置1aは、特定ユーザの行動習慣情報を利用して通知タイミングを見計らうことが可能である。
また、匿名性が確保できない状況の場合は、イヤホン接続による直接の音声出力や特定ユーザ保持のデバイスへの転送など、匿名性が確保できる方法に切り替えるようにしてもよい。
また、情報処理装置1aは、予め特定ユーザとの間でやり取り(発話応答)を行っている場合、その文脈の流れを用いて通知することで、他のユーザが居ても他のユーザには分からないよう通知することが可能である。
例えば、事前にあるユーザが「クリスマスプレゼントのABC人形が入荷したら教えてね」と情報処理装置1aに伝えておいた場合、情報処理装置1aは、「頼まれていた件、来たみたいですよ」と発話して特定ユーザに通知する。他のユーザ(非ターゲットユーザ)は前後の文脈が分からないため、何の情報であるかが分からず、通知情報の秘匿性が保たれる。このような文脈を用いた通知方法は、他にも以下のようなものが挙げられる。
・日付を用いる:「昨日頼まれていたこと、大丈夫です」
・誰のことかだけを示す:「Bさんから頼まれていたこと、大丈夫です」
・指示語を用いる:「あのことです」「あれのことです」
・固有のIDを用いる:「A103のことです」「タスク13です」
・隠語を用いる:「パインのことです」「ブックです」
・暗号表示や暗号発話を用いる:「○□△#%」
なお、情報処理装置1aは、さらに通知情報の重要度に応じて発話方法を切り替えてもよい。例えば通知情報の重要度が高い場合は発話、発光、表示、または投影等により通知を行い、重要度が低い場合は上述した通知タイプに応じた適切な方法で通知するようにしてもよい。
<<6.まとめ>>
上述したように、本開示の実施形態では、音声UIによる応答時に、現在の周辺環境に応じて適切な応答出力方法を決定することで、音声認識システムの利便性を向上することが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上述した情報処理装置1に内蔵されるCPU、ROM、およびRAM等のハードウェアに、情報処理装置1の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、本技術は以下のような構成も取ることができる。
(1)
ユーザの発話に対する応答を生成する応答生成部と、
現在の周辺環境に応じて応答出力方法を決定する決定部と、
前記決定された応答出力方法で前記生成された応答を出力するよう制御する出力制御部と、
を備える、情報処理装置。
(2)
前記決定部は、音声による応答出力または表示による応答出力を決定する、前記(1)に記載の情報処理装置。
(3)
前記決定部は、前記現在の周辺環境に応じて、前記音声による応答出力時における音量または指向性の制御を決定する、前記(2)に記載の情報処理装置。
(4)
前記決定部は、前記現在の周辺環境に応じて、前記表示による応答出力時における表示装置の選択、または輝度調整を決定する、前記(2)に記載の情報処理装置。
(5)
前記表示装置は、メインディスプレイ、サブディスプレイ、および連携する外部表示装置のいずれかから選択される、前記(4)に記載の情報処理装置。
(6)
前記情報処理装置は、
前記現在の周辺環境に基づいて出力許容レベルを算出する算出部をさらに備え、
前記決定部は、前記算出された出力許容レベルに応じて前記応答出力方法を決定する、前記(2)〜(5)のいずれか1項に記載の情報処理装置。
(7)
前記現在の周辺環境は、時間帯、外部音源の存在、ユーザ環境、ユーザの様子、ユーザの位置、およびユーザの身体的特徴の少なくともいずれかを含む、前記(6)に記載の情報処理装置。
(8)
前記決定部は、前記出力許容レベルが所定の閾値を上回るか否かに応じて前記応答出力方法を決定する、前記(6)または(7)に記載の情報処理装置。
(9)
前記決定部は、対話中に周辺環境が変化して前記出力許容レベルも変化した場合、変化した前記出力許容レベルに応じて前記応答出力方法を変更する、前記(6)〜(8)のいずれか1項に記載の情報処理装置。
(10)
前記出力制御部は、前記出力許容レベルをユーザに通知するよう制御する、前記(6)〜(9)のいずれか1項に記載の情報処理装置。
(11)
ユーザの発話に対する応答を生成することと、
現在の周辺環境に応じて応答出力方法を決定することと、
前記決定された応答出力方法で前記生成された応答を出力するよう出力制御部により制御することと、
を含む、制御方法。
(12)
コンピュータを、
ユーザの発話に対する応答を生成する応答生成部と、
現在の周辺環境に応じて応答出力方法を決定する決定部と、
前記決定された応答出力方法で前記生成された応答を出力するよう制御する出力制御部と、
として機能させる、プログラム。
1 情報処理装置
3 通信端末
10 制御部
10a 音声認識部
10b 意味解析部
10c 応答生成部
10d レベル算出部
10e 決定部
10f 出力制御部
11 通信部
12 マイクロホン
13 スピーカ
14 カメラ
15 測距センサ
16 投影部
17 記憶部
18 発光部
19 サブディスプレイ
20 壁
21a 発話内容画像
21b 応答画像
21c 応答関連画像
30a〜30e 表示例
31〜33 アイコン

Claims (12)

  1. ユーザの発話に対する応答を生成する応答生成部と、
    現在の周辺環境に応じて応答出力方法を決定する決定部と、
    前記決定された応答出力方法で前記生成された応答を出力するよう制御する出力制御部と、
    を備える、情報処理装置。
  2. 前記決定部は、音声による応答出力または表示による応答出力を決定する、請求項1に記載の情報処理装置。
  3. 前記決定部は、前記現在の周辺環境に応じて、前記音声による応答出力時における音量または指向性の制御を決定する、請求項2に記載の情報処理装置。
  4. 前記決定部は、前記現在の周辺環境に応じて、前記表示による応答出力時における表示装置の選択、または輝度調整を決定する、請求項2に記載の情報処理装置。
  5. 前記表示装置は、メインディスプレイ、サブディスプレイ、および連携する外部表示装置のいずれかから選択される、請求項4に記載の情報処理装置。
  6. 前記情報処理装置は、
    前記現在の周辺環境に基づいて出力許容レベルを算出する算出部をさらに備え、
    前記決定部は、前記算出された出力許容レベルに応じて前記応答出力方法を決定する、請求項2に記載の情報処理装置。
  7. 前記現在の周辺環境は、時間帯、外部音源の存在、ユーザ環境、ユーザの様子、ユーザの位置、およびユーザの身体的特徴の少なくともいずれかを含む、請求項6に記載の情報処理装置。
  8. 前記決定部は、前記出力許容レベルが所定の閾値を上回るか否かに応じて前記応答出力方法を決定する、請求項6に記載の情報処理装置。
  9. 前記決定部は、対話中に周辺環境が変化して前記出力許容レベルも変化した場合、変化した前記出力許容レベルに応じて前記応答出力方法を変更する、請求項6に記載の情報処理装置。
  10. 前記出力制御部は、前記出力許容レベルをユーザに通知するよう制御する、請求項6に記載の情報処理装置。
  11. ユーザの発話に対する応答を生成することと、
    現在の周辺環境に応じて応答出力方法を決定することと、
    前記決定された応答出力方法で前記生成された応答を出力するよう出力制御部により制御することと、
    を含む、制御方法。
  12. コンピュータを、
    ユーザの発話に対する応答を生成する応答生成部と、
    現在の周辺環境に応じて応答出力方法を決定する決定部と、
    前記決定された応答出力方法で前記生成された応答を出力するよう制御する出力制御部と、
    として機能させる、プログラム。
JP2017509929A 2015-03-31 2016-03-25 情報処理装置、制御方法、およびプログラム Active JP6760267B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2015073895 2015-03-31
JP2015073895 2015-03-31
JPPCT/JP2015/086098 2015-12-24
PCT/JP2015/086098 WO2016157658A1 (ja) 2015-03-31 2015-12-24 情報処理装置、制御方法、およびプログラム
PCT/JP2016/059715 WO2016158792A1 (ja) 2015-03-31 2016-03-25 情報処理装置、制御方法、およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2016158792A1 true JPWO2016158792A1 (ja) 2018-02-01
JP6760267B2 JP6760267B2 (ja) 2020-09-23

Family

ID=57005525

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017509929A Active JP6760267B2 (ja) 2015-03-31 2016-03-25 情報処理装置、制御方法、およびプログラム

Country Status (5)

Country Link
US (1) US10776070B2 (ja)
EP (1) EP3279791A4 (ja)
JP (1) JP6760267B2 (ja)
CN (1) CN107408028B (ja)
WO (2) WO2016157658A1 (ja)

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10621992B2 (en) * 2016-07-22 2020-04-14 Lenovo (Singapore) Pte. Ltd. Activating voice assistant based on at least one of user proximity and context
CN107734213A (zh) * 2016-08-11 2018-02-23 漳州立达信光电子科技有限公司 智能家用电子装置与系统
JP2018067100A (ja) * 2016-10-18 2018-04-26 株式会社日立製作所 ロボット対話システム
CN106354025A (zh) * 2016-10-31 2017-01-25 广州华凌制冷设备有限公司 一种基于语音识别的智能家电控制方法及装置、空调
US10074359B2 (en) * 2016-11-01 2018-09-11 Google Llc Dynamic text-to-speech provisioning
US10593329B2 (en) 2016-12-30 2020-03-17 Google Llc Multimodal transmission of packetized data
US10708313B2 (en) 2016-12-30 2020-07-07 Google Llc Multimodal transmission of packetized data
CN110447067A (zh) * 2017-03-23 2019-11-12 夏普株式会社 发话装置、该发话装置的控制方法及该发话装置的控制程序
JP7095684B2 (ja) * 2017-03-30 2022-07-05 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム
KR101934954B1 (ko) 2017-05-24 2019-01-03 네이버 주식회사 음성요청에 대응하는 정보 전달 향상을 위한 출력
US10664533B2 (en) 2017-05-24 2020-05-26 Lenovo (Singapore) Pte. Ltd. Systems and methods to determine response cue for digital assistant based on context
US10564928B2 (en) * 2017-06-02 2020-02-18 Rovi Guides, Inc. Systems and methods for generating a volume- based response for multiple voice-operated user devices
JP7272265B2 (ja) * 2017-09-05 2023-05-12 ソニーグループ株式会社 情報処理装置
JP2019057092A (ja) * 2017-09-20 2019-04-11 富士ゼロックス株式会社 情報処理装置及びプログラム
JP2019057093A (ja) * 2017-09-20 2019-04-11 富士ゼロックス株式会社 情報処理装置及びプログラム
JP2019079083A (ja) * 2017-10-19 2019-05-23 アイシン精機株式会社 運転支援装置
EP3567585A4 (en) * 2017-11-15 2020-04-15 Sony Corporation INFORMATION PROCESSING DEVICE AND INFORMATION PROCESSING METHOD
CN107919120B (zh) * 2017-11-16 2020-03-13 百度在线网络技术(北京)有限公司 语音交互方法及装置,终端,服务器及可读存储介质
JP7192208B2 (ja) * 2017-12-01 2022-12-20 ヤマハ株式会社 機器制御システム、デバイス、プログラム、及び機器制御方法
JP6962158B2 (ja) 2017-12-01 2021-11-05 ヤマハ株式会社 機器制御システム、機器制御方法、及びプログラム
US20200388268A1 (en) * 2018-01-10 2020-12-10 Sony Corporation Information processing apparatus, information processing system, and information processing method, and program
US11030979B2 (en) * 2018-01-12 2021-06-08 Sony Corporation Information processing apparatus and information processing method
WO2019143336A1 (en) * 2018-01-18 2019-07-25 Hewlett-Packard Development Company, L.P. Learned quiet times for digital assistants
JP6774438B2 (ja) * 2018-01-22 2020-10-21 ヤフー株式会社 情報処理システム、情報処理方法、およびプログラム
JP6788620B2 (ja) * 2018-01-22 2020-11-25 ヤフー株式会社 情報処理システム、情報処理方法、およびプログラム
JP7067082B2 (ja) 2018-01-24 2022-05-16 ヤマハ株式会社 機器制御システム、機器制御方法、及びプログラム
WO2019163255A1 (ja) * 2018-02-23 2019-08-29 ソニー株式会社 情報処理装置、情報処理方法、および、プログラム
CN108469966A (zh) * 2018-03-21 2018-08-31 北京金山安全软件有限公司 语音播报控制方法、装置、智能设备及介质
JP7098390B2 (ja) * 2018-04-12 2022-07-11 株式会社Nttドコモ 情報処理装置
CN108601176A (zh) * 2018-04-28 2018-09-28 深圳春沐源控股有限公司 亮度调节装置的控制方法、系统、计算机设备及存储介质
JP2021128350A (ja) * 2018-05-09 2021-09-02 ソニーグループ株式会社 情報処理システム、情報処理方法、および記録媒体
JP2019204287A (ja) 2018-05-23 2019-11-28 ソニー株式会社 情報処理装置、情報処理方法および情報処理プログラム
JP6700338B2 (ja) * 2018-06-19 2020-05-27 ソフトバンク株式会社 情報処理装置、情報処理方法、情報処理プログラム
JP7093266B2 (ja) * 2018-08-20 2022-06-29 ヤフー株式会社 決定装置、決定方法及び決定プログラム
JP7055722B2 (ja) * 2018-08-27 2022-04-18 京セラ株式会社 音声認識機能を有する電子機器、その電子機器の制御方法およびプログラム
CN110874201B (zh) * 2018-08-29 2023-06-23 斑马智行网络(香港)有限公司 交互方法、设备、存储介质和操作系统
CN109150675A (zh) * 2018-08-31 2019-01-04 珠海格力电器股份有限公司 一种家用电器的交互方法及装置
CN109166580A (zh) * 2018-09-17 2019-01-08 珠海格力电器股份有限公司 一种语音反馈提示控制方法、系统及空调器
WO2020090322A1 (ja) * 2018-11-01 2020-05-07 ソニー株式会社 情報処理装置、その制御方法及びプログラム
US11151990B2 (en) * 2018-12-14 2021-10-19 International Business Machines Corporation Operating a voice response system
US20210404830A1 (en) * 2018-12-19 2021-12-30 Nikon Corporation Navigation device, vehicle, navigation method, and non-transitory storage medium
US10795670B2 (en) 2018-12-20 2020-10-06 Roblox Corporation Developer collaboration control system
JP2020119412A (ja) * 2019-01-28 2020-08-06 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
EP3933828A1 (en) 2019-02-25 2022-01-05 Sony Group Corporation Information processing device and information processing method
JP7318241B2 (ja) * 2019-03-18 2023-08-01 コニカミノルタ株式会社 音声情報処理装置及びプログラム
JP7474058B2 (ja) 2020-02-04 2024-04-24 株式会社デンソーテン 表示装置および表示装置の制御方法
CN115461699A (zh) * 2020-04-27 2022-12-09 索尼集团公司 信息处理装置、信息处理方法、输出装置、输出方法、程序和通知系统
WO2021217527A1 (zh) * 2020-04-29 2021-11-04 华为技术有限公司 一种车内语音交互方法及设备

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06124097A (ja) * 1992-10-13 1994-05-06 Hitachi Ltd 携帯型端末装置
JP3729918B2 (ja) * 1995-07-19 2005-12-21 株式会社東芝 マルチモーダル対話装置及び対話方法
JP3518113B2 (ja) * 1995-12-06 2004-04-12 日産自動車株式会社 表示装置
US8419650B2 (en) * 1999-04-16 2013-04-16 Cariocom, LLC Downloadable datasets for a patient monitoring system
JP2001005487A (ja) * 1999-06-18 2001-01-12 Mitsubishi Electric Corp 音声認識装置
US6640098B1 (en) * 2000-02-14 2003-10-28 Action Engine Corporation System for obtaining service-related information for local interactive wireless devices
US7167830B2 (en) * 2000-03-10 2007-01-23 Entrieva, Inc. Multimodal information services
US7640006B2 (en) * 2001-10-03 2009-12-29 Accenture Global Services Gmbh Directory assistance with multi-modal messaging
JP3733322B2 (ja) * 2001-11-21 2006-01-11 キヤノン株式会社 マルチモーダル文書受信装置及びマルチモーダル文書送信装置、マルチモーダル文書送受信システム及びそれらの制御方法、プログラム
US7162451B2 (en) * 2001-11-30 2007-01-09 International Business Machines Corporation Information content distribution based on privacy and/or personal information
US6807529B2 (en) * 2002-02-27 2004-10-19 Motorola, Inc. System and method for concurrent multimodal communication
US7250846B2 (en) * 2002-03-05 2007-07-31 International Business Machines Corporation Method and apparatus for providing dynamic user alert
US7272564B2 (en) * 2002-03-22 2007-09-18 Motorola, Inc. Method and apparatus for multimodal communication with user control of delivery modality
CH698655B1 (fr) * 2002-12-05 2009-09-30 Asulab Sa Adaptabilité de l'interface d'un objet portable en fonction de son environnement.
US7650170B2 (en) * 2004-03-01 2010-01-19 Research In Motion Limited Communications system providing automatic text-to-speech conversion features and related methods
JP2007041920A (ja) * 2005-08-04 2007-02-15 Matsushita Electric Ind Co Ltd 健康端末装置、健康診断ネットワークシステム、及びプログラム
US7912187B1 (en) * 2006-06-01 2011-03-22 At&T Mobility Ii Llc Transcoding voice to/from text based on location of a communication device
US8000969B2 (en) * 2006-12-19 2011-08-16 Nuance Communications, Inc. Inferring switching conditions for switching between modalities in a speech application environment extended for interactive text exchanges
US10311446B2 (en) * 2008-12-05 2019-06-04 Nokia Technologies Oy Method and apparatus for obfuscating context information
AU2010221722A1 (en) * 2009-02-06 2011-08-18 Oculis Labs, Inc. Video-based privacy supporting system
US8839150B2 (en) * 2010-02-10 2014-09-16 Apple Inc. Graphical objects that respond to touch or motion input
US20120003989A1 (en) * 2010-07-01 2012-01-05 Cox Communications, Inc. Location Status Update Messaging
US9179214B2 (en) * 2010-07-23 2015-11-03 Nec Corporation Audio equipment and oscillation unit
US8265938B1 (en) * 2011-05-24 2012-09-11 Verna Ip Holdings, Llc Voice alert methods, systems and processor-readable media
JP5831929B2 (ja) * 2011-08-29 2015-12-09 日本電気株式会社 表示装置、制御方法、及びプログラム
US8793118B2 (en) * 2011-11-01 2014-07-29 PES School of Engineering Adaptive multimodal communication assist system
US8731822B2 (en) * 2012-01-17 2014-05-20 Motorola Mobility Llc Systems and methods for interleaving navigational directions with additional audio in a mobile device
KR101999182B1 (ko) * 2012-04-08 2019-07-11 삼성전자주식회사 사용자 단말 장치 및 그의 제어 방법
US9953326B2 (en) * 2012-05-02 2018-04-24 Jpmorgan Chase Bank, N.A. Alert optimization system and method
US9510141B2 (en) * 2012-06-04 2016-11-29 Apple Inc. App recommendation using crowd-sourced localized app usage data
JP2013254395A (ja) * 2012-06-07 2013-12-19 Ricoh Co Ltd 処理装置、処理システム、出力方法およびプログラム
WO2013187610A1 (en) * 2012-06-15 2013-12-19 Samsung Electronics Co., Ltd. Terminal apparatus and control method thereof
US9874991B2 (en) * 2013-01-15 2018-01-23 Apple Inc. Progressive tiling
US20140310277A1 (en) * 2013-04-15 2014-10-16 Flextronics Ap, Llc Suspending user profile modification based on user context
CN104424470B (zh) * 2013-09-03 2018-04-27 联想(北京)有限公司 一种手势识别方法及装置
US9037455B1 (en) * 2014-01-08 2015-05-19 Google Inc. Limiting notification interruptions
CN103747346B (zh) * 2014-01-23 2017-08-25 中国联合网络通信集团有限公司 一种多媒体视频播放的控制方法及多媒体视频播放器
US9031812B2 (en) * 2014-02-27 2015-05-12 Fitbit, Inc. Notifications on a user device based on activity detected by an activity monitoring device
EP3114574A4 (en) * 2014-03-03 2018-03-07 Inrix, Inc. Traffic obstruction detection
US9779474B2 (en) * 2014-04-04 2017-10-03 Blackberry Limited System and method for electronic device display privacy
US10203665B2 (en) * 2014-04-24 2019-02-12 Vivint, Inc. Managing home automation system based on behavior and user input
US9378641B2 (en) * 2014-06-18 2016-06-28 Justin Edward Beumler Detecting unsafe car seat passenger-conditions
CN104394261A (zh) * 2014-10-08 2015-03-04 小米科技有限责任公司 电话留言提示方法和装置
US20160132975A1 (en) * 2014-11-07 2016-05-12 Opower, Inc. Identifying high usage periods
US9443195B2 (en) * 2014-11-26 2016-09-13 Sense Labs, Inc. Assisted labeling of devices with disaggregation

Also Published As

Publication number Publication date
CN107408028A (zh) 2017-11-28
WO2016157658A1 (ja) 2016-10-06
US10776070B2 (en) 2020-09-15
US20180107445A1 (en) 2018-04-19
EP3279791A1 (en) 2018-02-07
WO2016158792A1 (ja) 2016-10-06
CN107408028B (zh) 2020-12-18
JP6760267B2 (ja) 2020-09-23
EP3279791A4 (en) 2018-10-17

Similar Documents

Publication Publication Date Title
JP6760267B2 (ja) 情報処理装置、制御方法、およびプログラム
US11277519B2 (en) Methods and apparatus to assist listeners in distinguishing between electronically generated binaural sound and physical environment sound
CN107408027B (zh) 信息处理设备、控制方法及程序
CN106257355A (zh) 设备控制方法和控制器
JP2017009867A (ja) 制御装置、その方法及びプログラム
US20160071389A1 (en) Smart led lighting system and monitoring method thereof
WO2018066191A1 (ja) サーバ、クライアント端末、制御方法、および記憶媒体
CN106463108A (zh) 提供与干扰的隔离
WO2017141530A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JPWO2015186387A1 (ja) 情報処理装置、制御方法、およびプログラム
US11544968B2 (en) Information processing system, information processingmethod, and recording medium
JP6973380B2 (ja) 情報処理装置、および情報処理方法
KR20220013498A (ko) 층간소음 분쟁을 예방하기 위한 인공지능 기반의 이웃간 데이터 처리 장치 및 이를 이용한 데이터 처리 방법
JP2016080894A (ja) 電子機器、家電、制御システム、制御方法、および制御プログラム
US9420111B2 (en) Communication device, method, and program
US20220141283A1 (en) Information processing device and information processing method
Olaosun et al. Assistive technology for hearing and speech disorders
JP2017050280A (ja) ユーザの照明嗜好に基づいて照明システムを操作するためのシステム及び方法
JPWO2018216271A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP7212766B2 (ja) コミュニケーションロボットおよびその制御方法、情報処理サーバならびに情報処理方法
JP7074343B2 (ja) 情報処理装置
JP2017211798A (ja) ネットワークシステム、情報処理方法、およびサーバ
JP2022032697A (ja) 情報処理装置およびプログラム

Legal Events

Date Code Title Description
A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A527

Effective date: 20170705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190204

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190204

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190222

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200616

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200817

R151 Written notification of patent or utility model registration

Ref document number: 6760267

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151