JP2017144521A - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP2017144521A
JP2017144521A JP2016028899A JP2016028899A JP2017144521A JP 2017144521 A JP2017144521 A JP 2017144521A JP 2016028899 A JP2016028899 A JP 2016028899A JP 2016028899 A JP2016028899 A JP 2016028899A JP 2017144521 A JP2017144521 A JP 2017144521A
Authority
JP
Japan
Prior art keywords
user
action
information processing
processing apparatus
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2016028899A
Other languages
English (en)
Other versions
JP2017144521A5 (ja
Inventor
麗子 桐原
Reiko Kirihara
麗子 桐原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2016028899A priority Critical patent/JP2017144521A/ja
Priority to KR1020187019102A priority patent/KR20180113503A/ko
Priority to PCT/JP2016/087096 priority patent/WO2017141530A1/ja
Priority to US16/073,939 priority patent/US11237794B2/en
Priority to EP16890667.5A priority patent/EP3419020B1/en
Priority to CN201680081621.4A priority patent/CN108701455A/zh
Publication of JP2017144521A publication Critical patent/JP2017144521A/ja
Publication of JP2017144521A5 publication Critical patent/JP2017144521A5/ja
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/065Adaptation
    • G10L15/07Adaptation to the speaker
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/10Speech classification or search using distance or distortion measures between unknown speech and reference templates
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • User Interface Of Digital Computer (AREA)
  • Manipulator (AREA)

Abstract

【課題】よりユーザの意思に沿ったアクションを出力することが可能な、情報処理装置、情報処理方法、及びプログラムを提供する。【解決手段】ユーザとの距離に基づいて、前記ユーザへのアクションを決定するアクション決定部と、前記アクションを出力させる出力制御部と、を備える情報処理装置。【選択図】図1

Description

本開示は、情報処理装置、情報処理方法、及びプログラムに関する。
ユーザへの発話や情報提供等のアクションを出力するロボットが知られている。例えば、特許文献1には、周辺環境に応じて、ユーザへのアクションを制御するロボットが開示されている。
特開2008−254122号公報
上記のようなロボット(情報処理装置の一例)においては、よりユーザの意思に沿ったアクションを出力することが望まれている。
本開示によれば、ユーザとの距離に基づいて、前記ユーザへのアクションを決定するアクション決定部と、前記アクションを出力させる出力制御部と、を備える情報処理装置が提供される。
また、本開示によれば、ユーザとの距離に基づいて、前記ユーザへのアクションを決定することと、前記アクションを出力させることと、を含む情報処理方法が提供される。
また、本開示によれば、コンピュータに、ユーザとの距離に基づいて、前記ユーザへのアクションを決定する機能と、前記アクションを出力させる機能と、を実現させるための、プログラムが提供される。
以上説明したように本開示によれば、よりユーザの意思に沿ったアクションを出力することが可能となる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態に係る情報処理装置の概要を説明するための説明図である。 同実施形態による情報処理装置1の構成の一例を示すブロック図である。 ユーザ管理部103によるアテンションスコアの特定例を示す表である。 同実施形態による情報処理装置1の動作例を示すフローチャート図である。 同実施形態による情報処理装置1の動作例を示すフローチャート図である。 同実施形態による情報処理装置1の周囲にユーザが1名のみ存在する場合の、情報処理装置1の動作例を示すフローチャート図である。 同実施形態による情報処理装置1の周囲にユーザが1名のみ存在する場合の、情報処理装置1の動作例を示すフローチャート図である。 同実施形態による情報処理装置1の周囲に複数の家族ユーザが存在するシーンを示す説明図である。 同実施形態による情報処理装置1の周囲に複数の家族ユーザが存在するシーンを示す説明図である。 同実施形態による情報処理装置1の周囲に複数の家族ユーザが存在するシーンを示す説明図である。 図8〜10に示すシーンにおける、同実施形態による情報処理装置1の動作例を示すフローチャート図である。 図8〜10に示すシーンにおける、同実施形態による情報処理装置1の動作例を示すフローチャート図である。 図8〜10に示すシーンにおける、同実施形態による情報処理装置1の動作例を示すフローチャート図である。 図8〜10に示すシーンにおける、同実施形態による情報処理装置1の動作例を示すフローチャート図である。 同実施形態による情報処理装置1の周囲に家族ユーザとゲストユーザが存在するシーンを示す説明図である。 図15に示すシーンにおける、同実施形態による情報処理装置1の動作例を示すフローチャート図である。 ハードウェア構成例を示す説明図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
<<1.概要>>
<<2.構成例>>
<<3.動作>>
<3−1.動作例1>
<3−2.動作例2>
<<4.変形例>>
<4−1.変形例1>
<4−2.変形例2>
<4−3.変形例3>
<<5.ハードウェア構成例>>
<<6.むすび>>
<<1.概要>>
ユーザへのアクションを出力するロボット(情報処理装置の一例)が知られている。ロボットがユーザに対して行うアクションとしては、例えばユーザへの発話や、ユーザへの表示等が含まれる。またアクションは、例えばユーザの用件を聞く内容(「何か御用はありますか?」等)の発話または表示を含んでもよいし、挨拶やつぶやきのような、ユーザ応答を求めない発話または表示を含んでもよい。
上記のようなロボットはユーザの意思に沿ったアクションを出力することが望ましい。例えば、ユーザがロボットに対する用件を有しないにも関わらず、ユーザの用件を伺う発話が行われると、ユーザは不快に感じる恐れがある。
そこで、上記事情を一着眼点にして本実施形態を創作するに至った。本実施形態によれば、ユーザとの距離に基づいてアクションを決定することで、よりユーザの意思に沿ったアクションを出力することが可能である。以下、このような効果を有する本実施形態に係る情報処理装置の概要について、図1を参照して説明する。
図1は、本開示の一実施形態に係る情報処理装置の概要を説明するための説明図である。図1に示す情報処理装置1は、周囲のユーザを検出し、音声によるユーザへの発話や、ユーザへの表示等のアクションを出力する。また、情報処理装置1は、ユーザの発話(ユーザ応答の一例)に対して音声認識・意味解析を行い、音声または表示による応答を行うことが可能な音声UIエージェント機能を有する。ユーザの発話と、情報処理装置1による応答による一連の対話を、以下ではタスクと呼ぶ場合がある。
情報処理装置1は、情報処理装置1から図1に示す距離D1までの範囲において、ユーザの音声を認識することが可能であり、また、ユーザ(人物)を識別することが可能である。距離D1は、例えば300cmであってもよい。また、情報処理装置1は、情報処理装置1から図1に示す距離D2までの範囲において、ユーザ(人物)を検出することが可能である。距離D2は、例えば500cmであってもよい。
情報処理装置1の外観は特に限定しないが、例えば図1に示すような円柱形状であってもよく、部屋の床やテーブルの上等に設置される。また、情報処理装置1には、LED(Light Emitting Diode)等の発光素子により形成された発光部18が側面の水平方向中央領域を囲むよう帯状に設けられている。情報処理装置1は、発光部18の全体を光らせたり、一部を光らせたりすることで、ユーザに対して情報処理装置1の状態を知らせることが可能である。例えば情報処理装置1は、ユーザと対話している際は発光部18においてユーザの方向すなわち発話者方向を一部光らせることで、対話中のユーザに視線を向けているように見せることができる。また、情報処理装置1は、応答生成中やデータ検索中は発光部18で光が側面上を回っているように制御することで、処理中であることをユーザに知らせることができる。また、情報処理装置1は、例えば図1に示すように壁80に画像を投影して表示する機能を有し、音声によるアクションの出力(発話)の他、表示によるアクションの出力が可能である。
図1に示す情報処理装置1は例えば、情報処理装置1とユーザとの間の距離に基づいて、ユーザへのアクションを決定して、出力する。例えば、情報処理装置1は、情報処理装置1から第一の距離以下であるエリアA1に存在するユーザU1へ、ユーザU1の用件を聞くメッセージ62(例えば、「何か御用はありますか?」等)を表示してもよい。また、情報処理装置1は、情報処理装置1から第一の距離より大きく、第二の距離以下であるエリアA2に存在するユーザU2へ、お勧め情報等の情報提示するためのメッセージ64を表示してもよい。また、情報処理装置1は、情報処理装置1から第二の距離より大きく、第三の距離以下であるエリアA3に存在するユーザU3へ、挨拶等の応答を求めない発話を出力してもよい。
ここで、第三の距離は、ユーザの音声を認識することが可能な距離D1であってもよい。音声を認識することが不可能なエリアA4に存在するユーザにアクションを出力した場合、当該ユーザが応答しても情報処理装置1は音声を認識することが出来ない恐れがある。そこで、情報処理装置1は、音声を認識することが不可能なエリアA4に存在するユーザU4、U5へ、アクションを出力しなくてもよい。
なお、例えば、上記第一の距離は80cmであってもよく、第二の距離は200cmであってもよく、第三の距離は300cmであってもよい。
このように、本実施形態による情報処理装置1は、情報処理装置1とユーザとの距離に基づいて決定されるアクションを出力することが可能である。情報処理装置1とユーザとの距離は、ユーザの意思を示していると考えられ、例えば、より情報処理装置1に近いユーザは、情報処理装置1に対する用件があるかもしれない。したがって、係る構成によれば、よりユーザの意思に沿ったアクションを出力することが可能である。
以上、本開示の一実施形態による情報処理装置1の概要について説明した。なお、情報処理装置1の形状は図1に示す円柱形状に限定されず、例えば立方体、球体、多面体等であってもよい。続いて、本開示の第一の実施形態による情報処理装置1の構成例について順次説明する。
<<2.構成例>>
図2は、本実施形態による情報処理装置1の構成の一例を示すブロック図である。図2に示すように、情報処理装置1は、制御部10、通信部11、収音部12、スピーカ13、カメラ14、測距センサ15、投影部16、記憶部17、及び発光部18を有する。
制御部10は、情報処理装置1の各構成を制御する。また、本実施形態による制御部10は、図2に示すように、ユーザ認識部101、発話予測部102、ユーザ管理部103、アクション決定部104、音声認識部105、意味解析部106、及び出力制御部107としても機能する。
ユーザ認識部101は、情報処理装置1の周囲に存在するユーザの検出と識別を行う。例えば、ユーザ認識部101は、カメラ14により取得される画像、及び測距センサ15により取得される距離に基づき、周知の顔検出技術、人物検出技術等を用いて、ユーザの検出を行う。また、ユーザ認識部101は、カメラ14により取得される画像に基づき、周知の顔認識技術等を用いて、ユーザの識別を行う。例えば、ユーザ認識部101は、記憶部17に記憶される既知のユーザの識別情報と、画像において検出されたユーザから抽出される情報とのマッチングにより、ユーザの識別を行ってもよい。
ユーザ認識部101は、ユーザが検出された場合、検出されたユーザの数、及びユーザの位置等の情報を発話予測部102に提供する。また、ユーザ認識部101は、ユーザが検出された場合、検出されたユーザの数、ユーザの識別により得られる識別情報をユーザ管理部103に提供する。
発話予測部102はユーザ認識部101により検出されたユーザに対して、ユーザの発話予測(例えば、ユーザに情報処理装置1との対話意思があることの予測)を行う。発話予測部102によるユーザの発話予測は、多様な方法で行われ得る。
例えば、発話予測部102は、ユーザによる明示的な対話意思を伝える行動に基づいて、ユーザの発話を予測してもよい。例えば、発話予測部102は、後述する収音部12により収音されたユーザの音声から、所定の起動ワード(例えば、「Hello Agent」等)を検出した場合に、ユーザの発話を予測してもよい。また、発話予測部102は、ユーザが情報処理装置1に触れたことが不図示のタッチセンサや物理ボタンによって検出された場合に、ユーザの発話を予測してもよい。なお、発話予測部102は、ユーザ認識部101によりユーザが検出されていない場合であっても、ユーザが情報処理装置1に触れたことが検出された場合に、ユーザの発話を予測してもよい。また、発話予測部102は、後述するカメラ14や測距センサ15により得られたデータに基づいて、ユーザが手を振っていることを検出した場合に、ユーザの発話を予測してもよい。また、発話予測部102は、後述するカメラ14や測距センサ15により得られたデータ、または収音部12により収音された音に基づいて、ユーザが手を叩いたことを検出した場合にユーザの発話を予測してもよい。また、発話予測部102は、ユーザが情報処理装置1の目の前まで近づいた場合(例えば情報処理装置1とユーザとの距離が所定値以下の場合)に、ユーザの発話を予測してもよい。
ところで、上記のような明示的な対話意思を伝える行動は、ユーザに負荷を与える恐れがある。例えば、所定の起動ワードの検出により発話が予測される場合、ユーザは本来の用件を発話する前に起動ワードを発話するため、発話負荷がかかる。また、ユーザが情報処理装置1に触れたことの検出により発話が予測される場合、ユーザは情報処理装置1に触れられる範囲に存在する必要があり、また、情報処理装置1に触れたり、操作することもユーザにとって負荷となり得る。
そこで、本実施形態に係る発話予測部102は、上記のような明示的にユーザが情報処理装置1に対話意思を伝える行動を行わない場合であってもユーザの発話を予測してもよい。以下に説明するような発話予測例によれば、上記のように明示的にユーザが情報処理装置1に対話意思を伝える行動を行う場合と比べて、ユーザの負荷が軽減される。
例えば、発話予測部102は、後述するカメラ14や測距センサ15により得られたデータに基づいて、ユーザの視線の方向、または顔の方向を推定してもよく、ユーザの視線、または顔が情報処理装置1に向いた(注視した)場合に、ユーザの発話を予測してもよい。また、発話予測部102は、ユーザの視線、または顔が情報処理装置1に所定時間以上向いた(注視した)場合に、ユーザの発話を予測してもよい。
また、発話予測部102は、測距センサ15により得られたユーザとの距離が所定値以下である場合に、ユーザの発話を予測してもよい。
また、発話予測部102は、測距センサ15により得られたデータに基づいて、ユーザの移動方向と速度を特定し、ユーザが所定値以上の速度で情報処理装置1に近づいた場合に、ユーザの発話を予測してもよい。
また、発話予測部102は、ユーザとの一連の対話であるタスク(例えば、予定の登録、情報の検索等)が終了しているか否かを判定し、タスクが終了していない(途中である)場合に、ユーザの発話を予測してもよい。
ユーザ管理部103は、ユーザ認識部101により検出されたユーザの識別情報に基づいて、ユーザに係る管理を行う。
例えば、ユーザ管理部103は、ユーザの識別情報と、記憶部17に記憶されるユーザの識別情報に基づいて、ユーザの属性情報を管理してもよい。ユーザの属性は、例えば、情報処理装置1を有する家庭に属する家族ユーザ、家族ユーザではないが記憶部17にユーザ情報が記憶された既知ユーザ、記憶部17にユーザ情報が記憶されていないゲストユーザのいずれかであってもよい。
また、ユーザ管理部103は、ユーザ認識部101により、複数のユーザが検出された場合に、アクションの対象となるターゲットユーザを特定してもよい。ユーザ管理部103は、検出された複数のユーザのうち、一のユーザをターゲットユーザとして特定してもよいし、複数のユーザをターゲットユーザとして特定してもよい。
ユーザ管理部103は、例えば、ユーザの状態に基づいて、検出されたユーザごとに情報処理装置1との対話意思を示すアテンションスコアを特定し、特定されたアテンションスコアに基づいてターゲットユーザを特定してもよい。
図3は、ユーザ管理部103によるアテンションスコアの特定例を示す表である。図3に示すように、ユーザ管理部103は、ユーザの状態、ユーザとの距離、及び当該状態の継続時間(状態継続時間)に基づいて、アテンションスコアを特定してもよい。なお、図3において、is_watchingは、ユーザの視線、または顔が情報処理装置1に向いた(注視した)状態を表す。また、図3において、not_watchingは、ユーザの視線、または顔が情報処理装置1に向いていない(注視していない)状態を表す。
ユーザ管理部103は、図3に示す表に従って、検出されたユーザごとにアテンションスコアを特定し、アテンションスコアが最も高いユーザをターゲットユーザとして特定してもよい。また、ユーザ管理部103は、検出された全てのユーザのアテンションスコアが0以下である場合に、ターゲットユーザなし(アクションの対象者なし)と、特定してもよい。
なお、ユーザ管理部103によるターゲットユーザの特定は上記の例に限定されない。例えば、発話予測部102により、ユーザの発話が予測された場合に、当該ユーザをターゲットユーザとして特定してもよい。また、ユーザ管理部103は、ユーザの状態に基づいて、ユーザを複数の種別に分類し、分類されたユーザの種別に基づいて、ターゲットユーザを特定してもよい。係る例については、動作例2として後述する。
また、ユーザ管理部103はユーザごとにアクションの出力情報を管理する。例えば、ユーザ管理部103は、後述する出力制御部107の制御により、ユーザへアクションが出力された場合、当該ユーザに当該アクションが出力された時刻を含む当該アクションの出力情報を記憶部17に記憶させる。さらに、ユーザ管理部103は、当該出力情報に基づいて、ターゲットユーザを特定してもよい。例えば、所定時間以内に同一のユーザにアクション決定部104により決定されたアクションが出力されていた場合、当該ユーザをターゲットユーザとして特定しないことで、同一のアクションが同一のユーザに頻繁に出力されることを防ぐことが可能である。
アクション決定部104は、ユーザとの距離に基づいて、ユーザへのアクションを決定する。例えば、アクション決定部104は、測距センサ15により得られる情報処理装置1とユーザとの距離に基づいて、アクションを決定してもよい。
アクション決定部104により決定されるアクションは、例えば、ユーザの用件を伺う表示や発話のように、ユーザ応答を求めるアクションであってもよく、情報提示や挨拶、またはつぶやきのように、ユーザ応答を求めないアクションであってもよい。
なお、情報提示の内容は、例えば未読メール(未読メッセージ)、ソーシャルサービスの新着情報、いつも見ているWEBサイトの更新情報等、個々のユーザに応じた情報でもよい。また、未読メール等のプライベートな情報は、ユーザが1名のみ検出された場合に表示されてもよい。また、今見れるテレビ番組等、その場にいる人に共有されてもよい情報は、ユーザが複数検出された場合に表示されてもよい。
アクション決定部104は、ユーザとの距離が第一の距離以下である場合(例えば図1を参照して説明したエリアA1にユーザが存在する場合)に、ユーザ応答を求めるアクションを、ユーザへのアクションとして決定してもよい。係る構成によれば、より情報処理装置1に近いユーザと、よりスムーズに対話を開始することが可能である。
また、アクション決定部104は、ユーザとの距離が第一の距離より大きい場合に、ユーザ応答を求めないアクションを、ユーザへのアクションとして決定してもよい。
また、アクション決定部104は、ユーザとの距離が第一の距離より大きく、第二の距離以下の場合(例えば図1を参照して説明したエリアA2にユーザが存在する場合)に、ユーザ応答を求めない表示を、ユーザへのアクションとして決定してもよい。また、アクション決定部104は、ユーザとの距離が第二の距離より大きく、第三の距離以下の場合(例えば図1を参照して説明したエリアA3にユーザが存在する場合)に、ユーザ応答を求めない発話を、ユーザへのアクションとして決定してもよい。例えば情報処理装置1の出力機能において、表示によるアクションよりも発話によるアクションの方が、より遠くにいるユーザに認識されやすい場合に、係る構成によれば、ユーザへのアクションがユーザに認識されやすくなる。
また、アクション決定部104は、発話予測部102によりユーザの発話が予測され、ユーザ管理部103により当該ユーザがターゲットユーザとして特定された場合、ユーザ応答を求めるアクションをユーザへのアクションとして決定してもよい。係る構成によれば、既に発話が予測されているユーザと、よりスムーズに対話を開始することが可能である。
なお、ユーザ認識部101により複数のユーザが検出された場合、アクション決定部104は、ターゲットユーザとの距離に基づいて、アクションを決定してもよい。また、ユーザ認識部101により複数のユーザが検出された場合、アクション決定部104は、ユーザ管理部103により分類されたユーザの種別に基づいてユーザへのアクションを決定してもよい。例えば、アクション決定部104は、所定の種別に分類されたユーザのうち、ユーザとの距離が最も小さいユーザとの距離に応じて、ユーザへのアクションを決定してもよい。
また、ユーザ管理部103が、図3を参照して説明したアテンションスコアに基づいてターゲットユーザを特定した場合、アクション決定部104は、アテンションスコアに基づいて、アクションを決定してもよい。例えば、アクション決定部104は、アテンションスコアが所定値以上のユーザがターゲットユーザである場合に、ユーザ応答を求めるアクションをユーザへのアクションとして決定してもよい。
また、アクション決定部104は、ユーザ管理部103により管理されるユーザの属性情報に基づいてアクションを決定してもよい。例えば、アクション決定部104は、検出されたユーザの中に所定の属性を有するユーザが存在する場合、ユーザ応答を求めないアクションを、ユーザへのアクションとして決定してもよい。所定の属性を有するユーザは、例えば情報処理装置1の操作権限を与えないことが望ましいユーザであってもよく、例えば既知ユーザやゲストユーザであってもよい。係る構成によれば、例えば家族ユーザ以外による情報処理装置1の操作を制限することが可能である。
アクション決定部104は、決定されたアクションに係るアクション情報を出力制御部107に提供する。また、アクション決定部104は、決定されたアクションが、ユーザ応答を求めるアクションである場合に、音声認識部105に、決定されたアクションが、ユーザ応答を求めるアクションであることを通知してもよい。
音声認識部105は、後述する収音部12により収音されたユーザの音声を認識し、文字列への変換を行い、発話テキストを取得する。また、音声認識部105は、音声の特徴に基づいて声を出している人を識別したり、音声の発生源、すなわち発話者の方向を推定したりすることも可能である。
また、音声認識部105は、取得した発話テキストに所定の起動ワードが含まれている場合に、当該起動ワードが検出されたことを発話予測部102に通知してもよい。なお、音声認識部105は、起動ワードを、他の発話テキストと比較して雑音に対してより頑強に検出してもよい。
また、音声認識部105は、アクション決定部104により、ユーザ応答を求めるアクションがユーザへのアクションとして決定された場合に、上記起動ワード以外の音声認識を開始してもよい。係る構成によれば、音声認識部105は、当該アクションが出力された後に行われるユーザによる発話応答を、スムーズに認識することが可能となる。
意味解析部106は、音声認識部105により取得された発話テキストに対して自然言語処理等を用いて意味解析を行う。意味解析部106による意味解析の結果は、出力制御部107に提供される。
出力制御部107は、後述するスピーカ13、投影部16、発光部18を制御して、アクション決定部104により決定されたユーザへのアクションを出力させる。例えば、出力制御部107は、スピーカ13を制御して、音声の発話をアクションとして出力させてもよいし、投影部16を制御して、メッセージや情報の表示をアクションとして出力させてもよい。
出力制御部107は、ユーザ管理部103により特定されたターゲットユーザにアクションを出力してもよい。また、出力制御部107は、ユーザへアクションを出力した場合、出力されたアクションの情報と、アクションが出力されたユーザの情報を、ユーザ管理部103に提供してもよい。
また、出力制御部107は、意味解析部106から提供される意味解析結果に応じて、ユーザの発話に対する応答や、ユーザが求める動作等のタスクに係る出力を制御する。例えば、ユーザの発話が「明日の天気」を求めるものである場合、ネットワーク上の天気予報サーバから、「明日の天気」に関する情報を取得し、スピーカ13、投影部16、または発光部18を制御して、取得した情報を出力させる。係る例では、「明日の天気」に関する情報が出力された時点で、タスクが終了したとみなされてもよい。
通信部11は、外部装置とデータの送受信を行う。例えば、通信部11は、不図示の通信網を介して、不図示の所定サーバと接続し、出力制御部107による出力制御に必要な情報を受信する。
収音部12は、周辺の音声を収音し、音声信号として制御部10に出力する機能を有する。また、収音部12は、例えば1または複数のマイクロフォンにより実現されてもよい。
スピーカ13は、出力制御部107の制御に従って音声信号を音声に変換して出力する機能を有する。
カメラ14は、情報処理装置1に設けられた撮像レンズにより周辺を撮像し、撮像画像を制御部10に出力する機能を有する。また、カメラ14は、例えば360度カメラまたは広角カメラ等により実現されてもよい。
測距センサ15は、情報処理装置1とユーザやユーザの周辺に居る人物との距離を測定する機能を有する。測距センサ15は、例えば光センサ(発光・受光タイミングの位相差情報に基づいて対象物までの距離を測定するセンサ)により実現される。
投影部16は、表示装置の一例であって、壁やスクリーンに画像を(拡大して)投影することで表示する機能を有する。
記憶部17は、情報処理装置1の各構成が機能するためのプログラムやパラメータを記憶する。例えば、記憶部17は、ユーザの識別情報、ユーザの属性情報などのユーザに係る情報や、出力される発話内容、表示内容等のアクションに係る情報等を記憶してもよい。
発光部18は、LED等の発光素子により実現され、全灯、一部点灯、点滅、または点灯位置の制御等が可能である。例えば発光部18は、制御部10の制御に従って音声認識部105により認識された発話者の方向を一部点灯することで、発話者の方向に視線を向けているように見せることができる。
以上、本実施形態による情報処理装置1の構成について具体的に説明した。なお、図2に示す情報処理装置1の構成は一例であって、本実施形態はこれに限定されない。例えば、情報処理装置1は、周辺環境に関する情報を取得するために、IR(infrared:赤外線)カメラ、深度カメラ、ステレオカメラ、または人感センサ等をさらに備えていてもよい。また、情報処理装置1は、ユーザインタフェースとして、タッチパネルディスプレイや物理ボタン等をさらに備えていてもよい。また、情報処理装置1に設けられる収音部12、スピーカ13、カメラ14、及び発光部18等の設置位置は特に限定されない。また、本実施形態による制御部10の各機能は、通信部11を介して接続される他の情報処理装置が有してもよい。
<<3.動作>>
続いて、本実施形態による情報処理装置1のいくつかの動作例について、図4〜16を参照して説明する。
<3−1.動作例1>
まず、図4、5を参照し、ユーザ応答を求めるアクションが行われ、音声認識が開始される場合の動作例を動作例1として以下に説明する。
図4、5は、本実施形態による情報処理装置1の動作例を示すフローチャート図である。図4に示すように、まず、制御部10は、情報処理装置1の周囲からユーザが検出されるまで、ユーザ検出処理を繰り返す(S110)。検出されたユーザが1名の場合(S110においてYES、かつS120においてYES)に、発話予測部102により、ユーザの発話が予測されると(S130においてYES)、ユーザの応答を求めるアクションが特定され、出力されて、音声認識が開始される(S140)。なお、ユーザの発話の予測は、ユーザによる明示的な対話意思を伝える行動に基づく予測に限定されず、上述したように、ユーザの注視や、ユーザとの距離、ユーザの移動速度に基づく予測であってもよい。本動作例においては、ユーザの発話が予測されない場合(S130においてNO)、処理はステップS110に戻ってもよい。
アクションが出力された後、ユーザの発話と、情報処理装置1による応答による一連の対話であるタスクが終了すると(S150においてYES)、処理は終了する。また、タスクが終了しておらず、ユーザの発話が終了していない場合(S150においてNOかつS160においてNO)は、タスクが終了するまで音声認識が継続される。一方、タスクが終了していないが、ユーザの発話が終了した場合(S150においてNOかつS160においてYES)、処理は終了する。なお、ユーザの発話が終了したか否かは、例えば制御部10により判定されてもよく、制御部10は、無音期間が所定時間(例えば15秒)継続した場合に、ユーザの発話が終了したと判定してもよい。
また、ユーザ認識部101により、複数のユーザが検出された場合(S120においてNO)、ユーザ認識部101、ユーザ管理部103は、ユーザの識別を行う(図5に示すS210)。続いて、ユーザ管理部103が、図3を参照して説明したアテンションスコアをユーザごとに特定し(S220)、アテンションスコアが最も高いユーザをターゲットユーザとして特定する(S230)。なお、発話予測部102が、ユーザによる明示的な対話意思を伝える行動(起動ワードの発話等)に基づいて、ユーザの発話を予測した場合には、ステップS230において当該ユーザがターゲットユーザとして特定されてもよい。
続いて、アクション決定部104によりユーザの応答を求めるアクションが特定され、出力制御部107の制御により当該アクションが出力されて、音声認識が開始される(S240)。
アクションが出力された後、ユーザの発話と、情報処理装置1による応答による一連の対話であるタスクが終了すると(S250においてYES)、処理は終了する。また、タスクが終了しておらず、ユーザの発話が終了していない場合(S250においてNOかつS260においてNO)、音声認識が継続されたまま、処理はステップS210に戻る。一方、タスクが終了していないが、ユーザの発話が終了した場合(S250においてNOかつS260においてYES)、処理は終了する。なお、ユーザの発話が終了したか否かは、上述したように制御部10により判定されてもよい。
<3−2.動作例2>
上述した動作例1では、発話の予測に基づいて、ユーザの応答を求めるアクションが行われて、音声認識が開始される場合の動作例を説明した。続いて、以下に説明する動作例2では、ユーザとの距離に応じたアクションの特定の例について具体的に説明する。
まず、図6,7を参照して、情報処理装置1により検出されるユーザが1名の場合の動作例について説明した後、図8〜16を参照して、情報処理装置1により検出されるユーザが複数の場合の動作例について説明する。
図6、7は、本実施形態による情報処理装置1の周囲にユーザが1名のみ存在する場合の、情報処理装置1の動作例を示すフローチャート図である。図6に示すように、まず、制御部10がユーザを検出し、識別する(S302)。ユーザ管理部103により、当該ユーザが情報処理装置1を注視している状態(is_watching)が所定時間以上継続したと判定された場合(S304においてYES)、処理はステップS306に進む。一方、当該ユーザが情報処理装置1を注視している状態(is_watching)が所定時間以上継続したと判定されない場合(S304においてNO)、例えば処理は終了する。
ステップS306において、ユーザ管理部103により当該ユーザが家族ユーザであると判定された場合(S306においてYES)、処理はステップS308に進む。一方、ユーザ管理部103により当該ユーザが家族ユーザではないと判定された場合、処理は図7のステップS350に進む。
アクション決定部104により、当該ユーザがエリアA1に存在すると判定された場合(S308においてYES)、ステップS310において、ユーザ管理部103により、当該ユーザに所定時間の間用件を聞いていないか否かが判定される。当該ユーザに所定時間の間用件を聞いていない場合(S310においてYES)、出力制御部107は、用件を聞くメッセージを表示させ、音声認識部105による音声認識が開始される(S312)。なお、ここで、また以降において、音声認識が開始されて以降の処理は図4を参照して説明したステップS150、S160の処理と同様であってもよく、説明は省略される。ステップS310において、当該ユーザに所定時間の間に用件を聞いていた場合(S310においてNO)、処理は終了する。
アクション決定部104により、当該ユーザがエリアA2に存在すると判定された場合(S308においてNOかつS314においてYES)、処理はステップS316に進む。ステップS316において、制御部10が当該ユーザへのお勧め情報(情報提示可能な情報)の有無を判定する。お勧め情報がない場合(S316においてNO)に処理は終了し、お勧め情報がある場合(S316においてYES)、出力制御部107はお勧め情報を表示させる(S318)。
アクション決定部104により、当該ユーザがエリアA3に存在すると判定された場合(S308においてNOかつS314においてNOかつS320においてYES)、処理はステップS322に進む。ステップS322において、ユーザ管理部103により、当該ユーザに所定時間の間挨拶していないか否かが判定される。当該ユーザに所定時間の間用件を聞いていない場合(S322においてYES)、出力制御部107は、当該ユーザへの音声発話による挨拶を出力させる(S324)。ステップS322において、当該ユーザに所定時間の間に挨拶していた場合(S322においてNO)、処理は終了する。
また、当該ユーザがエリアA1〜A3のいずれにも存在しない場合(S308においてNOかつS314においてNOかつS320においてNO)、処理は終了する。
ステップS306において、ユーザ管理部103により当該ユーザが家族ユーザではないと判定された場合(S306においてNO)、処理は図7に示すステップS350に進む。
ユーザ管理部103により当該ユーザが既知ユーザであると判定され、アクション決定部104により、当該ユーザがエリアA1〜A3のいずれかに存在すると判定された場合(S350においてYESかつS352においてYES)、処理はステップS354に進む。ステップS354、S356の処理はステップS322、S324の処理と同様であるため説明を省略する。一方、当該ユーザがエリアA1〜A3のいずれにも存在しないと判定された場合(S352においてNO)、処理は終了する。
ユーザ管理部103により当該ユーザが既知ユーザであると判定され、アクション決定部104により、当該ユーザがエリアA1〜A3のいずれかに存在すると判定された場合(S350においてYESかつS352においてYES)、処理はステップS354に進む。ステップS354、S356の処理はステップS322、S324の処理と同様であるため説明を省略する。
ユーザ管理部103により当該ユーザが家族ユーザでも既知ユーザでもない(ゲストユーザである)と判定された場合(ステップS350においてNO)、処理はステップS358に進む。ステップS358において、アクション決定部104により、当該ユーザがエリアA1またはA2に存在すると判定された場合(S358においてYES)、出力制御部107の制御により、ユーザへ一方的につぶやく発話出力が行われ(S360)、処理は終了する。以下に情報処理装置1がつぶやく内容の例を示す。以下の例は、例えば一つずつ発話されてもよい。
「あれ?見慣れない人がいる・・・。」
「お客さんでしょうか・・・。」
「なんだか緊張します・・・。」
「うーん、誰かに似てる気が・・・。」
「すてきなお洋服ですね。」
一方、ステップS358において、アクション決定部104により、当該ユーザがエリアA1またはA2に存在しないと判定された場合(S358においてNO)、処理は終了する。
以上、情報処理装置1により検出されるユーザが1名の場合の動作例について説明した。続いて、図8〜16を参照して、情報処理装置1により検出されるユーザが複数の場合の動作例について説明する。なお、以下では、図8〜14を参照して、情報処理装置1の周囲に家族ユーザのみが存在する場合の動作例について説明した後、図15、16を参照して、情報処理装置1の周囲にゲストユーザが存在する場合の動作例について説明する。
図8〜10は、情報処理装置1の周囲に複数の家族ユーザが存在するシーンを示す説明図である。図8〜10において、情報処理装置1の周囲に家族ユーザX、Y、Zが存在する。また、家族ユーザX,Yは情報処理装置1を注視し、家族ユーザZは、情報処理装置1を注視せず、例えばテレビ受像機8を注視している。以下の説明では、適宜図8〜10を参照しする。
図11〜14は、図8〜10に示すシーンのいずれかにおける、本実施形態による情報処理装置1の動作例を示すフローチャート図である。図11に示すように、まず、ユーザ認識部101、ユーザ管理部103により、家族ユーザX、Y、Zがそれぞれ識別される(S402)。続いて、ユーザ管理部103は、家族ユーザX、Y、Zの種別を存在ユーザに分類する(S402)。
ここで、家族ユーザX、Y、Zのうち、まず家族ユーザXの状態がis_watchingとなり(S406)、続いて家族ユーザYの状態がis_watchingとなり(S408)、家族ユーザZの顔が非検出(not_watching)状態(S410)と判定されたとする。続いて、家族ユーザXの状態がis_watchingのまま所定時間(例えば2秒間)継続したと判定された(S412)時点で、is_watching状態であった家族ユーザX,Yの種別が注視ユーザと分類される(S414)。なお、家族ユーザZの顔が非検出(not_watching)状態のまま所定時間(例えば1分間)経過した場合、家族ユーザZは存在ユーザから削除されてもよい。
続いて、注視ユーザにゲストユーザが含まれるか否か判定が行われるが、本動作例では家族ユーザX,Yのみが注視ユーザと分類されているため、注視ユーザにゲストユーザが含まれないと判定される(S416)。なお、注視ユーザにゲストユーザが含まれる例については、図15、16を参照して説明する。
図8に示すように、注視ユーザの誰かがエリアA1に存在する場合(S418においてYES)、処理は図12のステップS420に進む。所定時間以内に家族ユーザX、及び家族ユーザYの双方に用件を聞いていない場合(S420においてYESかつS422においてYES)、出力制御部107は、家族ユーザX、及び家族ユーザYに用件を聞くメッセージを表示させ、音声認識部105による音声認識が開始される(S424)。また、所定時間以内に家族ユーザXに用件を聞いていないが、家族ユーザYに用件を聞いていた場合(S420においてYESかつS422においてNO)、出力制御部107は、家族ユーザXに用件を聞くメッセージを表示させ、音声認識部105による音声認識が開始される(S426)。また、所定時間以内に家族ユーザXに用件を聞いていたが、家族ユーザYに用件を聞いていない場合(S420においてNOかつS428においてYES)、出力制御部107は、家族ユーザYに用件を聞くメッセージを表示させ、音声認識部105による音声認識が開始される(S430)。また、所定時間以内に家族ユーザX、及び家族ユーザYの双方に用件を聞いていた場合(S420においてNOかつS428においてNO)、処理は終了する。
また、図9に示すように、エリアA1に注視ユーザが存在しない場合(S418においてNO)、処理は図13のステップS440に進む。ステップS440において、注視ユーザの誰かがエリアA2に存在する場合(S440においてYES)、処理はステップS442に進む。ステップS422、S444の処理は、図6のステップS316、S318の処理と同様であるため、説明を省略する。
また、図10に示すように、エリアA1、及びA2に注視ユーザが存在しない場合(S440においてNO)、処理は図14のステップS460に進む。ステップS460において、エリアA3に注視ユーザが存在しない場合(S460においてNO)処理は終了し、注視ユーザの誰かがエリアA3に存在する場合(S460においてYES)、処理はステップS462に進む。
所定時間以内に家族ユーザX、及び家族ユーザYの双方に挨拶していない場合(S462においてYESかつS464においてYES)、出力制御部107は、家族ユーザX、及び家族ユーザYへの音声発話による挨拶を出力させる(S466)。また、所定時間以内に家族ユーザXに挨拶していないが、家族ユーザYに挨拶していた場合(S462においてYESかつS464においてNO)、出力制御部107は、家族ユーザXへの音声発話による挨拶を出力させる(S468)。また、所定時間以内に家族ユーザXに挨拶していたが、家族ユーザYに挨拶していない場合(S462においてNOかつS470においてYES)、出力制御部107は、家族ユーザYへの音声発話による挨拶を出力させる(S472)。また、所定時間以内に家族ユーザX、及び家族ユーザYの双方に用件を聞いていた場合(S462においてNOかつS470においてNO)、処理は終了する。
以上、情報処理装置1の周囲に複数の家族ユーザのみが存在する場合の動作例について説明した。続いて、図15、16を参照して、情報処理装置1の周囲にゲストユーザが存在する場合の動作例について説明する。
図15は、情報処理装置1の周囲に家族ユーザとゲストユーザが存在するシーンを示す説明図である。図15において、情報処理装置1の周囲に家族ユーザX、及びゲストユーザP、Qが存在する。また、家族ユーザX、及びゲストユーザP、Qは情報処理装置1を注視している。以下の説明では、適宜図15を参照する。
図16は、図15に示すシーンにおける、本実施形態による情報処理装置1の動作例を示すフローチャート図である。図16に示すように、まず、ゲストユーザP,Qが認識される(S502)。例えば、ユーザ認識部101により、ユーザP,Qが検出され、ユーザ管理部103により、ユーザP,Qの属性がゲストユーザであると特定される。また、ユーザ認識部101、ユーザ管理部103により、家族ユーザXがそれぞれ識別される(S504)。続いて、ユーザ管理部103は、ゲストユーザP,Q、及び家族ユーザXの種別を存在ユーザに分類する(S506)。
ここで、ゲストユーザP、Q、及び家族ユーザXの順に状態がis_watchingとなる(S508〜S512)。さらに、ゲストユーザPの状態がis_watchingのまま所定時間(例えば2秒間)継続したと判定された(S514)時点で、is_watching状態であったゲストユーザP,Q、及び家族ユーザXの種別が注視ユーザと分類される(S516)。
続いて、注視ユーザにゲストユーザが含まれるか否か判定が行われるが、本動作例ではゲストユーザP、Qが注視ユーザと分類されているため、注視ユーザにゲストユーザが含まれると判定される(S518)。
例えば、図15に示すように、注視ユーザの誰かがエリアA1、またはエリアA2に存在する場合(S520においてYES)、処理はステップS522に進む。なお、ステップS522の処理は、ステップS360の処理と同様であるため、説明を省略する。一方、エリアA1、エリアA2のいずれにも、注視ユーザが存在しない場合(S520においてNO)、処理は終了する。
以上、情報処理装置1の周囲に家族ユーザとゲストユーザが存在する場合の動作例について説明した。上述したように、情報処理装置1の周囲にゲストユーザが存在する場合、ユーザ応答を求めないアクション(つぶやきの発話)を、ユーザへのアクションとして決定することで、家族ユーザ以外による情報処理装置1の操作を制限することが可能である。
<<4.変形例>>
以上、本開示の一実施形態を説明した。以下では、本開示の一実施形態の幾つかの変形例を説明する。なお、以下に説明する各変形例は、単独で本開示の実施形態に適用されてもよいし、組み合わせで本開示の実施形態に適用されてもよい。また、各変形例は、本開示の実施形態で説明した構成に代えて適用されてもよいし、本開示の実施形態で説明した構成に対して追加的に適用されてもよい。
<4−1.変形例1>
上記では、アクション決定部104が、ユーザとの距離に基づいて、当該ユーザへのアクションを決定する例を説明したが、本開示は係る例に限定されない。以下に、他のアクション決定例を説明する。
例えば、ユーザの注視時間に基づいて、ユーザへのアクションが決定されてもよい。例えば、注視時間が第一の期間(例えば1秒)以内であれば挨拶、第一の期間より大きく第二の期間(例えば3秒)以内であれば用件を聞く、第二の期間より大きく第三の期間(例えば5秒)以内であれば使い方を説明する、といったアクションが決定されてもよい。
また、ユーザが本体に近づく速度に基づいて、ユーザへのアクションが決定されてもよい。例えば、ユーザが本体に近づく速度が、第一の速度(例えば2km/h)以内であれば挨拶、第一の速度より大きく第二の速度(例えば3km/h)以内であれば用件を聞く、といったアクションが決定されてもよい。また、ユーザが本体に近づく速度が第二の速度より大きく第三の速度以内であれば、アクションが出力されずに、即座に音声認識が開始されてもよい。
<4−2.変形例2>
また、上記実施形態では、ユーザ応答を求めるアクションの例として、ユーザの用件を伺う表示や発話を説明したが、本開示は係る例に限定されない。例えば、情報処理装置1は、ユーザの情報に基づいて、ユーザの用件を推測して、推測された用件の確認に係る表示や発話を出力してもよい。例えば、毎日所定の時刻に翌日のスケジュールを確認するユーザに対して、情報処理装置1は、当該ユーザの用件が翌日のスケジュール確認であると推定して、翌日のスケジュールを表示しつつ、用件が正しいか確認するメッセージを表示してもよい。係る構成によれば、よりスムーズなユーザとの対話が実現される。
<4−3.変形例3>
また、上記実施形態では、ターゲットユーザにのみアクションが出力される例を説明したが、本開示は係る例に限定されない。例えば、情報処理装置1は、ターゲットユーザではないユーザに対して、「前のユーザとの対話が終わるまで少し待っていて」といった発話を出力してもよい。また、情報処理装置1は、ターゲットユーザではないユーザに対して、まだ対話を開始していないが、対話意思があることに気付いていることを示す出力(例えば発光部18が当該ユーザの方向を光らせる等)を行ってもよい。
<<5.ハードウェア構成例>>
以上、本開示の実施形態を説明した。上述したユーザ認識処理、発話予測処理、ユーザ管理処理、アクション決定処理、音声認識処理、意味解析処理、出力制御処理等の情報処理は、ソフトウェアと、情報処理装置1との協働により実現される。以下では、本実施形態に係る情報処理装置である情報処理装置1のハードウェア構成例として、情報処理装置1000のハードウェア構成例について説明する。
図17は、情報処理装置1000のハードウェア構成の一例を示す説明図である。図11に示したように、情報処理装置1000は、CPU(Central Processing Unit)1001と、ROM(Read Only Memory)1002と、RAM(Random Access Memory)1003と、入力装置1004と、出力装置1005と、ストレージ装置1006と、撮像装置1007と、通信装置1008とを備える。
CPU1001は、演算処理装置及び制御装置として機能し、各種プログラムに従って情報処理装置1000内の動作全般を制御する。また、CPU1001は、マイクロプロセッサであってもよい。ROM1002は、CPU1001が使用するプログラムや演算パラメータ等を記憶する。RAM1003は、CPU1001の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバス等から構成されるホストバスにより相互に接続されている。主に、CPU1001、ROM1002及びRAM1003とソフトウェアとの協働により、制御部10の機能が実現される。
入力装置1004は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチ及びレバー等ユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU1001に出力する入力制御回路等から構成されている。情報処理装置1000のユーザは、該入力装置1004を操作することにより、情報処理装置1000に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力装置1005は、例えば、液晶ディスプレイ(LCD)装置、OLED装置、シースルーディスプレイ、及びランプ等の表示装置を含む。さらに、出力装置1005は、スピーカ及びヘッドホン等の音声出力装置を含む。例えば、表示装置は、撮像された画像や生成された画像等を表示する。一方、音声出力装置は、音声データ等を音声に変換して出力する。出力装置1005は、例えば図2を参照して説明したスピーカ13、投影部16、発光部18に対応する。
ストレージ装置1006は、データ格納用の装置である。ストレージ装置1006は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置及び記憶媒体に記録されたデータを削除する削除装置等を含んでもよい。ストレージ装置1006は、CPU1001が実行するプログラムや各種データを格納する。ストレージ装置1006は、図2を参照して説明した記憶部17に対応する。
撮像装置1007は、光を集光する撮影レンズ及びズームレンズ等の撮像光学系、及びCCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)等の信号変換素子を備える。撮像光学系は、被写体から発せられる光を集光して信号変換部に被写体像を形成し、信号変換素子は、形成された被写体像を電気的な画像信号に変換する。撮像装置1007は、図2を参照して説明したカメラ14に対応する。
通信装置1008は、例えば、通信網に接続するための通信デバイス等で構成された通信インタフェースである。また、通信装置1008は、無線LAN(Local Area Network)対応通信装置、LTE(Long Term Evolution)対応通信装置、有線による通信を行うワイヤー通信装置、またはブルートゥース通信装置を含んでもよい。通信装置1008は、例えば図2を参照して説明した通信部11に対応する。
<<6.むすび>>
以上、説明したように、本開示の実施形態によれば、ユーザとの距離に基づいてアクションを決定することで、よりユーザの意思に沿ったアクションを出力することが可能である。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上記実施形態における各ステップは、必ずしもフローチャート図として記載された順序に沿って時系列に処理する必要はない。例えば、上記実施形態の処理における各ステップは、フローチャート図として記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
また、上記実施形態では、ユーザとの距離が、情報処理装置とユーザとの距離である例を説明したが、本開示は係る例に限定されない。例えば、情報処理装置がスピーカや表示部を有する他の端末の出力を制御する場合、ユーザとの距離は、当該他の端末と、ユーザとの距離であってもよい。
また、上記実施形態によれば、CPU1001、ROM1002、及びRAM1003などのハードウェアを、上述した情報処理装置1の各構成と同様の機能を発揮させるためのコンピュータプログラムも提供可能である。また、該コンピュータプログラムが記録された記録媒体も提供される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
ユーザとの距離に基づいて、前記ユーザへのアクションを決定するアクション決定部と、
前記アクションを出力させる出力制御部と、
を備える情報処理装置。
(2)
前記ユーザとの距離は、前記情報処理装置と前記ユーザとの間の距離である、前記(1)に記載の情報処理装置。
(3)
前記アクションの対象となるターゲットユーザを特定するユーザ管理部をさらに備える、前記(1)または(2)に記載の情報処理装置。
(4)
前記ユーザ管理部は前記ユーザの状態に基づいて、前記ターゲットユーザを特定する、前記(3)に記載の情報処理装置。
(5)
前記ユーザ管理部は前記ユーザとの距離、または前記ユーザの状態の継続時間にさらに基づいて、前記ターゲットユーザを特定する、前記(4)に記載の情報処理装置。
(6)
前記ユーザ管理部は、前記ユーザの状態に基づいてユーザを複数の種別に分類し、
前記アクション決定部は、分類されたユーザの種別にさらに基づいて、前記ユーザへのアクションを決定する、前記(3)〜(5)のいずれかに記載の情報処理装置。
(7)
前記アクション決定部は、所定の種別に分類されたユーザのうち、前記ユーザとの距離が最も小さいユーザとの距離に応じて、アクションを決定する、前記(6)に記載の情報処理装置。
(8)
前記ユーザ管理部は、前記所定の種別に分類されたユーザに基づいて前記ターゲットユーザを特定する、前記(7)に記載の情報処理装置。
(9)
前記ユーザ管理部は、ユーザの発話が予測された場合に、発話が予測された当該ユーザを前記ターゲットユーザとして特定する、前記(3)〜(8)のいずれか一項に記載の情報処理装置。
(10)
前記アクション決定部は、前記ユーザの発話が予測された場合、前記ユーザの応答を求めるアクションを、前記ユーザへのアクションとして決定する、前記(9)に記載の情報処理装置。
(11)
前記アクション決定部は、さらにユーザの属性情報に基づいて前記アクションを決定する、前記(1)〜(10)のいずれか一項に記載の情報処理装置。
(12)
前記アクション決定部は、所定の属性を有するユーザが存在する場合、前記ユーザの応答を求めないアクションを、前記ユーザへのアクションとして決定する、前記(11)に記載の情報処理装置。
(13)
前記アクション決定部により決定された前記アクションに応じて、音声認識を開始する音声認識部をさらに備える、前記(1)〜(12)のいずれか一項に記載の情報処理装置。
(14)
前記アクション決定部は、前記ユーザとの距離が、第一の距離以下の場合に、前記ユーザの応答を求めるアクションを、前記ユーザへのアクションとして決定する、前記(1)〜(13)のいずれか一項に記載の情報処理装置。
(15)
前記アクション決定部は、前記ユーザとの距離が、前記第一の距離より大きい場合に、前記ユーザの応答を求めないアクションを、前記ユーザへのアクションとして決定する、前記(14)に記載の情報処理装置。
(16)
前記アクション決定部は、前記ユーザとの距離が、第二の距離以下の場合に、前記ユーザの応答を求めない表示を、前記ユーザへのアクションとして決定する、前記(15)に記載の情報処理装置。
(17)
前記アクション決定部は、前記ユーザとの距離が、前記第二の距離より大きく、第三の距離以下の場合に、前記ユーザの応答を求めない発話を、前記ユーザへのアクションとして決定する、前記(16)に記載の情報処理装置。
(18)
ユーザとの距離に基づいて、前記ユーザへのアクションを決定することと、
前記アクションを出力させることと、
を含む情報処理方法。
(19)
コンピュータに、
ユーザとの距離に基づいて、前記ユーザへのアクションを決定する機能と、
前記アクションを出力させる機能と、
を実現させるための、プログラム。
1 情報処理装置
10 制御部
11 通信部
12 収音部
13 スピーカ
14 カメラ
15 測距センサ
16 投影部
17 記憶部
18 発光部
101 ユーザ認識部
102 発話予測部
103 ユーザ管理部
104 アクション決定部
105 音声認識部
106 意味解析部
107 出力制御部

Claims (19)

  1. ユーザとの距離に基づいて、前記ユーザへのアクションを決定するアクション決定部と、
    前記アクションを出力させる出力制御部と、
    を備える情報処理装置。
  2. 前記ユーザとの距離は、前記情報処理装置と前記ユーザとの間の距離である、請求項1に記載の情報処理装置。
  3. 前記アクションの対象となるターゲットユーザを特定するユーザ管理部をさらに備える、請求項1に記載の情報処理装置。
  4. 前記ユーザ管理部は前記ユーザの状態に基づいて、前記ターゲットユーザを特定する、請求項3に記載の情報処理装置。
  5. 前記ユーザ管理部は前記ユーザとの距離、または前記ユーザの状態の継続時間にさらに基づいて、前記ターゲットユーザを特定する、請求項4に記載の情報処理装置。
  6. 前記ユーザ管理部は、前記ユーザの状態に基づいてユーザを複数の種別に分類し、
    前記アクション決定部は、分類されたユーザの種別にさらに基づいて、前記ユーザへのアクションを決定する、請求項3に記載の情報処理装置。
  7. 前記アクション決定部は、所定の種別に分類されたユーザのうち、前記ユーザとの距離が最も小さいユーザとの距離に応じて、アクションを決定する、請求項6に記載の情報処理装置。
  8. 前記ユーザ管理部は、前記所定の種別に分類されたユーザに基づいて前記ターゲットユーザを特定する、請求項7に記載の情報処理装置。
  9. 前記ユーザ管理部は、ユーザの発話が予測された場合に、発話が予測された当該ユーザを前記ターゲットユーザとして特定する、請求項3に記載の情報処理装置。
  10. 前記アクション決定部は、前記ユーザの発話が予測された場合、前記ユーザの応答を求めるアクションを、前記ユーザへのアクションとして決定する、請求項9に記載の情報処理装置。
  11. 前記アクション決定部は、さらにユーザの属性情報に基づいて前記アクションを決定する、請求項1に記載の情報処理装置。
  12. 前記アクション決定部は、所定の属性を有するユーザが存在する場合、前記ユーザの応答を求めないアクションを、前記ユーザへのアクションとして決定する、請求項11に記載の情報処理装置。
  13. 前記アクション決定部により決定された前記アクションに応じて、音声認識を開始する音声認識部をさらに備える、請求項1に記載の情報処理装置。
  14. 前記アクション決定部は、前記ユーザとの距離が、第一の距離以下の場合に、前記ユーザの応答を求めるアクションを、前記ユーザへのアクションとして決定する、請求項1に記載の情報処理装置。
  15. 前記アクション決定部は、前記ユーザとの距離が、前記第一の距離より大きい場合に、前記ユーザの応答を求めないアクションを、前記ユーザへのアクションとして決定する、請求項14に記載の情報処理装置。
  16. 前記アクション決定部は、前記ユーザとの距離が、第二の距離以下の場合に、前記ユーザの応答を求めない表示を、前記ユーザへのアクションとして決定する、請求項15に記載の情報処理装置。
  17. 前記アクション決定部は、前記ユーザとの距離が、前記第二の距離より大きく、第三の距離以下の場合に、前記ユーザの応答を求めない発話を、前記ユーザへのアクションとして決定する、請求項16に記載の情報処理装置。
  18. ユーザとの距離に基づいて、前記ユーザへのアクションを決定することと、
    前記アクションを出力させることと、
    を含む情報処理方法。
  19. コンピュータに、
    ユーザとの距離に基づいて、前記ユーザへのアクションを決定する機能と、
    前記アクションを出力させる機能と、
    を実現させるための、プログラム。
JP2016028899A 2016-02-18 2016-02-18 情報処理装置、情報処理方法、及びプログラム Ceased JP2017144521A (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2016028899A JP2017144521A (ja) 2016-02-18 2016-02-18 情報処理装置、情報処理方法、及びプログラム
KR1020187019102A KR20180113503A (ko) 2016-02-18 2016-12-13 정보 처리 장치, 정보 처리 방법 및 프로그램
PCT/JP2016/087096 WO2017141530A1 (ja) 2016-02-18 2016-12-13 情報処理装置、情報処理方法、及びプログラム
US16/073,939 US11237794B2 (en) 2016-02-18 2016-12-13 Information processing device and information processing method
EP16890667.5A EP3419020B1 (en) 2016-02-18 2016-12-13 Information processing device, information processing method and program
CN201680081621.4A CN108701455A (zh) 2016-02-18 2016-12-13 信息处理装置、信息处理方法和程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016028899A JP2017144521A (ja) 2016-02-18 2016-02-18 情報処理装置、情報処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2017144521A true JP2017144521A (ja) 2017-08-24
JP2017144521A5 JP2017144521A5 (ja) 2018-04-26

Family

ID=59625697

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016028899A Ceased JP2017144521A (ja) 2016-02-18 2016-02-18 情報処理装置、情報処理方法、及びプログラム

Country Status (6)

Country Link
US (1) US11237794B2 (ja)
EP (1) EP3419020B1 (ja)
JP (1) JP2017144521A (ja)
KR (1) KR20180113503A (ja)
CN (1) CN108701455A (ja)
WO (1) WO2017141530A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019072787A (ja) * 2017-10-13 2019-05-16 シャープ株式会社 制御装置、ロボット、制御方法、および制御プログラム
JP2019079083A (ja) * 2017-10-19 2019-05-23 アイシン精機株式会社 運転支援装置
JP2019185389A (ja) * 2018-04-10 2019-10-24 日本電信電話株式会社 情報処理装置、情報処理方法および情報処理プログラム
KR20210008089A (ko) * 2018-08-21 2021-01-20 구글 엘엘씨 자동화된 어시스턴트를 호출하기 위한 다이내믹 및/또는 컨텍스트 특정 핫워드
JP2021135363A (ja) * 2020-02-26 2021-09-13 株式会社サイバーエージェント 制御システム、制御装置、制御方法及びコンピュータプログラム
JP2022119878A (ja) * 2018-05-04 2022-08-17 グーグル エルエルシー ユーザと自動化されたアシスタントインターフェースとの間の距離に応じて自動化されたアシスタントのコンテンツを生成するおよび/または適応させること
US11423890B2 (en) 2018-08-21 2022-08-23 Google Llc Dynamic and/or context-specific hot words to invoke automated assistant

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102228866B1 (ko) * 2018-10-18 2021-03-17 엘지전자 주식회사 로봇 및 그의 제어 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0311400A (ja) * 1989-06-08 1991-01-18 Toshiba Corp 音声認識装置
JPH0588691A (ja) * 1991-09-30 1993-04-09 Toshiba Corp 音声対話装置
JP2007199552A (ja) * 2006-01-30 2007-08-09 Toyota Motor Corp 音声認識装置と音声認識方法
JP2010204260A (ja) * 2009-03-02 2010-09-16 Brother Ind Ltd 対話装置
JP2015513704A (ja) * 2012-03-16 2015-05-14 ニュアンス コミュニケーションズ, インコーポレイテッド ユーザ専用自動発話認識

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4751192B2 (ja) 2005-12-12 2011-08-17 本田技研工業株式会社 移動ロボット
JP2007160440A (ja) 2005-12-12 2007-06-28 Honda Motor Co Ltd 脚式移動ロボットの制御装置
JP4976903B2 (ja) 2007-04-05 2012-07-18 本田技研工業株式会社 ロボット
KR101644421B1 (ko) * 2008-12-23 2016-08-03 삼성전자주식회사 사용자의 관심 정도에 기반한 컨텐츠 제공장치 및 방법
KR101581883B1 (ko) * 2009-04-30 2016-01-11 삼성전자주식회사 모션 정보를 이용하는 음성 검출 장치 및 방법
JP5834941B2 (ja) * 2012-01-19 2015-12-24 富士通株式会社 注目対象特定装置、注目対象特定方法、及びプログラム
JP6171353B2 (ja) * 2013-01-18 2017-08-02 株式会社リコー 情報処理装置、システム、情報処理方法およびプログラム
US20170017501A1 (en) 2013-12-16 2017-01-19 Nuance Communications, Inc. Systems and methods for providing a virtual assistant
EP2911149B1 (en) 2014-02-19 2019-04-17 Nokia Technologies OY Determination of an operational directive based at least in part on a spatial audio property
WO2015130273A1 (en) 2014-02-26 2015-09-03 Empire Technology Development Llc Presence-based device mode modification
EP2933070A1 (en) * 2014-04-17 2015-10-21 Aldebaran Robotics Methods and systems of handling a dialog with a robot
JP2017138476A (ja) 2016-02-03 2017-08-10 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0311400A (ja) * 1989-06-08 1991-01-18 Toshiba Corp 音声認識装置
JPH0588691A (ja) * 1991-09-30 1993-04-09 Toshiba Corp 音声対話装置
JP2007199552A (ja) * 2006-01-30 2007-08-09 Toyota Motor Corp 音声認識装置と音声認識方法
JP2010204260A (ja) * 2009-03-02 2010-09-16 Brother Ind Ltd 対話装置
JP2015513704A (ja) * 2012-03-16 2015-05-14 ニュアンス コミュニケーションズ, インコーポレイテッド ユーザ専用自動発話認識

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
木原 民雄、外2名: "人の位置移動による状況即応型デジタルサイネージの構成法", 情報処理学会論文誌, vol. 53, no. 2, JPN6017008337, 15 February 2012 (2012-02-15), JP, pages 868 - 878, ISSN: 0004172823 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019072787A (ja) * 2017-10-13 2019-05-16 シャープ株式会社 制御装置、ロボット、制御方法、および制御プログラム
JP2019079083A (ja) * 2017-10-19 2019-05-23 アイシン精機株式会社 運転支援装置
JP2019185389A (ja) * 2018-04-10 2019-10-24 日本電信電話株式会社 情報処理装置、情報処理方法および情報処理プログラム
JP2022119878A (ja) * 2018-05-04 2022-08-17 グーグル エルエルシー ユーザと自動化されたアシスタントインターフェースとの間の距離に応じて自動化されたアシスタントのコンテンツを生成するおよび/または適応させること
US11789522B2 (en) 2018-05-04 2023-10-17 Google Llc Generating and/or adapting automated assistant content according to a distance between user(s) and an automated assistant interface
US11423890B2 (en) 2018-08-21 2022-08-23 Google Llc Dynamic and/or context-specific hot words to invoke automated assistant
JP2021532394A (ja) * 2018-08-21 2021-11-25 グーグル エルエルシーGoogle LLC 自動化アシスタントを呼び出すための動的および/またはコンテキスト固有のホットワード
CN112292724A (zh) * 2018-08-21 2021-01-29 谷歌有限责任公司 用于调用自动助理的动态和/或场境特定热词
JP2023015054A (ja) * 2018-08-21 2023-01-31 グーグル エルエルシー 自動化アシスタントを呼び出すための動的および/またはコンテキスト固有のホットワード
KR102498811B1 (ko) 2018-08-21 2023-02-10 구글 엘엘씨 자동화된 어시스턴트를 호출하기 위한 다이내믹 및/또는 컨텍스트 특정 핫워드
KR20230023832A (ko) * 2018-08-21 2023-02-17 구글 엘엘씨 자동화된 어시스턴트를 호출하기 위한 다이내믹 및/또는 컨텍스트 특정 핫워드
JP7341171B2 (ja) 2018-08-21 2023-09-08 グーグル エルエルシー 自動化アシスタントを呼び出すための動的および/またはコンテキスト固有のホットワード
KR20210008089A (ko) * 2018-08-21 2021-01-20 구글 엘엘씨 자동화된 어시스턴트를 호출하기 위한 다이내믹 및/또는 컨텍스트 특정 핫워드
KR102599607B1 (ko) 2018-08-21 2023-11-07 구글 엘엘씨 자동화된 어시스턴트를 호출하기 위한 다이내믹 및/또는 컨텍스트 특정 핫워드
US11810557B2 (en) 2018-08-21 2023-11-07 Google Llc Dynamic and/or context-specific hot words to invoke automated assistant
JP2021135363A (ja) * 2020-02-26 2021-09-13 株式会社サイバーエージェント 制御システム、制御装置、制御方法及びコンピュータプログラム

Also Published As

Publication number Publication date
EP3419020A1 (en) 2018-12-26
EP3419020A4 (en) 2019-02-27
CN108701455A (zh) 2018-10-23
WO2017141530A1 (ja) 2017-08-24
EP3419020B1 (en) 2021-09-22
US11237794B2 (en) 2022-02-01
US20190042188A1 (en) 2019-02-07
KR20180113503A (ko) 2018-10-16

Similar Documents

Publication Publication Date Title
WO2017141530A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6669162B2 (ja) 情報処理装置、制御方法、およびプログラム
WO2017134935A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6516585B2 (ja) 制御装置、その方法及びプログラム
JP6669073B2 (ja) 情報処理装置、制御方法、およびプログラム
JP6739907B2 (ja) 機器特定方法、機器特定装置及びプログラム
JP6428954B2 (ja) 情報処理装置、情報処理方法およびプログラム
KR102551715B1 (ko) Iot 기반 알림을 생성 및 클라이언트 디바이스(들)의 자동화된 어시스턴트 클라이언트(들)에 의해 iot 기반 알림을 자동 렌더링하게 하는 명령(들)의 제공
JP6053097B2 (ja) 機器操作システム、機器操作装置、サーバ、機器操作方法およびプログラム
WO2016157658A1 (ja) 情報処理装置、制御方法、およびプログラム
WO2017168936A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JPWO2015133022A1 (ja) 情報処理装置、情報処理方法およびプログラム
WO2019107145A1 (ja) 情報処理装置、及び情報処理方法
JP6973380B2 (ja) 情報処理装置、および情報処理方法
WO2018139036A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP6678315B2 (ja) 音声再生方法、音声対話装置及び音声対話プログラム
WO2017195440A1 (ja) 情報処理装置、情報処理方法およびプログラム
US20210224066A1 (en) Information processing device and information processing method
CN109658924B (zh) 会话消息处理方法、装置及智能设备
US20200160833A1 (en) Information processor, information processing method, and program
US11818820B2 (en) Adapting a lighting control interface based on an analysis of conversational input
JP2017182275A (ja) 情報処理装置、情報処理方法、及びプログラム
US20210385101A1 (en) Information processing apparatus and information processing method
WO2018139050A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP2017211798A (ja) ネットワークシステム、情報処理方法、およびサーバ

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180314

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180314

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190222

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190717

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200210

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200602

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20201027