JP7136201B2 - 情報処理装置および情報処理方法 - Google Patents

情報処理装置および情報処理方法 Download PDF

Info

Publication number
JP7136201B2
JP7136201B2 JP2020523522A JP2020523522A JP7136201B2 JP 7136201 B2 JP7136201 B2 JP 7136201B2 JP 2020523522 A JP2020523522 A JP 2020523522A JP 2020523522 A JP2020523522 A JP 2020523522A JP 7136201 B2 JP7136201 B2 JP 7136201B2
Authority
JP
Japan
Prior art keywords
macro
information processing
name
user
function execution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020523522A
Other languages
English (en)
Other versions
JPWO2019235013A1 (ja
Inventor
広 岩瀬
祐平 滝
邦仁 澤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2019235013A1 publication Critical patent/JPWO2019235013A1/ja
Application granted granted Critical
Publication of JP7136201B2 publication Critical patent/JP7136201B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/30Arrangements for executing machine instructions, e.g. instruction decode
    • G06F9/3017Runtime instruction translation, e.g. macros
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/335Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/338Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/38Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/383Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Library & Information Science (AREA)
  • Artificial Intelligence (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Description

本開示は、情報処理装置および情報処理方法に関する。
近年、発話による操作が可能な機器が広く普及している。また、上記のような機器を利用するユーザの利便性を高める技術も多く提案されている。例えば、特許文献1には、発話による複数の機能実行指示をマクロ化する技術が開示されている。
特願2018-5061
特許文献1に記載の技術では、登録を行うマクロの名称をユーザ自身が決定することが求められる。しかし、ユーザによっては、どのような文言をマクロとして設定すべきか瞬時に判断できない場合も想定される。
そこで、本開示では、より覚えやすいマクロの名称を自動で決定することが可能な、新規かつ改良された情報処理装置および情報処理方法を提案する。
本開示によれば、ユーザによる複数の機能実行指示に係るクラスタリングを実行し、複数の前記機能実行指示を含むクラスタをマクロとして推定する発話学習適応部と、前記マクロに係る情報提示を制御する応答制御部と、を備え、前記発話学習適応部は、前記クラスタが含む複数の前記機能実行指示が行われた際に取得されたコンテキストに基づいて、推定した前記マクロの名称を決定し、前記応答制御部は、前記ユーザに対する前記マクロの名称の通知を制御し、複数の前記機能実行指示は、発話による前記機能実行指示を少なくとも1つ含む、情報処理装置が提供される。
また、本開示によれば、ユーザによる複数の機能実行指示に係るクラスタリングに基づいて登録されたマクロの名称が、前記ユーザにより発話されたことに基づいて、前記マクロに対応する複数の機能の実行を制御する応答制御部、を備え、複数の前記機能実行指示は、発話による前記機能実行指示を少なくとも1つ含み、前記マクロの名称は、複数の前記機能実行指示が行われた際に取得されたコンテキストに基づいて決定された名称である、情報処理装置が提供される。
また、本開示によれば、プロセッサが、ユーザによる複数の機能実行指示に係るクラスタリングを実行し、複数の前記機能実行指示を含むクラスタをマクロとして推定することと、前記マクロに係る情報提示を制御することと、を含み、前記推定することは、前記クラスタが含む複数の前記機能実行指示が行われた際に取得されたコンテキストに基づいて、推定した前記マクロの名称を決定すること、をさらに含み、前記制御することは、前記ユーザに対する前記マクロの名称の通知を制御することをさらに含み、複数の前記機能実行指示は、発話による前記機能実行指示を少なくとも1つ含む、情報処理方法が提供される。
また、本開示によれば、プロセッサが、ユーザによる複数の機能実行指示に係るクラスタリングに基づいて登録されたマクロの名称が、前記ユーザにより発話されたことに基づいて、前記マクロに対応する複数の機能の実行を制御すること、を含み、複数の前記機能実行指示は、発話による前記機能実行指示を少なくとも1つ含み、前記マクロの名称は、複数の前記機能実行指示が行われた際に取得されたコンテキストに基づいて決定された名称である、情報処理方法が提供される。
以上説明したように本開示によれば、より覚えやすいマクロの名称を自動で決定することが可能となる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態の概要について説明するための図である。 同実施形態に係るシステム構成例を示す図である。 同実施形態に係る情報処理端末の機能構成例を示すブロック図である。 同実施形態に係る情報処理サーバの機能構成例を示すブロック図である。 同実施形態に係る機能テンプレートの一例を示す図である。 同実施形態に係る機能テンプレートの一例を示す図である。 同実施形態に係る発話ガイドの一例を示す図である。 同実施形態に係る発話ガイドの一例を示す図である。 同実施形態に係る発話ガイドの一例を示す図である。 同実施形態に係るクラスタ化された機能実行指示履歴の一例を示す図である。 同実施形態に係るクラスタ化された機能実行指示履歴の一例を示す図である。 同実施形態に係るマクロ命名の流れを示すフローチャートである。 同実施形態に係るコンテキス依存性の変化を説明するための概念図である。 同実施形態に係る登録済みマクロの名称更新の一例を示す図である。 同実施形態に係るユーザのフィードバックに基づく制御の一例について説明するための図である。 同実施形態に係るユーザのフィードバックに基づく制御の一例について説明するための図である。 本開示の一実施形態に係る情報処理サーバのハードウェア構成例を示す図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.実施形態
1.1.概要
1.2.システム構成例
1.3.情報処理端末10の機能構成例
1.4.情報処理サーバ20の機能構成例
1.5.機能の詳細
2.ハードウェア構成例
3.まとめ
<1.実施形態>
<<1.1.概要>>
まず、本開示の一実施形態の概要について説明する。上述したように、近年では、発話による操作が可能な機器が広く普及している。上記のような機器には、例えば、音声によりユーザのとの対話を行いながら、種々の機能をユーザに提供するエージェント装置が挙げられる。
また、エージェント装置を利用するユーザの利便性を向上させるための技術も多く提案されている。例えば、特許文献1の図15には、ユーザが音声により行った複数の機能実行指示をマクロとして登録し、以降は当該マクロを音声により指定することで、複数の機能を実行可能とする技術について示されている。
特許文献1に記載される上記の技術によれば、機能の実行を1つずつ指示しなくても、マクロを呼び出すことで、複数の機能をエージェント装置にまとめて実行させることが可能となり、ユーザの利便性を大きく向上させることができる。
しかし、特許文献1に記載される技術の場合、図15に示されるように、ユーザは、登録を望むマクロに対応する機能実行指示を、「まとめて覚えて」などの発話を行うことにより明示的に示す必要がある。このような登録指示は、ユーザによっては煩雑と捉えられる可能性もあり、またユーザがマクロの登録機能を知らない場合、当該ユーザは、マクロの利便性を享受することができない。
さらには、特許文献1に記載される技術の場合、図15に示されるように、ユーザは、登録を望むマクロの名称を自身で決定することを求められる。しかし、ユーザによっては、どのような文言をマクロとして設定すべきか瞬時に判断できない場合も想定される。また、システムが、マクロに対応する複数の機能や属性を要約した名称を当該マクロに命名することも考えられるが、この場合、ユーザが、命名されたマクロの名称を記憶することが困難となるケースもあり、また使用したい状況で何と発話してよいのかを思い出せず、結局マクロの利便性を享受できないこととなりかねない。
本開示に係る技術思想は、上記の点に着目して発想されたものであり、より覚えやすいマクロの名称を自動で決定することを可能とする。このために、本開示の一実施形態に係る情報処理方法を実現する情報処理サーバ20は、ユーザによる複数の機能実行指示に係るクラスタリングを実行し、複数の前記機能実行指示を含むクラスタをマクロとして推定する発話学習適応部250と、マクロに係る情報提示を制御する応答制御部270と、を備える。また、本開示の一実施形態に係る発話学習適応部250は、上記クラスタが含む複数の機能実行指示が行われた際に取得されたコンテキストに基づいて、推定したマクロの名称を決定すること、を特徴の一つとする。また、本開示の一実施形態に係る応答制御部270は、ユーザに対するマクロの名称の通知を制御すること、を特徴の一つとする。ここで、上記における複数の機能実行指示は、発話による機能実行指示を少なくとも1つ含むものとする。
図1は、本開示の一実施形態の概要について説明するための図である。図1には、本実施形態に係る情報処理サーバ20により制御されるエージェント装置である情報処理端末10と、情報処理端末10に対し、機能実行指示を行うユーザUが示されている。
図1を参照すると、ユーザUは、午前8時において、まず、情報処理端末10に、アーティストBの曲をかけることを指示する機能実行指示を発話UO1により行っている。この際、情報処理サーバ20は、発話UO1に基づく自動音声認識(ASR:Automatic Speech Recognition)処理と自然言語理解(NLU:Natural Language Understanding)処理を行い、発話UO1のインテント(意図)「PLAY_MUSIC」と、エンティティ(対象)「アーティストB」を抽出する。
また、情報処理サーバ20は、抽出した上記のインテントとエンティティに基づいて、情報処理端末10にアーティストBの曲を再生させ、システム発話SO1を出力させる。
続いて、ユーザUは、音量を30に設定することを指示する機能実行指示を発話UO2により行っている。この際、情報処理サーバ20は発話UO2に基づく自動音声認識処理および自然言語理解処理を行い、発話UO2のインテント「SET_VOLUME」とエンティティ「30」を抽出する。
また、情報処理サーバ20は、抽出した上記のインテントとエンティティに基づいて、情報処理端末10に楽曲再生に係る音量を30に変更させ、システム発話SO2を出力させる。
続いて、ユーザUは、次の曲の再生を指示する機能実行指示を発話UO3により行っている。この際、情報処理サーバ20は発話UO3に基づく自動音声認識処理および自然言語理解処理を行い、発話UO3のインテント「SELECT_SONG」とエンティティ「NEXT_SONG」を抽出する。
また、情報処理サーバ20は、抽出した上記のインテントとエンティティに基づいて、情報処理端末10に次の曲を再生させ、システム発話SO3を出力させる。
ここで、本実施形態に係る情報処理サーバ20の発話学習適応部250は、ユーザUの発話履歴に係るクラスタリングを実行し、発話UO1~UO3を用いて行われた複数の機能実行指示を含むクラスタをマクロとして推定する。すなわち、本実施形態に係る発話学習適応部250は、アーティストBの曲の再生指示、音量の設定指示、次の曲への移行指示の3つをまとめたマクロを自動で推定することが可能である。
本実施形態に係る発話学習適応部250が有する上記の機能によれば、ユーザが明示的にマクロの登録指示を行わずとも、利便性の高いマクロを自動で推定し、ユーザに登録の提案を行うことが可能となる。
また、この際、本実施形態に係る発話学習適応部250は、推定したマクロの名称を自動で決定すること、を特徴の一つとする。本実施形態に係る発話学習適応部250は、例えば、上記のクラスタが含む複数の機能実行指示が行われた際に取得されたコンテキストに基づいて、推定したマクロの名称を自動で決定してよい。
より具体的には、本実施形態に係る発話学習適応部250は、上記のコンテキストとクラスタが含む複数の機能実行指示の内容とに基づいて、推定したマクロの名称を決定してよい。本実施形態に係る発話学習適応部250は、例えば、コンテキストの要旨とクラスタが含む複数の機能実行指示の要旨とを含む名称を決定することができる。
図1に示す一例の場合、発話学習適応部250は、コンテキストとして取得された「朝8時」と機能実行指示の内容に基づいて、「朝の音楽をかけて」という名称を決定している。
この際、本実施形態に係る情報処理サーバ20の応答制御部270は、発話学習適応部250が決定したマクロの名称「朝の音楽をかけて」が発話された場合に、発話UO1~UO3に係る機能実行指示をまとめて行うかを問う旨のシステム発話SO4を情報処理端末10に出力させてよい。すなわち、本実施形態に係る応答制御部270は、発話学習適応部250が推定したマクロを、発話学習適応部250が決定した名称で登録するか否かをユーザに問い合わせることができる。
ここで、ユーザUが、マクロの登録を承認する旨の発話UO4を行った場合、発話学習適応部250は、発話UO1~UO3に係る機能実行指示に対応するインテントとエンティティ、および名称「朝の音楽をかけて」を対応づけてマクロ学習データ266として記憶する。
このように、本実施形態に係る情報処理サーバ20によれば、ユーザにとって利便性の高いマクロを自動で推定し、また当該マクロの名称を自動で決定することが可能である。また、本実施形態に係る情報処理サーバ20は、ユーザが機能実行指示を行った際のコンテキストを命名に利用することで、ユーザの記憶により残りやすく、また、より思い出しやすい名称を決定することが可能である。本実施形態に係る情報処理サーバ20が有する上記の機能によれば、情報処理端末10を利用するユーザの利便性を大きく向上させ、また対話の時間を効果的に短縮することが可能となる。さらには、本実施形態に係る情報処理サーバ20によれば、ユーザが、機能の実行に係る詳細な属性情報を忘れてしまった場合であっても、コンテキストで指定することにより、当該機能を実行することが可能となる。例えば、図1に示す一例の場合、ユーザUは、普段の朝に聞いている楽曲の曲名を忘れてしまった場合であっても、「朝の音楽をかけて」と発話することにより、忘れてしまった当該楽曲を再生させることができる。
なお、図1においては、本実施形態に係る複数の機能実行指示がすべて発話により行われる場合を例に述べたが、本実施形態に係る複数の機能実行指示は、ジェスチャやボタン押下などにより行われてもよい。
<<1.2.システム構成例>>
次に、本開示の一実施形態に係るシステム構成例について説明する。図2は、本実施形態に係るシステム構成例を示す図である。図2を参照すると、本実施形態に係る情報処理システムは、情報処理端末10および情報処理サーバ20を備える。また、情報処理端末10と情報処理サーバ20は、互いに通信が行えるように、ネットワーク30を介して接続される。
(情報処理端末10)
本実施形態に係る情報処理端末10は、情報処理サーバ20による制御に基づいて、ユーザとの対話を行いながら種々の機能を提供する情報処理装置である。本実施形態に係る情報処理端末10は、例えば、スマートフォン、タブレット、PC(Personal Computer)、ウェアラブル装置などであってもよい。また、本実施形態に係る情報処理端末10は、据え置き型または自律移動型の専用端末であってもよい。
(情報処理サーバ20)
本実施形態に係る情報処理サーバ20は、マクロの自動推定や名称決定を行う情報処理装置である。また、本実施形態に係る情報処理サーバ20は、登録済みマクロの名称がユーザにより発話された場合、当該マクロに対応する複数の機能の実行を制御する機能を有する。
(ネットワーク30)
ネットワーク30は、情報処理端末10と情報処理サーバ20とを接続する機能を有する。ネットワーク30は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク30は、IP-VPN(Internet Protocol-Virtual Private Network)などの専用回線網を含んでもよい。また、ネットワーク30は、Wi-Fi(登録商標)、Bluetooth(登録商標)など無線通信網を含んでもよい。
以上、本実施形態に係る情報処理システムの構成例について説明した。なお、図2を用いて説明した上記の構成はあくまで一例であり、本実施形態に係る情報処理システムの機能構成は係る例に限定されない。例えば、本実施形態に係る情報処理端末10と情報処理サーバ20が有する機能は、単一の装置により実現されてもよい。本実施形態に係る情報処理システムの機能構成は、仕様や運用に応じて柔軟に変形可能である。
<<1.3.情報処理端末10の機能構成例>>
次に、本実施形態に係る情報処理端末10の機能構成例について説明する。図3は、本実施形態に係る情報処理端末10の機能構成例を示すブロック図である。図3を参照すると、本実施形態に係る情報処理端末10は、表示部110、音声出力部120、音声入力部130、撮像部140、センサ入力部150、制御部160、およびサーバ通信部170を備える。
(表示部110)
本実施形態に係る表示部110は、画像やテキストなどの視覚情報を出力する機能を有する。本実施形態に係る表示部110は、例えば、情報処理サーバ20による制御に基づいて、テキストや画像を表示する。
このために、本実施形態に係る表示部110は、視覚情報を提示する表示デバイスなどを備える。上記の表示デバイスには、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)装置、OLED(Organic Light Emitting Diode)装置、タッチパネルなどが挙げられる。また、本実施形態に係る表示部110は、プロジェクション機能により視覚情報を出力してもよい。
(音声出力部120)
本実施形態に係る音声出力部120は、音声を含む種々の音を出力する機能を有する。本実施形態に係る音声出力部120は、例えば、情報処理サーバ20による制御に基づいて、音声を出力する。このために、本実施形態に係る音声出力部120は、スピーカやアンプなどの音声出力装置を備える。
(音声入力部130)
本実施形態に係る音声入力部130は、ユーザによる発話や、情報処理端末10の周囲で発生する周囲音などの音情報を収集する機能を有する。音声入力部130が収集する音情報は、情報処理サーバ20による自動音声認識処理やコンテキストの取得などに用いられる。本実施形態に係る音声入力部130は、音情報を収集するためのマイクロフォンを備える。
(撮像部140)
本実施形態に係る撮像部140は、ユーザや周囲環境の画像を撮像する機能を有する。撮像部140が撮像した画像情報は、情報処理サーバ20によるユーザの行動認識や状態認識、周囲環境の認識に用いられる。本実施形態に係る撮像部140は、画像を撮像することが可能な撮像装置を備える。なお、上記の画像には、静止画像のほか動画像が含まれる。
(センサ入力部150)
本実施形態に係るセンサ入力部150は、周囲環境やユーザの行動、状態に関する種々のセンサ情報を収集する機能を有する。センサ入力部150が収集したセンサ情報は、情報処理サーバ20による周囲環境の認識やユーザの行動認識、状態認識に用いられる。センサ入力部150は、例えば、赤外線センサを含む光センサ、加速度センサ、ジャイロセンサ、地磁気センサ、熱センサ、振動センサ、GNSS(Global Navigation Satellite System)信号受信装置などを備える。
(制御部160)
本実施形態に係る制御部160は、情報処理端末10が備える各構成を制御する機能を有する。制御部160は、例えば、各構成の起動や停止を制御する。また、制御部160は、情報処理サーバ20により生成される制御信号などを表示部110や音声出力部120に入力する。
(サーバ通信部170)
本実施形態に係るサーバ通信部170は、ネットワーク30を介して情報処理サーバ20との情報通信を行う機能を有する。具体的には、サーバ通信部170は、音声入力部130が収集した音情報や、撮像部140が撮像した画像情報、センサ入力部150が収集したセンサ情報を情報処理サーバ20に送信する。また、サーバ通信部170は、情報処理サーバ20から応答出力に係る制御信号などを受信する。
以上、本実施形態に係る情報処理端末10の機能構成例について説明した。なお、図3を用いて説明した上記の構成はあくまで一例であり、本実施形態に係る情報処理端末10の機能構成は係る例に限定されない。本実施形態に係る情報処理端末10の機能構成は、仕様や運用に応じて柔軟に変形可能である。
<<1.4.情報処理サーバ20の機能構成例>>
次に、本開示の一実施形態に係る情報処理サーバ20の機能構成例について説明する。図4は、本実施形態に係る情報処理サーバ20の機能構成例を示すブロック図である。図4を参照すると、本実施形態に係る情報処理端末10は、音声認識部210、意味解析部220、画像認識部230、センサ認識部240、発話学習適応部250、記憶部260、応答制御部270、音声合成部285、画像処理部290、および端末通信部295を備える。
(音声認識部210)
本実施形態に係る音声認識部210は、情報処理端末10が収集したユーザの発話に基づく自動音声認識処理を行う。
(意味解析部220)
本実施形態に係る意味解析部220は、音声認識部210による自動音声認識処理の結果に対する自然言語理解処理を行い、ユーザの発話に係るインテントとエンティティを抽出する機能を有する。
(画像認識部230)
本実施形態に係る画像認識部230は、情報処理端末10が撮像した画像に基づく種々の認識処理を行う。本実施形態に係る画像認識部230は、例えば、上記の画像からユーザや周辺環境の状態などを認識することができる。画像認識部230による認識処理の結果は、発話学習適応部250によるコンテキストの取得に用いられる。
(センサ認識部240)
本実施形態に係るセンサ認識部240は、情報処理端末10が収集したセンサ情報に基づく種々の認識処理を行う。本実施形態に係るセンサ認識部240は、例えば、上記のセンサ情報からユーザの行動や周囲の状態などを認識することができる。センサ認識部240による認識処理の結果は、発話学習適応部250によるコンテキストの取得に用いられる。
(発話学習適応部250)
本実施形態に係る発話学習適応部250は、音声認識部210による自動音声認識処理の結果と、意味解析部220が抽出したインテントおよびエンティティと、取得したコンテキストとを対応づけた機能実行指示履歴264を記憶部260に記憶させる。この際、本実施形態に係る発話学習適応部250は、画像認識部230やセンサ認識部240による各種の認識結果に基づいて、上記のコンテキストを取得することができる。
また、本実施形態に係る発話学習適応部250は、機能実行指示履歴264や後述する機能テンプレート262に基づいて、複数の機能実行指示を含むクラスタをマクロとして推定し、当該マクロの名称を決定する機能を有する。
また、本実施形態に係る発話学習適応部250は、ユーザの承認に基づいて、推定したマクロに対応する複数のインテントおよびエンティティと、決定したマクロの名称とを対応づけてマクロ学習データ266として記憶部260に記憶させる。すなわち、発話学習適応部250は、ユーザの承認に基づいて、推定したマクロを、決定した名称で登録する。本実施形態に係る発話学習適応部250が有する機能の詳細については別途後述する。
(記憶部260)
本実施形態に係る記憶部260は、機能テンプレート262、機能実行指示履歴264、マクロ学習データ266などを記憶する。
(応答制御部270)
本実施形態に係る応答制御部270は、意味解析部220が抽出したインテントおよびエンティティ、発話学習適応部250による発話学習適応処理などに基づいて、ユーザに対する応答を制御する機能を有する。本実施形態に係る応答制御部270は、例えば、登録されたマクロの名称がユーザにより発話されたことに基づいて、当該マクロに対応する複数の機能の実行を制御することができる。
本実施形態に係る応答制御部270は、例えば、音声合成部285による音声合成を制御し、合成された音声を情報処理端末10に出力させてもよい。また、応答制御部270は、例えば、画像処理部290を制御し、生成された画像などを情報処理端末10に出力させてもよい。また、応答制御部270は、ネットワーク30を介して外部のサービスに機能の実行を指示し、実行結果を取得してもよい。
(音声合成部285)
本実施形態に係る音声合成部285は、応答制御部270による制御に基づいて、音声合成を行う機能を有する。
(画像処理部290)
画像処理部290は、応答制御部270による制御に基づいて、画像などの生成を行う機能を有する。
(端末通信部295)
本実施形態に係る端末通信部295は、ネットワーク30を介して、情報処理端末10との情報通信を行う。端末通信部295は、例えば、情報処理端末10から、ユーザの発話に係る音情報や、画像、センサ情報などを受信する。また、端末通信部295は、応答制御部270が生成した制御信号や、合成音声、画像などを情報処理端末10に送信する。
以上、本開示の一実施形態に係る情報処理サーバ20の機能構成例について説明した。なお、図4を用いて説明した上記の機能構成はあくまで一例であり、本実施形態に係る情報処理サーバ20の機能構成は係る例に限定されない。本実施形態に係る情報処理サーバ20の機能構成は、仕様や運用に応じて柔軟に変形可能である。
<<1.5.機能の詳細>>
次に、本実施形態に係る情報処理サーバ20が有する機能について詳細に説明する。上述したように、本実施形態に係る発話学習適応部250は、複数の機能実行指示を含むクラスタをマクロとして推定し、名称とともにユーザに提示することが可能である。この際、本実施形態に係る発話学習適応部250は、予め設定された機能テンプレート262に基づいて、マクロの名称の決定を行ってもよい。
図5および図6は、本実施形態に係る機能テンプレート262の一例を示す図である。図5および図6に示すように、本実施形態に係る機能テンプレート262には、連続して入力されることが想定される複数の機能実行指示に係るインテントがテンプレートして定義される。
例えば、図5には、ゲームにおける招待機能をテンプレート化した場合の機能テンプレート262の一例が示されている。図5に示す一例の場合、機能テンプレート262には、フレンド一覧の表示、フレンドの選択、招待の作成、招待内容の入力、および招待の送信に係るインテントが定義されている。
また、本実施形態に係る機能テンプレート262には、各インテントの順番(シーケンス)を指定するか否かの設定が記憶されてもよい。例えば、図5に示す一例では、上から2つ目のフィールド「Sequence」にチェックが入っていることから、上記の各インテントに順番が指定されていることを示している。
また、本実施形態に係る機能テンプレート262には、後述する発話ガイドとしてユーザに提示するためのガイド文言がインテントごとに設定されてよい。
また、本実施形態に係る機能テンプレート262には、発話学習適応部250がマクロの名称を決定する際の命名ルールが定義される。上記の命名ルールは、例えば、機能テンプレートの要旨を表す固定文言と、発話時のコンテキストの要旨から構成される。
図5に示す一例の場合、機能テンプレート262の要旨を表す固定文言として、「パーティ招待」が設定されている。ここで、例えば、コンテキストとして、ユーザがゲームランドという名のゲームをプレー中であることが取得された場合、発話学習適応部250は、上記の命名ルールに基づいて、推定したマクロの名称を「ゲームランドのパーティ招待」と決定することができる。
また、図6に示す一例の場合、機能テンプレート262には、アラームのセット、施錠の実行、および照明機器の消灯に係るインテントが定義されている。このように、本実施形態に係る機能テンプレート262には、制御対象が異なる複数のインテントが定義されてもよい。また、図6に示すように、各インテントの順番は指定されなくてもよい。
この場合でも同様に、機能テンプレート262には、発話学習適応部250がマクロの名称を決定する際の命名ルールが定義される。図6に示す一例の場合、機能テンプレート262の要旨を表す固定文言として、「おやすみ」が設定されている。ここで、例えば、コンテキストとして、平日であることが取得された場合、発話学習適応部250は、上記の命名ルールに基づいて、推定したマクロの名称を「平日のおやすみ」と決定することができる。
なお、本実施形態に係る機能テンプレート262は、1つのインテントと当該インテントに対応するガイド文言および命名ルールが定義されてもよい。このような機能テンプレートは、次に説明する初期の発話ガイドなどに用いられる。
続いて、本実施形態に係る発話ガイドについて説明する。例えば、情報処理端末10の利用に慣れていないユーザは、情報処理端末10に対し、どのように発話を行ってよいか、戸惑う場面も想定される。また、情報処理端末10の利用になれた場合であっても、登録済みのマクロの名称を瞬時に思い出せない状況も考えられる。このため、本実施形態に係る応答制御部270は、ユーザの発話による機能実行指示を補助するための発話ガイドを情報処理端末10に表示させることで、ユーザを補助してよい。
図7A~図7Cは、本実施形態に係る発話ガイドの一例を示す図である。例えば、図7Aには、ユーザが情報処理端末10の利用を始めた初期の段階における発話ガイドの一例が示されている。
上記のような初期の段階においては、ユーザがまだ情報処理端末10に対する発話による機能実行指示に慣れていないことが想定される。このため、本実施形態に係る応答制御部270は、機能実行指示履歴264を参照し、ユーザによる使用頻度の低い機能に係る発話ガイドを情報処理端末10に表示させることで、ユーザの発話による機能実行指示を補助することができる。
例えば、図7Aに示す一例の場合、ユーザUは、まずエージェント機能を起動するための起動ワード「Hello Agent」を含む発話UO5を行ったのち、なんと発話を行ってよいかわからない状況に陥っている。
この際、本実施形態に係る応答制御部270は、機能実行指示履歴264を参照し、ユーザUによる使用頻度が低い機能、具体的には、フレンド一覧の表示機能に係る発話ガイドを情報処理端末10の表示領域DAに表示させる。
本実施形態に係る応答制御部270が有する上記の機能によれば、発話ガイドを確認したユーザUが、フレンド一覧の表示を発話UO6により指示することができ、ユーザUにとってそれまで未知であって機能をユーザUに知覚させることが可能である。
なお、発話ガイドの確認後に、当該発話ガイドが示唆する機能実行指示をユーザが行った場合、応答制御部270は、機能テンプレート262にユーザUを誘導するための発話ガイドを表示領域DAに表示させてよい。図7Aに示す一例の場合、応答制御部270は、機能テンプレート262に基づいて、フレンドの選択機能に係る発話ガイドを表示領域DAに表示させ、また当該発話ガイドを確認したユーザUが、フレンドの選択に係る機能実行指示を発話UO7により行っている。
また、図7Bは、ユーザによる機能実行指示の履歴が蓄積され始めた段階における発話ガイドの一例を示す図である。当該段階においては、応答制御部270は、ユーザの機能実行指示履歴264に基づく発話ガイドの表示制御を行ってよい。
例えば、図7Bに示す一例の場合、応答制御部270は、ユーザUが、起動ワードを含む発話UO8を行った後、フレンド一覧の表示に係る機能実行指示を発話SO9により行ったことに基づいて、機能実行指示履歴264を参照し、フレンド一覧の表示に係る機能実行指示の後にユーザUがよく行う機能実行指示に係る発話ガイドを表示領域DAに表示させる。
図7Bに示す一例の場合、応答制御部270は、表示されるフレンド一覧から任意のフレンドを選択するための発話ガイドを表示領域DAに表示させている。本実施形態に係る応答制御部270が有する上記の機能によれば、過去の機能実行指示に基づいて表示された発話ガイドを確認したユーザUが、過去に自身が行った機能実行指示と同様の機能実行指示を発話UO10などにより容易に再現することが可能となる。
また、図7Cには、登録済みのマクロが蓄積され始めた段階における発話ガイドの一例である。当該段階においては、応答制御部270は、ユーザによる登録済みのマクロの実行を補助するための発話ガイドを優先的に表示領域DAに表示させてよい。
例えば、図7Cに示す一例の場合、ユーザUは、起動ワードを含む発話UO11を行った後、フレンド一覧の表示に係る機能実行指示を発話SO12により行っている。この際、応答制御部270は、発話SO12の意図、すなわち発話SO12から抽出されたインテントが、登録済みのマクロに定義される複数のインテントのいずれかに一致することに基づいて、当該登録済みのマクロに係る発話ガイドを表示領域DAに表示させてよい。
なお、この際、登録済みのマクロにおいてインテントの順番(シーケンス)が設定されている場合には、応答制御部270は、ユーザの発話から抽出されたインテントが登録済みマクロの先頭に設定されたインテントと一致することに基づいて、当該登録済みのマクロに係る発話ガイドを表示領域DAに表示させてもよい。
本実施形態に係る応答制御部270が有する上記の機能によれば、発話ガイドを確認したユーザUが、登録済みのマクロの実行を発話UO13などにより容易に指示することが可能となり、ユーザUによる登録済みマクロの積極的な使用を補助することができる。
次に、本実施形態に係る機能実行指示のクラスタリングについて詳細に説明する。本実施形態に係る発話学習適応部250は、機能実行指示履歴264をクラスタリングすることで、関連の強い複数の機能実行指示を含むクラスタを抽出し、当該クラスタをマクロとして推定することが可能である。
図8および図9は、本実施形態に係るクラスタ化された機能実行指示履歴264の一例を示す図である。図8および図9に示すように、本実施形態では、自動音声認識処理により得られたテキスト(図中の“Speech”に対応)と、自然言語理解処理により抽出されたインテントおよびエンティティと、取得されたコンテキストと機能実行指示履歴264として記憶される。
例えば、図8に示す一例の場合、ユーザが発話により行った、フレンド一覧の表示、フレンドの選択、招待の作成、招待の送信などに係る機能実行指示に対応するテキスト、インテント、エンティティ、およびコンテキストがJSON(Javascript(登録商標) Object Notation)形式により記憶されている。
なお、図8に示す一例では、コンテキストとして、機能実行指示が行われた日付および時間、ユーザがプレーしていたゲーム名、当該ゲームにおけるシーン名、当該ゲームにおいてユーザが操作していたキャラクターのタイプが記憶されている。
また、例えば、図9に示す一例の場合、ユーザが発話により行った、音楽再生、音量の設定、次の曲への移行などに係る機能実行指示に対応するテキスト、インテント、エンティティ、およびコンテキストがJSON形式により記憶されている。
なお、図9に示す一例では、コンテキストとして、機能実行指示が行われた日付および時間、ユーザがいた場所、ユーザの行動、実行されていたアプリケーション名が記憶されている。
本実施形態に係る発話学習適応部250は、例えば、機能実行指示が行われた時間に基づいて、上記のようなクラスタリングを行ってもよい。例えば、前の機能実行指示から5秒以内に次の機能実行指示が行われた場合、発話学習適応部250は、2つの機能実行指示を同一のクラスタとして見做すことができる。
また、本実施形態に係る発話学習適応部250は、例えば、コンテキストの同一性に基づいて、クラスタリングを行ってもよい。例えば、前の機能実行指示から3分以内に同一のコンテキストを有する機能実行指示が行われた場合、発話学習適応部250は、2つの機能実行指示を同一のクラスタとして見做すことができる。
また、本実施形態に係る発話学習適応部250は、例えば、機能実行指示の関連性の強さに基づいて、クラスタリングを行ってもよい。例えば、3分以内に行われた2つの機能実行指示が同一の機能テンプレート262に定義されている場合、発話学習適応部250は、2つの機能実行指示を同一のクラスタとして見做すことができる。
以上説明したように、本実施形態に係る発話学習適応部250によれば、連続して行われる可能性が高い機能実行指示をクラスタ化することが可能となる。
また、本実施形態に係る発話学習適応部250は、上記のように検出したクラスタに係る複合度や検出頻度に基づいて、当該クラスタをマクロとして推定するか否かを決定してもよい。ここで、上記の複合度は、クラスタが含むインテントとエンティティの数の合計で表されてもよい。また、クラスタの検出頻度は、インテントとエンティティが同一であるクラスタの検出回数により表されてもよい。本実施形態に係る発話学習適応部250は、例えば、複合度*検出頻度、の値が所定の閾値(例えば、15)以上である場合、該当するクラスタをマクロとして推定してもよい。
本実施形態に係る発話学習適応部250が有する上記の機能によれば、個々に機能実行指示を行う負担が高いクラスタや、使用頻度の高いクラスタをマクロとして推定することで、ユーザの利便性を向上させることが可能となる。
なお、応答制御部270は、発話学習適応部250が上記のように推定したマクロを、ユーザのアテンションを取り易いタイミングで、当該ユーザに対し提示してよい。応答制御部270は、例えば、センサ認識部240が、ユーザがゲームのコントローラを操作していないことなどを認識したタイミングで、図1に示したような提示制御を行うことができる。
次に、本実施形態に係るマクロ命名の流れについて説明する。図10は、本実施形態に係るマクロ命名の流れを示すフローチャートである。
図10を参照すると、本実施形態に係る発話学習適応部250は、まず、推定したマクロと類似したインテントを含む、ユーザ指示により登録された登録済みマクロが存在するか否かを判定する(S1101)。
ここで、推定したマクロと類似したインテントを含む、ユーザ指示により登録された登録済みマクロが存在する場合(S1101:Yes)、発話学習適応部250は、推定したマクロと、ユーザ指示による登録済みマクロとの差分に基づいて、推定したマクロの名称を決定する(S1102)。
具体的には、本実施形態に係る発話学習適応部250は、ユーザが過去に自主的にマクロを登録した際の命名ポリシーを継承したうえで、上記の差分に基づく名称を決定してよい。係る機能によれば、ユーザにとって記憶に残りやすいと推定される命名手法に基づいて推定したマクロの名称を決定することが可能となる。この際、発話学習適応部250は、コンテキストの差分やクラスタが含む複数の機能実行指示(インテントおよびエンティティ)の差分に基づいて、命名を行うことができる。
具体的には、発話学習適応部250は、まず、周期性を示す周期性コンテキストの差分に注目する。例えば、推定したマクロが周期性コンテキスト「週末」に対応づいた鍵の施錠と照明機器の消灯に係る機能実行指示を含む場合において、周期性コンテキスト「平日」に対応づいたアラームの設定、鍵の施錠、照明機器の消灯に係る機能実行指示を含む登録済みマクロが名称「おやすみ」として存在する場合を想定する。この際、本実施形態に係る発話学習適応部250は、周期性コンテキストの差分に基づいて、推定したマクロの名称を「週末のおやすみ」と決定してもよい。
一方、周期性コンテキストに差分がない場合、発話学習適応部250は、他のコンテキストの差分に基づいて、推定したマクロの命名を行ってよい。例えば、推定したマクロが子供部屋の照明機器を消灯する機能実行指示を含んでおり、また子供と一緒にいるコンテキストと対応づいている場合、発話学習適応部250は、推定したマクロの名称を「子供とおやすみ」と決定してもよい。
また、コンテキストに差分がない場合、発話学習適応部250は、推定したマクロと登録済みのマクロの間におけるインテントの過不足に基づいて、推定したマクロの名称を決定してもよい。例えば、登録済みのマクロがアラームの設定に係るインテントを含む一方、推定したマクロが当該インテントを含んでいない場合、発話学習適応部250は、推定したマクロの名称を「アラームなしでおやすみ」と決定してもよい。
一方、インテントの過不足がない場合には、発話学習適応部250は、エンティティの差分に基づいて、推定したマクロの命名を行うことも可能である。例えば、登録済みのマクロが7時(エンティティ)のアラームの設定に係るインテントを含む一方、推定したマクロが8時(エンティティ)のインテントを含む場合、発話学習適応部250は、推定したマクロの名称を「アラーム8時でおやすみ」と決定してもよい。
なお、推定したマクロと類似したインテントを含む、ユーザ指示により登録された登録済みマクロが存在しない場合(S1101:No)、発話学習適応部250は、続いて、クラスタの検出頻度に周期性があるか否かを判定する(S1103)。この際、発話学習適応部250は、上記のような周期性コンテキストに基づいて判定を行うことができる。
ここで、クラスタの検出に周期性がある場合(S1103:Yes)、すなわちクラスタが周期性コンテキストと対応付いている場合、発話学習適応部250は、当該周期性コンテキストに基づいて、推定したマクロの名称を決定する(S1104)。例えば、1日周期で朝の時間帯によく検出されるクラスタの場合、発話学習適応部250は、「朝の音楽をかけて」などの名称を決定してもよい。また、1週間周期で水曜によく実行されているクラスタの場合(時間帯は不定)、発話学習適応部250は、「水曜のパーティ招待」などの名称を決定してもよい。また、1週間周期で水曜の夜の時間帯によく実行されているクラスタの場合、発話学習適応部250は、「水曜夜のパーティ招待」などの名称を決定してもよい。
このように、本実施形態に係る発話学習適応部250は、複数のコンテキストが取得され得る場合であっても、まずは、依存性が高いことが予想される周期性コンテキストなどに基づいて命名を行うことで、より記憶に残りやすい名称でマクロを登録することができる。
一方、クラスタの検出頻度に周期性がない場合(S1103:No)、発話学習適応部250は、周期性コンテキスト以外の他のコンテキストに基づいて推定したマクロの名称を決定する(S1105)。具体的には、複数のクラスタが、同一のコンテキストに対応づいている場合、発話学習適応部250は、当該コンテキストに基づいて、推定したマクロの名称を決定することができる。
例えば、複数のクラスタが同一のゲームのプレーに係るコンテキストに対応づいている場合、発話学習適応部250は、「ゲームランドのときの音楽をかけて」などの名称を決定してもよい。また、例えば、複数のクラスタが、同一のゲームステージに係るコンテキストに対応付いている場合、発話学習適応部250は、「ステージ4のパーティ招待」などの名称を決定してもよい。また、複数のクラスタが、料理行動に係るコンテキストに対応づいている場合、発話学習適応部250は、「Play the music while cooking」などの名称を決定してもよい。
ステップS1102、S1104またはS1105において推定したマクロの名称を決定した後、発話学習適応部250は、次に、当該名称と同じ名称の登録済みマクロが存在するか否かを判定する(S1106)。
ここで、同じ名称の登録済みマクロが存在する場合(S1106:Yes)、発話学習適応部250は、同じ名称の登録済みマクロとの差分に基づいて、推定したマクロの命名を行う(S1107)。
この際、発話学習適応部250は、ステップS1102において述べたように、周期性コンテキストの差分>他のコンテキストの差分>インテントの過不足>エンティティの差分の優先順で命名を行ってよい。
例えば、「朝の音楽をかけて」という名称の登録済みコンテキストが存在する場合において、推定したマクロのクラスタのみが食事中であることを示すコンテキストと対応付いている場合、発話学習適応部250は、当該差分に基づいて「朝食の音楽をかけて」という名称を決定してもよい。
また、例えば、「ステージ4のパーティ招待」という名称の登録済みコンテキストが存在する場合において、推定したマクロのクラスタのみがフレンドCに係るエンティティを含んでいる場合、発話学習適応部250は、当該差分に基づいて、「Aさん追加でステージ4のパーティ招待」という名称を決定してもよい。
以上、本実施形態に係るマクロ命名の流れについて詳細に説明した。本実施形態に係る発話学習適応部250が有する上記の機能によれば、より記憶に定着しやすい名称を以って、推定したマクロの命名を自動で行うことが可能となる。
次に、本実施形態に係る登録済みマクロの名称更新について説明する。上述したように、本実施形態に係る発話学習適応部250は、種々のコンテキストに基づいて、マクロの名称を決定することが可能である。しかし、マクロを登録した後、状況によっては、登録時のコンテキストとは異なるコンテキストへの依存性が高くなる場合も想定される。
図11は、本実施形態に係るコンテキス依存性の変化を説明するための概念図である。図11には、コンテキストA、B、Cが当該順に包含関係にある場合において、コンテキストBに基づいて命名されたマクロMが存在する場合の一例が示されている。
この際、ユーザによる情報処理端末10の利用が進み、機能実行指示履歴264が蓄積されると、マクロMの実行に関し、コンテキストCへの依存性が高くなる場合も想定される。この際、本実施形態に係る発話学習適応部250は、条件付き確率P(C|M)が所定の閾値以上となったことが推定されたことに基づいて、マクロMをコンテキストCに対応付いたマクロとして名称を更新してよい(図中における「具体化」)。
一方、機能実行指示履歴264が蓄積により、マクロMの実行に係るコンテキストが、コンテキストAまで拡大した場合、本実施形態に係る発話学習適応部250は、条件付き確率P(B|M)が所定の閾値以下となったことが推定されたことに基づいて、マクロMをコンテキストAに対応付いたマクロとして名称を更新してよい(図中における「抽象化」)。
このように、本実施形態に係る発話学習適応部250は、登録済みのマクロに関し、登録時とは異なるコンテキストへの依存性が高くなったことが推定された場合、当該依存性の高いコンテキストに基づいて、登録済みマクロの名称を更新することが可能である。
図12は、本実施形態に係る登録済みマクロの名称更新の一例を示す図である。図12に示す一例では、登録済みのマクロとして、料理中を示すコンテキストと対応付いた、「Play the music while cooking」という名称のマクロが存在している。
この際、ユーザによる情報処理端末10の利用が進み機能実行指示履歴264が蓄積されると、中華のレシピを聞きながら(あるいは、見ながら)、ユーザが上記のマクロを実行しているケースが増加する場合も想定される。この際、本実施形態に係る発話学習適応部250は、中華の料理に係るコンテキストに基づいて、「Play the music while chinese cooking」という名称で、登録済みマクロを更新してもよい。
上記の名称更新によれば、使用時の状況がより具体化された名称となることで、ユーザの記憶に定着しやすくなるとともに、その後に他の具体化コンテキストである洋食や和食の料理中を示すコンテキストに対応づいた別のマクロを推定しユーザに提示しやすくなる効果が期待される。
一方、ユーザが洗い物をしながらマクロを実行するケースが増加した場合、料理中を示すコンテキストに加え、洗い物中を示すコンテキスとともに、両コンテキストを包含したキッチンにいることを示すコンテキストが新たに検出され得る。この際、発話学習適応部250は、「Play the music in kitchen」という名称で、登録済みマクロを更新してもよい。
上記の命名によれば、これまで料理中を示すコンテキストのみに対応づいていたマクロを、ユーザがキッチンにいる際により広範囲に実行することが可能となる。
以上、本実施形態に係る名称の更新について説明した。なお、上記では、本実施形態に係る発話学習適応部250が、取得したコンテキストに基づいてマクロの命名や名称更新を行い、応答制御部270が、名称が発話されたことに基づいて、マクロの実行を制御する場合を主な例として説明した。
一方、本実施形態に係る応答制御部270は、マクロの名称の決定に用いられたコンテキストと、マクロの実行を指示するユーザの発話時点において取得されるコンテキストが一致する場合、ユーザがマクロの名称に含まれるコンテキスト文言を発話しない場合であっても、対応するマクロの実行を制御してよい。
例えば、図12に示した一例において、キッチンにいるユーザが、「Play the music」と発話した場合、応答制御部270は、ユーザがキッチンにいることが画像認識部230やセンサ認識部240により認識されたことに基づいて、「Play the music in kitchen」という名称を有するマクロの実行を制御してよい。
また、応答制御部270は、予測される近い将来のコンテキストに基づいて、上記のような制御を行ってよい。例えば、画像認識部230が、ユーザがフライパンなどの調理器具を棚から取り出していることを認識した場合、ユーザが数秒~数分後には、料理中となることが予測される。この際、応答制御部270は、ユーザが、「Play the music」と発話した場合であっても、「Play the music while cooking」という名称を有するマクロの実行を制御してよい。
このように、本実施形態に係る応答制御部270によれば、マクロの実行を指示するユーザの発話時に取得されるコンテキストに基づいて、マクロの名称に含まれるコンテキスト文言を補完することが可能である。
次に、ユーザのフィードバックに基づく制御について説明する。図13Aおよび図13Bは、本実施形態に係るユーザのフィードバックに基づく制御の一例について説明するための図である。
例えば、図13Aには、アーティストBの楽曲再生、音量30の設定、次の曲への移行に係る機能実行指示を含むマクロが、「朝の音楽をかけて」という名称で存在する場合において、ユーザUが発話UO14により当該マクロの実行を指示した後、音量15への変更を発話UO15により指示した場合の一例が示されている。
この際、本実施形態に係る発話学習適応部250は、発話UO15を、マクロに基づき実行された機能に対するユーザからのフィードバックとして認識し、当該フィードバックに基づく制御を行ってよい。例えば、図13Aに示すように、マクロに基づき実行された音量設定機能に対しユーザが実行内容の修正を指示した場合、発話学習適応部250は、当該修正の指示に基づく制御を行う。
この際、発話学習適応部250は、例えば、図13Bの上段に示すように、修正指示を反映し、インテント「SET_VOLUME」に係るエンティティ「15」を含む新たなマクロを別名称で推定してもよい。
また、発話学習適応部250は、上記のようなフィードバックに基づいて、登録済みのマクロを修正してもよい。例えば、マクロに基づき実行された機能に対しユーザが実行内容の修正を指示した場合、発話学習適応部250は、図13Bの中段に示すように、登録済みのマクロにおいて、修正対象となる機能(インテント)に係る実行内容(エンティティ)を変数化してもよい。
この場合、ユーザは、例えば、「音量15で朝の音楽をかけて」や、「音量30で朝の音楽をかけて」と発話することで、変数化されたエンティティの内容を指定することが可能である。
一方で、発話学習適応部250は、図13Bの下段に示すように、登録済みのマクロにおいて、エンティティを直接更新してもよい。
このように、本実施形態に係る発話学習適応部250によれば、ユーザのフィードバックに基づいて、新たなマクロの推定や、登録済みマクロの更新を行うことができ、ユーザの現状のニーズにより則したマクロを提供することが可能となる。
以上、本実施形態に係る情報処理サーバ20が有する機能について詳細に説明した。なお、本実施形態に係る情報処理サーバ20は、上記で述べた制御の他にも、ユーザの利便性を高める種々の制御を行うことができる。
例えば、本実施形態に係る応答制御部270は、複数のマクロを情報処理端末10を介してユーザに提示し、ユーザに任意のマクロを選択させてもよい。当該機能は、推定マクロの提示や発話ガイドの提示の両者において、ともに有効である。
また、例えば、本実施形態に係る応答制御部270は、推定されたマクロの提示において、当該マクロの実行内容の範囲を明示的に示してもよい。係る機能によれば、ユーザが新たなマクロに対応する実行内容を明確に把握することが可能となる。
また、例えば、本実施形態に係る発話学習適応部250は、敢えて同一の名称で複数のマクロを登録してもよい。この場合、応答制御部270は、マクロの実行が指示された際に、ユーザにどのマクロを実行するのかを情報処理端末10を介して問い合わせてよい。
このように、本実施形態に係る情報処理サーバ20の機能は、柔軟に変更や拡張が可能である。
<2.ハードウェア構成例>
次に、本開示の一実施形態に係る情報処理サーバ20のハードウェア構成例について説明する。図14は、本開示の一実施形態に係る情報処理サーバ20のハードウェア構成例を示すブロック図である。図14を参照すると、情報処理サーバ20は、例えば、CPU871と、ROM872と、RAM873と、ホストバス874と、ブリッジ875と、外部バス876と、インターフェース877と、入力装置878と、出力装置879と、ストレージ880と、ドライブ881と、接続ポート882と、通信装置883と、を有する。なお、ここで示すハードウェア構成は一例であり、構成要素の一部が省略されてもよい。また、ここで示される構成要素以外の構成要素をさらに含んでもよい。
(CPU871)
CPU871は、例えば、演算処理装置又は制御装置として機能し、ROM872、RAM873、ストレージ880、又はリムーバブル記録媒体901に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。
(ROM872、RAM873)
ROM872は、CPU871に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM873には、例えば、CPU871に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
(ホストバス874、ブリッジ875、外部バス876、インターフェース877)
CPU871、ROM872、RAM873は、例えば、高速なデータ伝送が可能なホストバス874を介して相互に接続される。一方、ホストバス874は、例えば、ブリッジ875を介して比較的データ伝送速度が低速な外部バス876に接続される。また、外部バス876は、インターフェース877を介して種々の構成要素と接続される。
(入力装置878)
入力装置878には、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力装置878としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。また、入力装置878には、マイクロフォンなどの音声入力装置が含まれる。
(出力装置879)
出力装置879は、例えば、CRT(Cathode Ray Tube)、LCD、又は有機EL等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。また、本開示に係る出力装置879は、触覚刺激を出力することが可能な種々の振動デバイスを含む。
(ストレージ880)
ストレージ880は、各種のデータを格納するための装置である。ストレージ880としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。
(ドライブ881)
ドライブ881は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体901に記録された情報を読み出し、又はリムーバブル記録媒体901に情報を書き込む装置である。
(リムーバブル記録媒体901)
リムーバブル記録媒体901は、例えば、DVDメディア、Blu-ray(登録商標)メディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体901は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。
(接続ポート882)
接続ポート882は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)、RS-232Cポート、又は光オーディオ端子等のような外部接続機器902を接続するためのポートである。
(外部接続機器902)
外部接続機器902は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。
(通信装置883)
通信装置883は、ネットワークに接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カード、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は各種通信用のモデム等である。
<3.まとめ>
以上説明したように、本開示の一実施形態に係る情報処理方法を実現する情報処理サーバ20は、ユーザによる複数の機能実行指示に係るクラスタリングを実行し、複数の前記機能実行指示を含むクラスタをマクロとして推定する発話学習適応部250と、マクロに係る情報提示を制御する応答制御部270と、を備える。また、本開示の一実施形態に係る発話学習適応部250は、上記クラスタが含む複数の機能実行指示が行われた際に取得されたコンテキストに基づいて、推定したマクロの名称を決定すること、を特徴の一つとする。また、本開示の一実施形態に係る応答制御部270は、ユーザに対するマクロの名称の通知を制御すること、を特徴の一つとする。ここで、上記における複数の機能実行指示は、発話による機能実行指示を少なくとも1つ含むものとする。係る構成によれば、より覚えやすいマクロの名称を自動で決定することが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
また、コンピュータに内蔵されるCPU、ROMおよびRAMなどのハードウェアに、情報処理サーバ20が有する構成と同等の機能を発揮させるためのプログラムも作成可能であり、当該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。
また、本明細書の情報処理サーバ20の処理に係る各ステップは、必ずしもフローチャートに記載された順序に沿って時系列に処理される必要はない。例えば、情報処理サーバ20の処理に係る各ステップは、フローチャートに記載された順序と異なる順序で処理されても、並列的に処理されてもよい。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
ユーザによる複数の機能実行指示に係るクラスタリングを実行し、複数の前記機能実行指示を含むクラスタをマクロとして推定する発話学習適応部と、
前記マクロに係る情報提示を制御する応答制御部と、
を備え、
前記発話学習適応部は、前記クラスタが含む複数の前記機能実行指示が行われた際に取得されたコンテキストに基づいて、推定した前記マクロの名称を決定し、
前記応答制御部は、前記ユーザに対する前記マクロの名称の通知を制御し、
複数の前記機能実行指示は、発話による前記機能実行指示を少なくとも1つ含む、
情報処理装置。
(2)
前記発話学習適応部は、前記コンテキストと前記クラスタが含む複数の前記機能実行指示の内容とに基づいて、前記マクロの名称を決定する、
前記(1)に記載の情報処理装置。
(3)
前記発話学習適応部は、前記コンテキストの要旨と前記クラスタが含む複数の前記機能実行指示の要旨とを含む名称を決定する、
前記(2)に記載の情報処理装置。
(4)
前記発話学習適応部は、取得された複数の前記コンテキストのうち、依存性が高いコンテキストに基づいて、前記マクロの名称を決定する、
前記(1)~(3)のいずれかに記載の情報処理装置。
(5)
前記発話学習適応部は、推定した前記マクロと類似する登録済みの前記マクロが存在する場合、推定した前記マクロと登録済みの前記マクロとの差分に基づいて、推定した前記マクロの名称を決定する、
前記(1)~(4)のいずれかに記載の情報処理装置。
(6)
前記発話学習適応部は、推定した前記マクロと登録済みの前記マクロとの間における前記コンテキストの差分、または前記クラスタが含む複数の前記機能実行指示の差分に基づいて、推定した前記マクロの名称を決定する、
前記(5)に記載の情報処理装置。
(7)
前記発話学習適応部は、推定した前記マクロと登録済みの前記マクロとの間における周期性コンテキストの差分に基づいて、推定した前記マクロの名称を決定する、
前記(6)に記載の情報処理装置。
(8)
前記発話学習適応部は、推定した前記マクロと登録済みの前記マクロとの間における前記機能実行指示の過不足に基づいて、推定した前記マクロの名称を決定する、
前記(6)または(7)に記載の情報処理装置。
(9)
前記発話学習適応部は、登録済みの前記マクロに関し、登録時とは異なる前記コンテキストへの依存性が高くなったことが推定された場合、前記依存性の高い前記コンテキストに基づいて、登録済みの前記マクロの名称を更新する、
前記(1)~(8)のいずれかに記載の情報処理装置。
(10)
前記発話学習適応部は、登録済みの前記マクロに基づき実行された機能に対する前記ユーザからのフィードバックに基づいて、当該登録済みの前記マクロを修正する、
前記(1)~(9)のいずれかに記載の情報処理装置。
(11)
前記発話学習適応部は、登録済みの前記マクロに基づき実行された機能に対し前記ユーザが実行内容の修正を指示した場合、当該登録済みの前記マクロにおいて、当該機能に係る前記実行内容を変数化する、
前記(10)に記載の情報処理装置。
(12)
前記発話学習適応部は、登録済みの前記マクロに基づき実行された機能に対し前記ユーザが実行内容の修正を指示した場合、当該登録済みの前記マクロにおいて、当該機能に係る前記実行内容を更新する、
前記(10)に記載の情報処理装置。
(13)
登録済みの前記マクロに基づき実行された機能に対する前記ユーザからのフィードバックに基づいて、前記フィードバックを反映した新たな前記マクロを推定する、
前記(1)~(12)のいずれかに記載の情報処理装置。
(14)
前記発話学習適応部は、前記クラスタの複合度または前記クラスタの検出頻度に基づいて、前記クラスタを前記マクロとして推定する、
前記(1)~(13)のいずれかに記載の情報処理装置。
(15)
ユーザによる複数の機能実行指示に係るクラスタリングに基づいて登録されたマクロの名称が、前記ユーザにより発話されたことに基づいて、前記マクロに対応する複数の機能の実行を制御する応答制御部、
を備え、
複数の前記機能実行指示は、発話による前記機能実行指示を少なくとも1つ含み、
前記マクロの名称は、複数の前記機能実行指示が行われた際に取得されたコンテキストに基づいて決定された名称である、
情報処理装置。
(16)
前記応答制御部は、前記マクロの名称の決定に用いられた前記コンテキストと、前記マクロの実行を指示する前記ユーザの発話時点において取得される前記コンテキストとが一致する場合、前記ユーザが前記マクロの名称に含まれるコンテキスト文言を省略して発話した場合であっても、前記マクロに対応する複数の機能を実行させる、
前記(15)に記載の情報処理装置。
(17)
前記応答制御部は、前記ユーザによる登録済みの前記マクロの実行を補助する発話ガイドに係る表示を制御する、
前記(15)または(16)に記載の情報処理装置。
(18)
前記応答制御部は、前記ユーザの発話の意図が、登録済みの前記マクロに定義される複数の意図のいずれかに一致する場合、前記発話ガイドを表示させる、
前記(17)に記載の情報処理装置。
(19)
プロセッサが、ユーザによる複数の機能実行指示に係るクラスタリングを実行し、複数の前記機能実行指示を含むクラスタをマクロとして推定することと、
前記マクロに係る情報提示を制御することと、
を含み、
前記推定することは、前記クラスタが含む複数の前記機能実行指示が行われた際に取得されたコンテキストに基づいて、推定した前記マクロの名称を決定すること、をさらに含み、
前記制御することは、前記ユーザに対する前記マクロの名称の通知を制御すること
をさらに含み、
複数の前記機能実行指示は、発話による前記機能実行指示を少なくとも1つ含む、
情報処理方法。
(20)
プロセッサが、ユーザによる複数の機能実行指示に係るクラスタリングに基づいて登録されたマクロの名称が、前記ユーザにより発話されたことに基づいて、前記マクロに対応する複数の機能の実行を制御すること、
を含み、
複数の前記機能実行指示は、発話による前記機能実行指示を少なくとも1つ含み、
前記マクロの名称は、複数の前記機能実行指示が行われた際に取得されたコンテキストに基づいて決定された名称である、
情報処理方法。
10 情報処理端末
20 情報処理サーバ
210 音声認識部
220 意味解析部
230 画像認識部
240 センサ認識部
250 発話学習適応部
260 記憶部
262 機能テンプレート
264 機能実行指示履歴
266 マクロ学習データ
270 応答制御部

Claims (20)

  1. ユーザによる複数の機能実行指示に係るクラスタリングを実行し、複数の前記機能実行指示を含むクラスタをマクロとして推定する発話学習適応部と、
    前記マクロに係る情報提示を制御する応答制御部と、
    を備え、
    前記発話学習適応部は、前記クラスタが含む複数の前記機能実行指示が行われた際に取得されたコンテキストに基づいて、推定した前記マクロの名称を決定し、
    前記応答制御部は、前記ユーザに対する前記マクロの名称の通知を制御し、
    複数の前記機能実行指示は、発話による前記機能実行指示を少なくとも1つ含む、
    情報処理装置。
  2. 前記発話学習適応部は、前記コンテキストと前記クラスタが含む複数の前記機能実行指示の内容とに基づいて、前記マクロの名称を決定する、
    請求項1に記載の情報処理装置。
  3. 前記発話学習適応部は、前記コンテキストの要旨と前記クラスタが含む複数の前記機能実行指示の要旨とを含む名称を決定する、
    請求項2に記載の情報処理装置。
  4. 前記発話学習適応部は、取得された複数の前記コンテキストのうち、依存性が高いコンテキストに基づいて、前記マクロの名称を決定する、
    請求項1に記載の情報処理装置。
  5. 前記発話学習適応部は、推定した前記マクロと類似する登録済みの前記マクロが存在する場合、推定した前記マクロと登録済みの前記マクロとの差分に基づいて、推定した前記マクロの名称を決定する、
    請求項1に記載の情報処理装置。
  6. 前記発話学習適応部は、推定した前記マクロと登録済みの前記マクロとの間における前記コンテキストの差分、または前記クラスタが含む複数の前記機能実行指示の差分に基づいて、推定した前記マクロの名称を決定する、
    請求項5に記載の情報処理装置。
  7. 前記発話学習適応部は、推定した前記マクロと登録済みの前記マクロとの間における周期性コンテキストの差分に基づいて、推定した前記マクロの名称を決定する、
    請求項6に記載の情報処理装置。
  8. 前記発話学習適応部は、推定した前記マクロと登録済みの前記マクロとの間における前記機能実行指示の過不足に基づいて、推定した前記マクロの名称を決定する、
    請求項6に記載の情報処理装置。
  9. 前記発話学習適応部は、登録済みの前記マクロに関し、登録時とは異なる前記コンテキストへの依存性が高くなったことが推定された場合、前記依存性の高い前記コンテキストに基づいて、登録済みの前記マクロの名称を更新する、
    請求項1に記載の情報処理装置。
  10. 前記発話学習適応部は、登録済みの前記マクロに基づき実行された機能に対する前記ユーザからのフィードバックに基づいて、当該登録済みの前記マクロを修正する、
    請求項1に記載の情報処理装置。
  11. 前記発話学習適応部は、登録済みの前記マクロに基づき実行された機能に対し前記ユーザが実行内容の修正を指示した場合、当該登録済みの前記マクロにおいて、当該機能に係る前記実行内容を変数化する、
    請求項10に記載の情報処理装置。
  12. 前記発話学習適応部は、登録済みの前記マクロに基づき実行された機能に対し前記ユーザが実行内容の修正を指示した場合、当該登録済みの前記マクロにおいて、当該機能に係る前記実行内容を更新する、
    請求項10に記載の情報処理装置。
  13. 登録済みの前記マクロに基づき実行された機能に対する前記ユーザからのフィードバックに基づいて、前記フィードバックを反映した新たな前記マクロを推定する、
    請求項1に記載の情報処理装置。
  14. 前記発話学習適応部は、前記クラスタの複合度または前記クラスタの検出頻度に基づいて、前記クラスタを前記マクロとして推定する、
    請求項1に記載の情報処理装置。
  15. ユーザによる複数の機能実行指示に係るクラスタリングに基づいて登録されたマクロの名称が、前記ユーザにより発話されたことに基づいて、前記マクロに対応する複数の機能の実行を制御する応答制御部、
    を備え、
    複数の前記機能実行指示は、発話による前記機能実行指示を少なくとも1つ含み、
    前記マクロの名称は、複数の前記機能実行指示が行われた際に取得されたコンテキストに基づいて決定された名称である、
    情報処理装置。
  16. 前記応答制御部は、前記マクロの名称の決定に用いられた前記コンテキストと、前記マクロの実行を指示する前記ユーザの発話時点において取得される前記コンテキストとが一致する場合、前記ユーザが前記マクロの名称に含まれるコンテキスト文言を省略して発話した場合であっても、前記マクロに対応する複数の機能を実行させる、
    請求項15に記載の情報処理装置。
  17. 前記応答制御部は、前記ユーザによる登録済みの前記マクロの実行を補助する発話ガイドに係る表示を制御する、
    請求項15に記載の情報処理装置。
  18. 前記応答制御部は、前記ユーザの発話の意図が、登録済みの前記マクロに定義される複数の意図のいずれかに一致する場合、前記発話ガイドを表示させる、
    請求項17に記載の情報処理装置。
  19. プロセッサが、ユーザによる複数の機能実行指示に係るクラスタリングを実行し、複数の前記機能実行指示を含むクラスタをマクロとして推定することと、
    前記マクロに係る情報提示を制御することと、
    を含み、
    前記推定することは、前記クラスタが含む複数の前記機能実行指示が行われた際に取得されたコンテキストに基づいて、推定した前記マクロの名称を決定すること、をさらに含み、
    前記制御することは、前記ユーザに対する前記マクロの名称の通知を制御すること
    をさらに含み、
    複数の前記機能実行指示は、発話による前記機能実行指示を少なくとも1つ含む、
    情報処理方法。
  20. プロセッサが、ユーザによる複数の機能実行指示に係るクラスタリングに基づいて登録されたマクロの名称が、前記ユーザにより発話されたことに基づいて、前記マクロに対応する複数の機能の実行を制御すること、
    を含み、
    複数の前記機能実行指示は、発話による前記機能実行指示を少なくとも1つ含み、
    前記マクロの名称は、複数の前記機能実行指示が行われた際に取得されたコンテキストに基づいて決定された名称である、
    情報処理方法。
JP2020523522A 2018-06-07 2019-03-08 情報処理装置および情報処理方法 Active JP7136201B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018109314 2018-06-07
JP2018109314 2018-06-07
PCT/JP2019/009538 WO2019235013A1 (ja) 2018-06-07 2019-03-08 情報処理装置および情報処理方法

Publications (2)

Publication Number Publication Date
JPWO2019235013A1 JPWO2019235013A1 (ja) 2021-07-15
JP7136201B2 true JP7136201B2 (ja) 2022-09-13

Family

ID=68769332

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020523522A Active JP7136201B2 (ja) 2018-06-07 2019-03-08 情報処理装置および情報処理方法

Country Status (3)

Country Link
US (1) US20210224066A1 (ja)
JP (1) JP7136201B2 (ja)
WO (1) WO2019235013A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200027753A (ko) * 2018-09-05 2020-03-13 삼성전자주식회사 전자 장치 및 단축 명령어에 대응하는 태스크 수행 방법
US11605375B2 (en) * 2021-03-05 2023-03-14 Capital One Services, Llc Systems and methods for dynamically updating machine learning models that provide conversational responses

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007243602A (ja) 2006-03-08 2007-09-20 Bandai Co Ltd 電子装置の制御装置および制御方法
US20140267933A1 (en) 2013-03-15 2014-09-18 Toshiba America Information Systems, Inc. Electronic Device with Embedded Macro-Command Functionality

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10540976B2 (en) * 2009-06-05 2020-01-21 Apple Inc. Contextual voice commands
US9575963B2 (en) * 2012-04-20 2017-02-21 Maluuba Inc. Conversational agent
US9117444B2 (en) * 2012-05-29 2015-08-25 Nuance Communications, Inc. Methods and apparatus for performing transformation techniques for data clustering and/or classification
US9286892B2 (en) * 2014-04-01 2016-03-15 Google Inc. Language modeling in speech recognition
WO2019077897A1 (ja) * 2017-10-17 2019-04-25 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US11688268B2 (en) * 2018-01-23 2023-06-27 Sony Corporation Information processing apparatus and information processing method
US20220350605A1 (en) * 2019-05-30 2022-11-03 Sony Group Corporation Information processing apparatus
US20220093094A1 (en) * 2020-09-21 2022-03-24 Amazon Technologies, Inc. Dialog management for multiple users

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007243602A (ja) 2006-03-08 2007-09-20 Bandai Co Ltd 電子装置の制御装置および制御方法
US20140267933A1 (en) 2013-03-15 2014-09-18 Toshiba America Information Systems, Inc. Electronic Device with Embedded Macro-Command Functionality

Also Published As

Publication number Publication date
US20210224066A1 (en) 2021-07-22
JPWO2019235013A1 (ja) 2021-07-15
WO2019235013A1 (ja) 2019-12-12

Similar Documents

Publication Publication Date Title
KR102444709B1 (ko) 디바이스들 간의 상태 상호작용의 캡슐화 및 동기화
JP6738445B2 (ja) デジタルアシスタントサービスの遠距離拡張
KR102041063B1 (ko) 정보 처리 장치, 정보 처리 방법 및 프로그램
US20210104232A1 (en) Electronic device for processing user utterance and method of operating same
US10192552B2 (en) Digital assistant providing whispered speech
KR102325697B1 (ko) 정보 처리 장치, 정보 처리 방법 및 프로그램
JP6482911B2 (ja) 機器制御方法および電気機器
WO2017168870A1 (ja) 情報処理装置及び情報処理方法
WO2019098038A1 (ja) 情報処理装置、及び情報処理方法
KR20200127814A (ko) 사용자의 입력 입력에 기초하여 타겟 디바이스를 결정하고, 타겟 디바이스를 제어하는 서버 및 그 동작 방법
JP7136201B2 (ja) 情報処理装置および情報処理方法
JP2017144521A (ja) 情報処理装置、情報処理方法、及びプログラム
US20210225363A1 (en) Information processing device and information processing method
CN103426429B (zh) 语音控制方法和装置
JPWO2019155717A1 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
KR20220037819A (ko) 복수의 기동어를 인식하는 인공 지능 장치 및 그 방법
WO2019239659A1 (ja) 情報処理装置および情報処理方法
KR20200017272A (ko) 음성에 기반하여 기능을 실행하기 위한 방법 및 이를 지원하는 사용자 전자 장치
WO2017199486A1 (ja) 情報処理装置
WO2020202862A1 (ja) 応答生成装置及び応答生成方法
WO2019146187A1 (ja) 情報処理装置および情報処理方法
JPWO2019017027A1 (ja) 情報処理装置および情報処理方法
JP2016156877A (ja) 情報処理装置、情報処理方法およびプログラム
KR20200040562A (ko) 사용자 발화를 처리하기 위한 시스템
Fernandes et al. A review of voice user interfaces for interactive TV

Legal Events

Date Code Title Description
AA64 Notification of invalidation of claim of internal priority (with term)

Free format text: JAPANESE INTERMEDIATE CODE: A241764

Effective date: 20210323

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210329

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220815

R151 Written notification of patent or utility model registration

Ref document number: 7136201

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151