JP2016151928A - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP2016151928A
JP2016151928A JP2015029551A JP2015029551A JP2016151928A JP 2016151928 A JP2016151928 A JP 2016151928A JP 2015029551 A JP2015029551 A JP 2015029551A JP 2015029551 A JP2015029551 A JP 2015029551A JP 2016151928 A JP2016151928 A JP 2016151928A
Authority
JP
Japan
Prior art keywords
information
function
user
processing apparatus
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015029551A
Other languages
English (en)
Inventor
康治 浅野
Koji Asano
康治 浅野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2015029551A priority Critical patent/JP2016151928A/ja
Priority to PCT/JP2015/083234 priority patent/WO2016132620A1/ja
Priority to EP15882721.2A priority patent/EP3260990A4/en
Priority to US15/547,336 priority patent/US10528659B2/en
Publication of JP2016151928A publication Critical patent/JP2016151928A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/268Morphological analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Abstract

【課題】曖昧性を有する自然文が入力され得る状況下においても、当該自然文に対する応答を、より好適な態様で提示する。【解決手段】入力として取得された自然文に対する自然言語解析の結果を示す第1の情報と、所定の機器の使用に伴う状態または状況を示す第2の情報とに基づく、前記入力に対する応答の候補の抽出結果を取得する取得部と、前記応答の候補を示す情報を、当該候補の抽出結果に応じた態様で、所定の出力部に提示させる制御部と、を備える、情報処理装置。【選択図】図1

Description

本開示は、情報処理装置、情報処理方法、及びプログラムに関する。
近年では、文字情報を音声に変換する音声合成技術や、ユーザが発話した内容を文字情報として認識する音声認識技術、及び、文章が示す内容を認識する自然言語処理技術が発展してきている。そのため、これらの技術を応用することで、ユーザが、各種指示を自然文で入力することにより、テレビ受像機のような各種家電機器、パーソナルコンピュータのような情報機器、または、カーナビゲーションシステムのような車載機器等を操作可能としたユーザインタフェース(UI:User Interface)が普及してきている。例えば、特許文献1には、ユーザが、各種指示を自然文で入力することにより、各種機器を操作可能としたユーザインタフェースの一例が開示されている。
また、近年では、所謂スマートフォンやタブレット端末のように、アプリケーションをインストールすることで、新たに機能を追加することが可能な情報機器も普及してきている。このような機器の多機能化に伴い、ユーザが所望の機能を実行する際に、当該機能を選択する操作が煩雑化する場合がある。そのため、ユーザが各種指示を自然文で入力することで、各種機器に対して所望の機能を実行させることが可能なインタフェースの利便性が高まってきている。
特開2008−47101公報
一方で、ユーザが日常的に使用する自然文の表現は、人と人との間のコミュニケーションの手段として一般的に使用されており、ユーザが意識せずに一部の情報を省略する場合もあるため、曖昧性を持つものもある。このような状況下においても、人と人との間のコミュニケーションにおいては、聴き手側が、コミュニケーションの流れ(コンテキスト)や背景知識に基づき情報を補完することで、話し手側の意図を解釈できる場合もある。
しかしながら、人と機器との間のコミュニケーションにおいては、ユーザから提示された自然文の表現から、当該ユーザの意図(例えば、ユーザが機器に実行させようとしている機能)を解釈することが困難な場合もあり、特に、当該機器において利用可能な機能が増大するほど、その困難さが増す傾向にある。
そこで、本開示では、曖昧性を有する自然文が入力され得る状況下においても、当該自然文に対する応答を、より好適な態様で提示することが可能な、情報処理装置、情報処理方法、及びプログラムを提案する。
本開示によれば、入力として取得された自然文に対する自然言語解析の結果を示す第1の情報と、所定の機器の使用に伴う状態または状況を示す第2の情報とに基づく、前記入力に対する応答の候補の抽出結果を取得する取得部と、前記応答の候補を示す情報を、当該候補の抽出結果に応じた態様で、所定の出力部に提示させる制御部と、を備える、情報処理装置が提供される。
また、本開示によれば、入力として取得された自然文に対する自然言語解析の結果を示す第1の情報と、所定の機器の使用に伴う状態または状況を示す第2の情報とに基づく、前記入力に対する応答の候補の抽出結果を取得することと、プロセッサが、前記応答の候補を示す情報を、当該候補の抽出結果に応じた態様で、所定の出力部に提示させることと、を含む、情報処理方法が提供される。
また、本開示によれば、コンピュータに、入力として取得された自然文に対する自然言語解析の結果を示す第1の情報と、所定の機器の使用に伴う状態または状況を示す第2の情報とに基づく、前記入力に対する応答の候補の抽出結果を取得することと、前記応答の候補を示す情報を、当該候補の抽出結果に応じた態様で、所定の出力部に提示させることと、を実行させる、プログラムが提供される。
以上説明したように本開示によれば、曖昧性を有する自然文が入力され得る状況下においても、当該自然文に対する応答を、より好適な態様で提示することが可能な、情報処理装置、情報処理方法、及びプログラムが提供される。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態に係る情報処理装置の概要について説明するための説明図である。 同実施形態に係る情報処理装置の機能構成の一例を示したブロック図である。 機能ごとに算出された信頼度を重み付けするための制御テーブルの一例である。 表示画面の一例を示した図である。 表示画面の一例を示した図である。 表示画面の一例を示した図である。 同実施形態に係る情報処理装置の一連の動作の流れの一例について示したフローチャートである。 同実施形態に係る情報処理装置の一連の動作の流れの一例について示したフローチャートである。 同実施形態に係る情報処理装置のハードウェア構成の一例を示した図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.概要
2.機能構成
3.処理
4.ハードウェア構成
5.まとめ
<1.概要>
まず、図1を参照して、本開示の一実施形態に係る情報処理装置の概要について説明したうえで、本実施形態に係る情報処理装置の課題について整理する。図1は、本実施形態に係る情報処理装置1の概要について説明するための説明図である。
本実施形態に係る情報処理装置1は、ユーザが各種指示を自然文で入力することで、当該自然文が示すユーザからの指示内容(即ち、自然文が示す意味内容)を認識する。具体的な一例として、図1に示す例では、情報処理装置1は、ユーザからの各種指示を音声情報として取得し、取得した音声情報を音声認識技術や自然言語処理技術に基づき解析することで、当該ユーザから指示された内容を認識する。
また、他の一例として、情報処理装置1は、例えば、キーボードやタッチパネルを介してユーザから入力された指示内容を示す文字情報を取得し、取得した文字情報を自然言語処理技術に基づき解析することで、当該ユーザから指示された内容を認識してもよい。
そして、情報処理装置1は、認識したユーザからの指示に応じて処理を実行し、実行結果をユーザに提示する。
なお、図1に示す情報処理装置1の例は、あくまで一例であり、ユーザが各種指示を自然文で入力することが可能であれば、情報処理装置1の種別は特に限定されない。具体的な一例として、情報処理装置1は、所謂、パーソナルコンピュータ、スマートフォン、タブレット端末、及び、ウェアラブル端末等として構成されていてもよい。また、他の一例として、情報処理装置1は、所謂、テレビ受像機等の各種家電機器として構成されていてもよい。
一方で、ユーザが日常的に使用する自然文の表現は、人と人との間のコミュニケーションの手段として一般的に使用されており、ユーザが意識せずに一部の情報を省略する場合もあるため、曖昧性を持つものもある。
例えば、図1には、曖昧性を有する自然文の一例が開示されている。具体的には、図1に示す例では、ユーザUaは、「東京駅への行き方を教えて」という指示内容Q10を示す音声を発話することで、情報処理装置1に対して、東京駅への行き方の提示を指示している。一方で、「東京駅への行き方を教えて」という指示内容Q10には、ユーザUaが、地図機能による「東京駅」への経路の提示を指示している場合や、乗換案内機能による「東京駅」までの公共交通機関の検索を指示している場合が想定され得る。
また、他の一例として、ユーザUaが、あるアーティスト(ここでは、「アーティストUb」とする)の楽曲を再生させるために、情報処理装置1に対して、「アーティストUbを再生」と指示内容を示す自然文を入力したものとする。この場合には、「アーティストUbを再生」という指示内容には、ユーザUaが、音楽再生機能による「アーティストUb」の楽曲の再生を指示している場合や、動画再生機能による「アーティストUb」の楽曲に関するミュージックビデオの再生を指示している場合も想定され得る。また、この場合には、ユーザUaが、情報処理装置1内に記憶されたファイルの再生を指示している場合や、音楽や動画の配信サービスを利用した該当する楽曲や動画のストリーミング再生を指示している場合も想定され得る。
また、ユーザUaが、ある人物(ここでは、「ユーザUc」とする)に対して連絡を行うために、情報処理装置1に対して、「ユーザUcに連絡して」という指示内容を示す自然文を入力したものとする。この場合には、「ユーザUcに連絡して」という指示内容には、ユーザUaが、ユーザUcに対して電話での連絡を指示している場合や、メールでの連絡を指示している場合、及び、SNS(Social Networking Service)等のネットワークサービスが提供するメッセージ機能による連絡を指示している場合が想定され得る。
また、ユーザUaからの指示内容が、状況に応じて異なる場合も想定され得る。具体的な一例として、ユーザUaが、「ユーザUcに連絡して」という指示内容を示す自然文を入力した場合に着目する。ユーザUaは、ある状況下では、ユーザUcに対してメールで連絡を行っており、他の状況下では、ユーザUcに対して電話で連絡を行っている場合がある。ここで、ユーザUaが、ユーザUcに電話で連絡を行うために、情報処理装置1に対して、「ユーザUcに連絡して」という指示を行ったものとする。このとき、情報処理装置1が、ユーザからの指示に基づき、ユーザUcに対してメールで連絡をするためにメール機能を起動すると、ユーザUaは、起動したメール機能を停止し、改めて電話機能を起動するといった煩雑な修正手順を実行しなければいけなくなる。
そこで、本実施形態に係る情報処理装置1は、ユーザから曖昧性を有する自然文が入力された場合おいても、ユーザや状況の変化に応じて、より好適な態様で応答を提示し、当該ユーザが意図する機能を、煩雑な操作を伴わずに実行することが可能な仕組みを提供する。以降では、本実施形態に係る情報処理装置1の詳細について説明する。
<2.機能構成>
まず、図2を参照して、本実施形態に係る情報処理装置1の機能構成の一例について説明する。図2は、本実施形態に係る情報処理装置1の機能構成の一例を示したブロック図である。
図2に示すように、本実施形態に係る情報処理装置1は、制御部10と、集音部21と、入力部23と、記憶部30と、出力部40とを含む。
集音部21は、ユーザからの音声入力等の音響情報を取得するための構成である。集音部21は、例えば、マイクロフォンのように周囲の音響情報を集音するための集音デバイスにより構成され得る。集音部21は、取得した音響情報を制御部10に出力する。
入力部23は、ユーザが情報処理装置1に対して所望の操作を行うための入力インタフェースである。入力部23は、例えば、キーボード等のように、文字情報を入力するためのデバイスとして構成され得る。また、入力部23は、例えば、タッチパネルや、マウス等のポインティングデバイスのように、ディスプレイ等に提示された表示情報を指定するためのデバイスとして構成されていてもよい。また、入力部23は、ボタンやスイッチなどのように、所定の機能が割り当てられた入力デバイスを含んでもよい。入力部23は、ユーザからの入力操作を受けて、当該操作内容を示す制御情報を制御部10に出力する。
出力部40は、情報処理装置1がユーザに対して情報を提示するための出力インタフェースである。出力部40は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)装置、有機EL(OLED:Organic Light Emitting Diode)ディスプレイなどのように、提示対象となる情報を表示情報としてユーザに提示するためのデバイスとして構成され得る。また、出力部40は、例えば、スピーカ等のように、音響信号を出力することで、所定の情報をユーザに提示するするデバイスとして構成されていてもよい。出力部40は、制御部10からの制御に基づき、提示対象となる情報を、所定の態様で(例えば、表示情報や音響情報として)ユーザに提示する。
記憶部30は、後述する制御部10が、各種動作を実現するための情報を記憶するための構成である。なお、記憶部30に記憶される情報の一例については、制御部10の内容とあわせて、別途後述する。
制御部10は、音声認識部101と、入力解析部103と、自然言語処理部105と、状態検出部107と、機能判定部109と、出力制御部111と、処理実行部113とを含む。
なお、詳細は後述するが、本実施形態に係る情報処理装置1は、ユーザから入力された自然文が示す指示内容に応じて、当該指示に応じた処理を実行するための機能の候補を提示し、提示した当該候補のうち、ユーザから選択された候補に対応する機能を実行する。そこで、以降では、制御部10の各構成について、情報処理装置1が「指示内容に応じた候補を提示する処理」と、「ユーザからの選択を受けて機能を実行する処理」とに分けて、各処理を実現するために動作する構成に着目して説明する。
[指示内容に応じた候補を提示する処理]
まず、情報処理装置1が、ユーザから入力された自然文が示す指示内容に応じて、当該指示に応じた処理を実行するための機能の候補を提示する場合に動作する、制御部10の構成に着目して説明する。
音声認識部101は、集音部21から、集音された音響情報を取得する。音声認識部101は、取得した音響情報から音声区間を検出し、当該音響情報から当該音声区間に相当する部分(即ち、音響信号)を音声入力として抽出する。音声認識部101は、抽出した音声入力を、所謂音声認識技術に基づき解析することで、文字情報に変換する。なお、音声入力が変換された当該文字情報が、ユーザが、集音部21を介して音声情報として入力した(例えば、自然文として入力した)、情報処理装置1に対する指示内容を示す情報の一例に相当する。そして、音声認識部101は、音声入力が変換された文字情報を、自然言語処理部105に出力する。
入力解析部103は、入力部23(例えば、キーボード)から、操作内容を示す制御情報を取得する。入力解析部103は、入力部23から取得した制御情報に基づき、ユーザによる入力操作の内容を認識し、当該入力操作の内容の認識結果に基づき、ユーザにより入力された文字情報を取得する。なお、当該文字情報が、ユーザが、入力部23を介して入力した(例えば、自然文として入力した)、情報処理装置1に対する指示内容を示す情報の一例に相当する。そして、入力解析部103は、取得した文字情報を、自然言語処理部105に出力する。
自然言語処理部105は、ユーザから指示内容を示す文字情報を、音声認識部101及び入力解析部103のうち少なくともいずれかから取得する。自然言語処理部105は、取得した文字情報(例えば、自然文として入力された文字情報)に対して、所謂自然言語処理技術に基づく解析(例えば、字句解析(形態素解析)、構文解析、及び意味解析等)を施す。そして、自然言語処理部105は、ユーザからの指示内容を示す文字情報に対する、自然言語処理技術に基づく解析(以降では、単に「自然言語処理」と記載する場合がある)の結果を、機能判定部109に出力する。
状態検出部107は、情報処理装置1の各種状態や、当該情報処理装置1が利用される各種状況を検出するための構成である。なお、以降では、情報処理装置1の状態や、当該情報処理装置1が利用される状況を、総じて、「情報処理装置1の状態」と記載する場合がある。
状態検出部107は、例えば、情報処理装置1と外部装置との間のネットワークを監視することで、当該ネットワークの状態(例えば、接続状況)を検出してもよい。また、状態検出部107は、検知された各種情報に基づき、情報処理装置1が利用される状況(もしくは、状態)を認識してもよい。具体的な一例として、状態検出部107は、情報処理装置1が接続されているネットワークの種別に応じて、当該情報処理装置1が、利用される状況を認識してもよい。この場合には、状態検出部107は、情報処理装置1が所謂ホームネットワークに接続されている場合には、当該情報処理装置1が室内で利用されているものと認識してもよい。また、状態検出部107は、情報処理装置1が所謂車載ネットワークに接続されている場合には、当該情報処理装置1が自動車内で利用されているものと認識してもよい。
また、他の一例として、状態検出部107は、情報処理装置1が動作するための電力を供給するバッテリー(図示しない)の状態(例えば、充電された電力の残量)を監視することで、当該バッテリーの状態を検出してもよい。
なお、上記に説明した、状態検出部107により検出される(または、認識される)情報処理装置1の状態(即ち、機器の状態)はあくまで一例であり、検出される状態の種別や、当該状態の検出方法は特に限定されない。
例えば、状態検出部107は、加速度センサや角速度センサのような各種センサや、GPS(Global Positioning System)のような位置検出デバイス等の各種検出デバイスの検出結果に応じて、情報処理装置1が利用される状況(もしくは、状態)を認識してもよい。
具体的な一例として、状態検出部107は、加速度センサや角速度センサによる、情報処理装置1の筐体の動きや向きの変化の検知結果に基づき、ユーザの動作(例えば、移動中か否か)を推定してもよい。また、このとき状態検出部107は、検知された、情報処理装置1の筐体の動き(例えば、振動)のパターンに基づき、移動中のユーザの移動手段(例えば、徒歩、電車、自動車等)を推定してもよい。
また、他の一例として、状態検出部107は、GPSによる情報処理装置1の位置の検出結果に応じて、ユーザが移動中か否かを認識してもよい。また、このとき状態検出部107は、認識したユーザの移動経路に基づき、当該ユーザの移動手段を推定してもよい。具体的な一例として、状態検出部107は、ユーザが電車の線路に沿って移動していることを認識した場合には、当該ユーザが電車で移動中であるものと認識してもよい。
もちろん、状態検出部107は、複数の検出デバイスの検出結果を組み合わせることで、情報処理装置1が利用される状況(もしくは、状態)を認識してもよいことは言うまでもない。
以上のようにして、状態検出部107は、情報処理装置1の各種状態を検出し、検出した情報処理装置1の状態を示す制御情報を、機能判定部109に出力する。
機能判定部109は、ユーザからの指示内容を示す文字情報に対する自然言語処理の結果を、自然言語処理部105から取得する。なお、当該自然言語処理の結果が、「第1の情報」の一例に相当する。機能判定部109は、取得した自然言語処理の結果に基づき、ユーザからの指示内容を示す文字情報(自然文)が要求しているものと推測される機能を抽出する。
具体的な一例として、能判定部109は、取得した自然言語処理の結果を入力として、機械学習に基づき蓄積された教師データを基にした所謂教師あり文書分類問題に基づき、ユーザからの指示内容を示す文字情報(自然文)が要求しているものと推測される機能を抽出する。この場合には、例えば、機能判定部109は、取得した自然言語処理の結果と、教師データとを比較することで、対象となり得る機能(例えば、インストールされている機能、もしくは、インストール可能な機能)それぞれについて、当該機能がユーザからの指示内容に基づき要求されている機能であることの信頼度を算出する。
より具体的な一例として、機能判定部109は、指示内容に含まれるキーワードの組み合わせと、当該キーワードの組み合わせに基づき過去に実行された機能の履歴を示す教師データとを比較することで、各機能の信頼度を算出してもよい。
もちろん、上記に示す信頼度の算出方法はあくまで一例であり、自然言語処理の結果と教師データとに基づき、対象となり得る機能それぞれについて、前述した信頼度を算出することが可能であれば、その方法は特に限定されない。
なお、機能判定部109が、機能の抽出に用いる教師データについては、あらかじめ生成されたものを記憶部30に記憶させておけばよい。また、機能判定部109が、当該教師データを生成または更新してもよい。この場合には、機能判定部109は、ユーザからの指示内容を示す文字情報に対する自然言語処理の結果と、当該指示内容に対応して実行された機能を示す情報とを関連付けて、教師データとして記憶部30に記憶させればよい。なお、機能判定部109が、教師データを生成または更新する場合の動作については、別途、「ユーザからの選択を受けて機能を実行する処理」として後述する。
また、機能判定部109は、情報処理装置1の状態(即ち、機器の状態)、情報処理装置1が利用される状況、及び、各種機能の過去の実行履歴等のような、情報処理装置1の使用に伴う状態または状況を示す情報に基づき、機能ごとに算出された信頼度を重み付けすることで、当該信頼度を制御してもよい。なお、情報処理装置1の使用に伴う状態または状況を示す情報が、「第2の情報」の一例に相当する。
例えば、図3は、機能判定部109が、情報処理装置1の使用に伴う状態または状況を示す情報に基づき、機能ごとに算出された信頼度を重み付けするための制御テーブルd10の一例である。
図3において、参照符号d111〜d115は、抽出の対象となり得る各種機能の一例を示している。
具体的には、参照符号d111は、ユーザが他のユーザに対して連絡を行うために使用され得る機能の一例を示しており、例えば、「電話」のように同期的に(リアルタイムで)連絡を行うための機能や、「電子メール」、「メッセージ機能」等のように非同期的な連絡が可能な機能等が挙げられる。
また、参照符号d113は、楽曲や動画を再生するための機能の一例を示しており、例えば、「音楽再生」の機能や、「動画再生」の機能等が挙げられる。また、楽曲や動画を再生するための機能としては、情報処理装置1に記憶されたファイル(ライブラリ)を再生する機能や、音楽や動画の配信サービスを利用することでストリーミング再生を行うための機能が挙げられる。
また、参照符号d115は、目的地までの行き方を提示するための機能の一例を示しており、例えば、目的地までの経路を提示するための「地図」機能や、目的地までの公共交通機関を検索するための「乗換案内」機能等が挙げられる。
また、参照符号d121〜d125は、機能ごとに算出された信頼度を制御するための、情報処理装置1の使用に伴う状態または状況を示す情報の一例を示している。
具体的には、参照符号d121は、情報処理装置1の各種状態を示す情報の一例を示しいている。情報処理装置1の各種状態を示す情報d121としては、例えば、「バッテリー残量(即ち、充電された電力の残量)」のような、バッテリーの状態を示す情報や、「通信環境」のような、情報処理装置1が外部装置と通信を行うためのネットワークの状態(例えば、インターネット等のネットワークへの接続状態)を示す情報が挙げられる。
また、参照符号d123は、情報処理装置1が利用される状況を示す情報の一例を示している。情報処理装置1が利用される状況としては、例えば、当該情報処理装置1が「室内」で利用される状況や、「自動車内」で利用される状況が想定され得る。
なお、機能判定部109は、情報処理装置1の各種状態を示す情報d121や、情報処理装置1が利用される状況を示す情報d123を、状態検出部107から、情報処理装置1の各種状態を示す制御情報として取得すればよい。
また、参照符号d125は、各種機能の過去の実行履歴に基づく情報の一例を示している。各種機能の過去の実行履歴に基づく情報d125の具体的な一例として、当該機能を実行するために用いられたパラメータの履歴が挙げられる。図3に示す例では、各種機能を実行するために用いられたパラメータとして、「電話」、「電子メール」、及び「メッセージ機能」等の宛先として使用されたユーザを示す情報の一例を挙げている。
もちろん、図3に示す例はあくまで一例であり、各種機能の過去の実行履歴に基づき取得可能であれば、情報d125の種別は特に限定されない。具体的な一例として、各種機能が実行された日時を示す情報が、各種機能の過去の実行履歴に基づく情報d125として使用されてもよい。また、他の一例として、各種機能が実行されたときの、情報処理装置1の位置情報(換言すると、ユーザの位置情報)が、各種機能の過去の実行履歴に基づく情報d125として使用されてもよい。
なお、各種機能の過去の実行履歴に基づく情報d125については、例えば、機能判定部109が、ユーザからの指示内容に対応して実行された機能を示す情報を履歴情報として記憶部30にあらかじめ蓄積しておけばよい。
以上のようにして、機能判定部109は、情報処理装置1の使用に伴う状態または状況を示す情報を取得することが可能である。
次いで、図3を参照して、機能判定部109が、取得した情報処理装置1の使用に伴う状態または状況を示す情報に基づき、機能ごとに算出された信頼度を制御する場合の一例について、具体的な例を挙げて説明する。
まず、「電話」、「電子メール」、「メッセージ機能」等のような、ユーザが他のユーザに対して連絡を行うため機能d111に着目して、機能判定部109による、信頼度の制御に係る動作の一例について説明する。
例えば、機能判定部109は、「通信環境」を示す情報に基づき、情報処理装置1がネットワークに接続されていない(即ち、ネットワークが切断されている)場合には、「電話」のように同期的に(リアルタイムで)連絡を行うための機能の信頼度がより低くなるように制御する。これにより、「電子メール」、「メッセージ機能」等のように非同期的な連絡が可能な機能の優先度が、「電話」のような同期的に連絡を行うための機能に比べて、相対的により高くなる。特に、図3に示す例では、機能判定部109は、ネットワークが切断されている場合には、「電話」の信頼度を「−100」とすることで、「電話」が抽出されないように制御している。
また、機能判定部109は、情報処理装置1が「自動車内」で利用される状況においては、「電話」なようにハンズフリーで利用可能な機能の信頼度がより高くなるように制御してもよい。また、この場合において、機能判定部109は、「電子メール」、「メッセージ機能」等のように、文字入力等のユーザ操作を伴う機能の信頼度がより低くなるように制御してもよい。
また、機能判定部109は、「電話」、「電子メール」、「メッセージ機能」等の各機能の過去の実行履歴に基づき、連絡先となるユーザに応じて、各機能の信頼度を制御してもよい。
例えば、情報処理装置1のユーザUaは、他のユーザUcに対して連絡を行う場合に、「電話」を利用する頻度が最も多く、次いで、「メッセージ機能」を利用する頻度が多いものとする。この場合には、機能判定部109は、連絡先がユーザUcの場合には、「電話」や「メッセージ機能」の信頼度が、他の機能(例えば、「電子メール」)に比べてより高くなるように、各機能の信頼度を制御する。また、このとき機能判定部109は、「電話」の信頼度が、「メッセージ機能」の信頼度に比べてより高くなるように、各機能の信頼度を制御してもよい。
また、他の一例として、情報処理装置1のユーザUaは、他のユーザUdに対して連絡を行う場合に、「メッセージ機能」のみを利用しているものとする。この場合には、機能判定部109は、連絡先がユーザUcの場合には、「メッセージ機能」の信頼度が、他の機能(例えば、「電話」や「電子メール」)に比べてより高くなるように、各機能の信頼度を制御してもよい。
なお、機能判定部109は、各機能の過去の実行履歴に基づき各機能の信頼度を制御する場合においては、当該機能の実行頻度を考慮して、当該機能の信頼度を制御するか否かを判定してもよい。具体的には、機能判定部109は、各機能の過去の実行履歴に基づき、実行された回数が閾値を超える機能についてのみ、当該機能の信頼度を制御してもよい。このような構成により、機能判定部109は、例えば、ユーザの使用頻度がより高い機能の信頼度がより高くなるように制御し、ユーザが一時的に使用した機能については、信頼度の制御の対象から除外することも可能となる。
次に、「音楽再生(ライブラリ)」、「音楽再生(ストリーミング)」、「動画再生(ライブラリ)」、「動画再生(ストリーミング)」等のような、楽曲や動画を再生するための機能d111に着目して、機能判定部109による、信頼度の制御に係る動作の一例について説明する。
例えば、機能判定部109は、「バッテリー残量」を示す情報に基づき、バッテリーに充電された電力が閾値よりも低下した場合には、より電力を消費する機能ほど信頼度がより低くなるように、各機能の信頼度を制御してもよい。例えば、楽曲を再生する場合よりも動画を再生する場合の方がより電力を消費する。そのため、図3に示す例では、機能判定部109は、「動画再生」の機能の信頼度が、「音楽再生」の機能よりも低くなるように、各機能の信頼度を制御している。また、楽曲や動画の再生時に通信を伴うストリーミング再生の機能は、通信を介した情報の送受信を伴うため、情報処理装置1内のファイル(ライブラリ)を再生する機能に比べて、より多くの電力を消費する。そのため、機能判定部109は、ストリーミング再生の機能の信頼度が、情報処理装置1内のファイルを再生する機能よりも低くなるように、各機能の信頼度を制御している。
また、「音楽再生(ストリーミング)」や「動画再生(ストリーミング)」の機能は、再生対象となる楽曲や動画を、ネットワークを介してサーバから取得する必要がある。そのため、機能判定部109は、「通信環境」を示す情報に基づき、情報処理装置1がネットワークに接続されていない(即ち、ネットワークが切断されている)場合には、ストリーミング再生の機能の信頼度がより低くなるように制御してもよい。特に、図3に示す例では、機能判定部109は、ネットワークが切断されている場合には、「音楽再生(ストリーミング)」及び「動画再生(ストリーミング)」の信頼度を「−100」とすることで、ストリーミング再生の機能が抽出されないように制御している。
次に、「地図」及び「乗換案内」等のような、目的地までの行き方を提示するための機能d115に着目して、機能判定部109による、信頼度の制御に係る動作の一例について説明する。
例えば、「地図」機能のように、目的地までの経路を提示するための機能は、「乗換案内」のような所謂検索機能に比べて、より電力を消費する場合がある。そのため、機能判定部109は、「バッテリー残量」を示す情報に基づき、バッテリーに充電された電力が閾値よりも低下した場合には、「地図」の機能の信頼度が、「乗換案内」の機能よりも低くなるように、各機能の信頼度を制御している。
また、「地図」や「乗換案内」の機能が、ネットワークを介した通信を前提としている場合には、機能判定部109は、「通信環境」を示す情報に基づき、当該機能の信頼度を制御してもよい。例えば、図3に示す例では、機能判定部109は、ネットワークが切断されている場合には、「地図」及び「乗換案内」のような、ネットワークを介した通信を前提とした機能の信頼度を「−100」とすることで、当該機能が抽出されないように制御している。
また、情報処理装置1が自動車内で使用されている場合においては、ユーザが目的地までの行き方として、当該目的地までの経路を確認するような状況が頻度としてより多く、公共交通機関を検索するような状況の頻度は少ない。そのため、図3に示す例では、機能判定部109は、情報処理装置1が自動車内で使用されている状況下では、「地図」機能の信頼度が、「乗換案内」機能の信頼度よりもより高くなるように制御している。
なお、情報処理装置1が電車内で使用されている場合においては、ユーザが目的地までの行き方として、当該目的地までの公共交通機関を検索するような状況が頻度としてより多く、当該目的地までの経路を確認するような状況の頻度が少ない場合も想定され得る。そのため、機能判定部109は、情報処理装置1が電車内で使用されている状況下では、「乗換案内」機能の信頼度が、「地図」機能の信頼度よりもより高くなるように制御してもよい。
もちろん、上記に示した機能判定部109による信頼度の制御に係る動作はあくまで一例であり、必ずしも上記に示す例には限定されない。
例えば、機能判定部109は、ユーザからの指示内容を示す情報(例えば、音声入力や文字情報)が取得された日付や時間帯に応じて、各機能の信頼度を制御してもよい。例えば、日々の行動パターンが周期的であるユーザは、曜日や時間帯に応じて、特定の機能を利用する場合もある。具体的な一例として、あるユーザは、平日の朝は、同じ時間に起床し、特定の電車を利用して通勤を行っており、当該電車での移動中にニュースを確認するための「ニュースリーダー機能」を利用しているものとする。このような状況下では、当該朝の時間帯において、ユーザから「ニュースをチェック」という指示内容を示す情報が入力された場合には、機能判定部109は、「ニュースリーダー機能」の信頼度がより高くなるように制御してもよい。
また、機能判定部109は、ユーザからの指示内容を示す情報(例えば、音声入力や文字情報)が取得されたときの、情報処理装置1の位置情報(換言すると、ユーザの位置情報)に応じて、各機能の信頼度を制御してもよい。具体的な一例として、「東京駅への行き方」という指示内容を示す情報が入力された場合において、ユーザが東京駅の近傍に位置する場合には、機能判定部109は、当該ユーザが東京駅までの経路を確認できるように、「地図」機能の信頼度がより高くなるように制御してもよい。また、ユーザが東京駅の近傍に位置しない場合には、機能判定部109は、当該ユーザが最寄り駅から東京駅までの公共交通機関を検索できるように、「乗換案内」機能の信頼度がより高くなるように制御してもよい。
以上のようにして、機能判定部109は、取得した情報処理装置1の使用に伴う状態または状況を示す情報に基づき、機能ごとに算出された信頼度を制御してもよい。
機能判定部109は、機能ごとに信頼度を算出すると、当該機能ごとに算出された信頼度に基づき、ユーザからの指示内容を示す文字情報(自然文)が要求しているものと推測される機能を抽出する。具体的な一例として、機能判定部109は、信頼度が閾値を超える機能のみを抽出してもよい。また、他の一例として、機能判定部109は、信頼度がより高い機能を、あらかじめ決められた数だけ抽出してもよい。なお、機能判定部109が、「抽出部」の一例に相当し得る。
そして、機能判定部109は、ユーザからの指示内容を示す文字情報に対する自然言語処理の結果に基づき抽出した各機能を示す情報と、当該機能に対応する信頼度を示す情報とを、出力制御部111に出力する。
出力制御部111は、ユーザからの指示内容に対する応答の候補として抽出された各機能を示す情報と、当該機能がユーザからの指示内容に基づき要求されている機能であることの信頼度を示す情報とを、機能判定部109から取得する。出力制御部111は、取得した各機能を示す情報を出力部40に出力させることで、ユーザからの指示内容に対する応答の候補として抽出された機能を、当該ユーザに対して提示する。
例えば、図4は、情報処理装置1により出力される表示画面の一例を示した図であり、当該情報処理装置1が、ユーザからの指示内容に対する応答の候補として抽出された各機能を、表示情報としてユーザに提示する場合の一例について示している。
図4に示す例では、出力制御部111は、表示画面v10中に、ユーザからの指示内容を示す表示情報v11を提示し、当該指示内容に対する応答の候補として抽出された各機能を示す表示情報v151及びv153それぞれを、選択可能にユーザに提示する。例えば、図4に示す例では、出力制御部111は、指示内容に対する応答の候補として抽出された各機能を示す情報v151及びv153を、当該機能を示すアイコンとして提示している。
また、このとき出力制御部111は、ユーザに対して、提示された各機能を示す表示情報v151及びv153のうち、当該ユーザが所望する機能に対応する表示情報の選択を促す表示情報v13(例えば、メッセージ等の報知情報)を、当該表示情報v151及びv153とあわせて提示してもよい。
また、出力制御部111は、指示内容に対する応答の候補として抽出された各機能を示す表示情報の出力態様を、当該機能それぞれに対応する信頼度に応じて制御してもよい。具体的な一例として、出力制御部111は、各機能に対応する信頼度に応じて、より信頼度の高い機能を示す表示情報が、より優先的に表示されるように(例えば、ユーザがより選択しやすいように)、各機能に対応する表示情報が提示される順序を制御してもよい。
また、他の一例として、出力制御部111は、各機能を示す表示情報を提示する場合に、当該機能それぞれに対応する信頼度を識別可能に提示してもよい。例えば、図5は、情報処理装置1により出力される表示画面の一例を示した図であり、当該情報処理装置1が、各機能に対応する信頼度を識別可能に提示する場合の一例について示している。
図5に示す例では、出力制御部111は、各機能を示す表示情報v251及びv253(例えば、アイコン)の出力態様として、当該表示情報の大きさを、対応する機能の信頼度に応じて制御している。具体的には、図5は、楽曲を再生するための「音楽再生」の機能の信頼度が、動画を再生するための「動画再生」の機能の信頼度よりも高く設定されている場合の表示画面v20の一例を示している。この場合には、出力制御部111は、「音楽再生」の機能に対応する表示情報v251が、「動画再生」の機能に対応する表示情報v253よりも、おり大きく表示されるように、当該表示情報v251及びv253の表示態様を制御している。
また、出力制御部111は、各機能に対応する信頼度の根拠を示す情報を、あわせてユーザに提示してもよい。具体的な一例として、バッテリー残量の低下に伴い一部機能の信頼度が低くなるように制御されている場合には、出力制御部111は、当該バッテリー残量の低下に伴い、より電力を消費する機能の優先度が低下している旨を示す情報を、ユーザに報知してもよい。なお、出力制御部111は、各機能に対応する信頼度の根拠を示す情報については、機能判定部109から各機能の信頼度の制御に利用した情報(例えば、情報処理装置1の状態、情報処理装置1が利用される状況、及び、各種機能の過去の実行履歴等)を取得し、取得した当該情報に基づき生成すればよい。
なお、上記に示した例はあくまで一例であり、出力制御部111が、各機能に対応する信頼度に応じて、当該機能に対応する表示情報の表示態様を制御可能であれば、その方法は特に限定されない。具体的な一例として、出力制御部111は、信頼度のより高い機能に対応する表示情報が、より強調されるように、各機能に対応する表示情報の色を制御してもよい。
また、上記に説明した例では、出力制御部111が、抽出された各機能に対応する情報を、表示情報としてユーザに提示する例について説明したが、抽出された各機能をユーザが認識できれば、出力される当該機能を示す情報の種別は特に限定されない。具体的な一例として、出力制御部111は、抽出された各機能に対応する情報を、音声情報としてユーザに提示してもよい。この場合には、出力部40は、所謂スピーカ等のように、音響情報を出力するための音響デバイスとして構成されていればよい。
以上のようにして、情報処理装置1は、ユーザから入力された自然文が示す指示内容に応じて、当該指示に応じた処理を実行するための機能の候補を、出力部40を介してユーザに提示する。これにより、ユーザは、情報処理装置1により提示された機能の中から、自身が情報処理装置1に実行させようとしていた機能を選択することが可能となる。
[ユーザからの選択を受けて機能を実行する処理]
次に、情報処理装置1が、各機能の抽出結果に対するユーザからの選択を受けて、当該ユーザに選択された機能を実行する場合に動作する、制御部10の構成に着目して説明する。なお、本説明では、情報処理装置1が、ユーザからの指示に応じた処理を実行するための機能の候補を提示する場合と同様の動作については、詳細な説明は省略するものとする。
情報処理装置1により提示された、各機能を示す情報(例えば、表示情報)に対して、ユーザが、入力部23(例えば、タッチパネル)を介して所望の機能に対応する情報を選択すると、当該選択に係る操作の内容を示す制御情報が、入力部23から入力解析部103に出力される。入力解析部103は、入力部23から取得した制御情報に基づき、ユーザの操作内容を認識し、認識した操作内容に応じて、各機能を示す情報のうち、ユーザにより選択された情報(即ち、ユーザが所望する機能に対応する情報)を認識する。
具体的な一例として、ユーザは、図4に示す表示画面v10に表示された、各機能に対応する表示情報v151及びv153のうち、タッチパネルとして構成された入力部23を介して、表示情報v151をタッチすることで選択したものとする。
この場合には、入力部23から、画面中のタッチ位置を示す情報が入力解析部103に出力される。入力解析部103は、入力部23から取得した画面中のタッチ位置と、各表示情報の画面中における位置情報とを照合することで、表示情報v151がユーザにより選択されたことを認識する。なお、入力解析部103は、各表示情報の画面中における位置情報については、例えば、出力制御部111から対応する情報(例えば、画面を出力するための情報)を取得することで認識すればよい。そして、入力解析部103は、ユーザにより選択された表示情報v151に対応する機能を示す情報、即ち、ユーザにより選択された機能を示す情報を、機能判定部109に出力する。
また、ユーザのタッチ位置を検出できれば、入力部23の構成は、必ずしもタッチパネルには限定されない。具体的な一例として、入力部23は、マウスなどのポインティングデバイスとして構成されていてもよい。また、他の一例として、入力部23は、画像を撮像する撮像部を備え、ユーザの操作に係る動作(例えば、タッチ操作)を画像として撮像することで、当該画像の解析結果に基づき、ユーザの操作内容(例えば、タッチ位置)を認識してもよい。
また、他の一例として、ユーザは、情報処理装置1により提示された各機能に対応する情報のうち、所望の機能に対応する情報を音声により入力したものとする。この場合には、音声認識部101は、ユーザからの音声入力を、音声認識技術に基づき文字情報に変換して自然言語処理部105に出力する。自然言語処理部105は、音声認識部101から、ユーザからの指示内容を示す文字情報を取得し、取得した文字情報に対して自然言語処理技術に基づく解析を施すことで、当該文字情報の意味内容を認識する。そして、自然言語処理部105は、ユーザからの指示内容を示す文字情報に対する自然言語処理の結果、即ち、ユーザにより選択された機能を示す情報を、機能判定部109に出力する。
機能判定部109は、ユーザにより選択された機能を示す情報を、入力解析部103または自然言語処理部105から取得する。なお、このときユーザにより選択された機能は、「指示内容に応じた候補を提示する処理」として前述した、当該機能判定部109が、従前に、ユーザから入力された自然文が示す指示内容に応じて抽出した各機能のうちのいずれかの機能に相当し得る。
次いで、機能判定部109は、従前に取得した、ユーザの指示内容を示す文字情報に対する自然言語処理の結果に基づき、ユーザから選択された機能を実行するために用いるパラメータ(換言すると、キーフレーズ)を抽出する。例えば、選択された機能が「地図」や「乗換案内」機能の場合には、機能判定部109は、当該機能を実行するためのパラメータとして、目的地を示すキーフレーズを、取得した自然言語処理の結果に基づき抽出する。
なお、機能判定部109は、キーフレーズの抽出を事前に行っていてもよい。具体的には、機能判定部109は、ユーザから入力された自然文が示す指示内容に応じて各機能を抽出した際に、抽出した当該機能のそれぞれについて、キーフレーズを抽出してもよい。
そして、機能判定部109は、ユーザにより選択された機能を示す情報と、当該機能を実行するためのパラメータ(キーフレーズ)を示す情報とを、処理実行部113に出力する。
また、このとき、機能判定部109は、従前に取得したユーザからの指示内容を示す情報(例えば、当該指示内容を示す文字情報に対する自然言語処理の結果)と、ユーザにより選択された機能を示す情報との組み合わせを、教師データとして記憶部30に蓄積してもよい。同様に、機能判定部109は、ユーザにより選択された機能を示す情報を、各種状態を示す情報(例えば、情報処理装置1の状態、日時、位置等を示す情報)と組み合わせて履歴情報として記憶部30に蓄積してもよい。このような構成により、機能判定部109は、ユーザからの指示内容に応じて、当該ユーザの意図により近い機能を抽出することが可能となる。
処理実行部113は、機能判定部109から指定された機能(例えば、アプリケーション)を実行するためのデータ(例えば、ライブラリ)を、所定の記憶領域から読み出す。なお、各機能を実行するためのデータについては、例えば、記憶部30に記憶させておけばよい。もちろん、処理実行部113が、各機能を実行するためのデータを読み出し可能であれば、当該データが記憶される場所は特に限定されない。
なお、このとき、指定された機能が情報処理装置1にインストールされていない場合には、処理実行部113は、当該機能を情報処理装置1にインストールしてもよい。また、このとき処理実行部113は、例えば、ネットワークを介してサーバにアクセスし、当該サーバから、当該機能のインストールに必要なデータを取得(ダウンロード)してもよい。また、このとき処理実行部113は、当該機能をインストールするか否かを確認するための情報を出力制御部111に出力させ、当該ユーザからの指示を受けて、対応する機能をインストールするか否かを判断してもよい。
そして、処理実行部113は、読み出したデータに基づき、取得したパラメータを入力として指定された機能を実行し、当該機能の実行結果を出力制御部111に出力する。
出力制御部111は、ユーザから選択された機能の実行結果を、処理実行部113から取得し、当該実行結果を示す情報を、出力部40を介してユーザに提示する。
なお、上記に示す例では、情報処理装置1が、ユーザからの指示内容に応じて抽出された機能を示す情報(例えば、表示情報)を、当該指示内容に対する応答の候補としてユーザに提示し、当該ユーザにより選択された候補に対応する機能を実行する例について説明した。一方で、情報処理装置1は、ユーザからの指示内容に対応する機能が一意に特定された場合には、当該機能を直接実行し、実行結果をユーザに提示してもよい。
この場合には、機能判定部109は、抽出した機能を示す情報と、当該機能を実行するためのパラメータ(キーフレーズ)を示す情報とを、処理実行部113に出力する。
処理実行部113は、機能判定部109から指定された機能(例えば、アプリケーション)を実行するためのデータ(例えば、ライブラリ)を記憶部30から読み出す。処理実行部113は、読み出したデータに基づき、取得したパラメータを入力として指定された機能を実行し、当該機能の実行結果を出力制御部111に出力する。
そして、出力制御部111は、ユーザから選択された機能の実行結果を、処理実行部113から取得し、当該実行結果を示す情報を、出力部40を介してユーザに提示すればよい。
例えば、図6は、情報処理装置1により出力される表示画面の一例を示した図であり、ユーザからの指示内容に対応する機能が一意に特定された場合に、情報処理装置1が、当該機能を実行し、実行結果をユーザに提示した場合の一例を示している。即ち、出力制御部111は、表示画面v30中に、ユーザからの指示内容を示す表示情報v31と、当該指示内容に応じて一意に特定された機能の実行結果を示す表示情報v33とを提示している。
以上、図2〜図6を参照して、本実施形態に係る情報処理装置1の機能構成の一例について説明した。なお、上記に示す例では、ユーザが、タッチ操作や音声入力により機能を選択する例について説明したが、当該ユーザが所望の機能を選択できれば、当該選択のための構成や方法は特に限定されない。具体的な一例として、情報処理装置1は、視線入力に基づきユーザが所望の機能を選択できるように構成されていてもよい。この場合には、例えば、情報処理装置1は、ユーザの瞬きを検出し、当該瞬きが検出されたときに当該ユーザの視線の先に提示された情報(機能)が選択されたものと認識すればよい。
なお、上記に説明した情報処理装置1の機能構成は、あくまで一例であり、上記に説明した各機能が実現できれば、必ずしも上記構成には限定されない。具体的な一例として、集音部21、入力部23、及び出力部40のうち少なくともいずれかが、情報処理装置1の外部に設けられていてもよい。また、制御部10の各構成のうち、一部の構成が情報処理装置1の外部に設けられていてもよい。
また、制御部10が、所謂サーバ等に設けられていてもよい。この場合には、当該サーバは、ネットワークを介して接続された端末から、ユーザからの指示内容を示す情報を取得し、当該指示内容に基づく処理結果(例えば、抽出した機能を示す情報)を、当該端末を介してユーザに提示すればよい。
<3.処理>
次に、図7及び図8を参照して、本実施形態に係る情報処理装置1の一連の動作の流れの一例について説明する。図7及び図8は、本実施形態に係る情報処理装置1の一連の動作の流れの一例について示したフローチャートである。なお、本説明では、情報処理装置1の動作を、「指示内容に応じた候補を提示する処理」と、「ユーザからの選択を受けて機能を実行する処理」とに分けてそれぞれ説明する。
[指示内容に応じた候補を提示する処理]
まず、図7を参照して、情報処理装置1が、ユーザから入力された自然文が示す指示内容に応じて、当該指示に応じた処理を実行するための機能の候補を提示する処理の流れの一例について説明する。
(ステップS101)
ユーザが、情報処理装置1への指示を音声により入力した場合に、当該ユーザからの音声入力等の音響情報は、集音部21により取得される。集音部21は、取得した音響情報を制御部10に出力する。
制御部10の音声認識部101は、集音部21から、集音された音響情報を取得する。音声認識部101は、取得した音響情報から音声区間を検出し、当該音響情報から当該音声区間に相当する部分(即ち、音響信号)を音声入力として抽出する。音声認識部101は、抽出した音声入力を、所謂音声認識技術に基づき解析することで、文字情報に変換する。そして、音声認識部101は、音声入力が変換された文字情報を、自然言語処理部105に出力する。
また、ユーザが、キーボード等のような文字情報を入力するためのデバイスとして構成された入力部23を介して、情報処理装置1への指示内容を示す文字情報を入力した場合には、入力部23は、操作内容を示す制御情報を制御部10に出力する。
制御部10の入力解析部103は、入力部23(例えば、キーボード)から、操作内容を示す制御情報を取得する。入力解析部103は、入力部23から取得した制御情報に基づき、ユーザによる入力操作の内容を認識し、当該入力操作の内容の認識結果に基づき、ユーザにより入力された文字情報を取得する。そして、入力解析部103は、取得した文字情報を、自然言語処理部105に出力する。
(ステップS103)
自然言語処理部105は、ユーザから指示内容を示す文字情報を、音声認識部101及び入力解析部103のうち少なくともいずれかから取得する。自然言語処理部105は、取得した文字情報に対して、所謂自然言語処理を施す。そして、自然言語処理部105は、ユーザからの指示内容を示す文字情報に対する、自然言語処理の結果を、機能判定部109に出力する。
(ステップS105)
機能判定部109は、ユーザからの指示内容を示す文字情報に対する自然言語処理の結果を、自然言語処理部105から取得する。機能判定部109は、取得した自然言語処理の結果と、機械学習に基づき蓄積された教師データとを比較することで、対象となり得る機能それぞれについて、当該機能がユーザからの指示内容に基づき要求されている機能であることの信頼度を算出する。
また、機能判定部109は、情報処理装置1の状態、情報処理装置1が利用される状況、及び、各種機能の過去の実行履歴等のような、情報処理装置1の使用に伴う状態または状況を示す情報に基づき、機能ごとに算出された信頼度を重み付けすることで、当該信頼度を制御してもよい。
なお、機能判定部109は、情報処理装置1の状態、情報処理装置1が利用される状況のような、情報処理装置1の各種状態を示す情報を、状態検出部107から取得すればよい。また、機能判定部109は、ユーザからの指示内容に対応して実行された機能を示す情報を履歴情報として記憶部30にあらかじめ蓄積しておき、当該蓄積された履歴情報を、各種機能の過去の実行履歴として使用すればよい。
(ステップS107)
機能判定部109は、機能ごとに信頼度を算出すると、当該機能ごとに算出された信頼度に基づき、ユーザからの指示内容を示す文字情報(自然文)が要求しているものと推測される機能を抽出する。具体的な一例として、機能判定部109は、信頼度が閾値を超える機能のみを抽出してもよい。また、他の一例として、機能判定部109は、信頼度がより高い機能を、あらかじめ決められた数だけ抽出してもよい。
そして、機能判定部109は、ユーザからの指示内容を示す文字情報に対する自然言語処理の結果に基づき抽出した各機能を示す情報と、当該機能に対応する信頼度を示す情報とを、出力制御部111に出力する。
(ステップS109)
出力制御部111は、ユーザからの指示内容に対する応答の候補として抽出された各機能を示す情報と、当該機能がユーザからの指示内容に基づき要求されている機能であることの信頼度を示す情報とを、機能判定部109から取得する。出力制御部111は、取得した各機能を示す情報を出力部40に出力させることで、ユーザからの指示内容に対する応答の候補として抽出された機能を、当該ユーザに対して提示する。
また、出力制御部111は、指示内容に対する応答の候補として抽出された各機能を示す表示情報の出力態様を、当該機能それぞれに対応する信頼度に応じて制御してもよい。具体的な一例として、出力制御部111は、各機能に対応する信頼度に応じて、より信頼度の高い機能を示す表示情報が、より優先的に表示されるように(例えば、ユーザがより選択しやすいように)、各機能に対応する表示情報が提示される順序を制御してもよい。
また、他の一例として、出力制御部111は、各機能を示す表示情報を提示する場合に、当該機能それぞれに対応する信頼度を識別可能に提示してもよい。
以上、図7を参照して、情報処理装置1が、ユーザから入力された自然文が示す指示内容に応じて、当該指示に応じた処理を実行するための機能の候補を提示する処理の流れの一例について説明した。
[ユーザからの選択を受けて機能を実行する処理]
次に、図8を参照して、情報処理装置1が、各機能の抽出結果に対するユーザからの選択を受けて、当該ユーザに選択された機能を実行する処理の流れの一例について説明する。
(ステップS201)
情報処理装置1により提示された、各機能を示す情報(例えば、表示情報)に対して、ユーザが、入力部23(例えば、タッチパネル)を介して所望の機能に対応する情報を選択すると、当該選択に係る操作の内容を示す制御情報が、入力部23から入力解析部103に出力される。入力解析部103は、入力部23から取得した制御情報に基づき、ユーザの操作内容を認識し、認識した操作内容に応じて、各機能を示す情報のうち、ユーザにより選択された情報(即ち、ユーザが所望する機能に対応する情報)を認識する。そして、入力解析部103は、ユーザにより選択された機能を示す情報を、機能判定部109に出力する。
また、他の一例として、ユーザは、情報処理装置1により提示された各機能に対応する情報のうち、所望の機能に対応する情報を音声により入力したものとする。この場合には、音声認識部101は、ユーザからの音声入力を、音声認識技術に基づき文字情報に変換して自然言語処理部105に出力する。自然言語処理部105は、音声認識部101から、ユーザからの指示内容を示す文字情報を取得し、取得した文字情報に対して自然言語処理技術に基づく解析を施すことで、当該文字情報の意味内容を認識する。そして、自然言語処理部105は、ユーザからの指示内容を示す文字情報に対する自然言語処理の結果、即ち、ユーザにより選択された機能を示す情報を、機能判定部109に出力する。
(ステップS203)
機能判定部109は、ユーザにより選択された機能を示す情報を、入力解析部103または自然言語処理部105から取得する。
次いで、機能判定部109は、従前に取得したユーザの指示内容を示す文字情報に対する自然言語処理の結果に基づき、ユーザから選択された機能を実行するために用いるパラメータ(換言すると、キーフレーズ)を抽出する。例えば、選択された機能が「地図」や「乗換案内」機能の場合には、機能判定部109は、当該機能を実行するためのパラメータとして、目的地を示すキーフレーズを、取得した自然言語処理の結果に基づき抽出する。
そして、機能判定部109は、ユーザにより選択された機能を示す情報と、当該機能を実行するためのパラメータ(キーフレーズ)を示す情報とを、処理実行部113に出力する。
処理実行部113は、機能判定部109から指定された機能(例えば、アプリケーション)を実行するためのデータ(例えば、ライブラリ)を、所定の記憶領域から読み出す。
(ステップS205)
なお、このとき、指定された機能が情報処理装置1にインストールされていない場合には(ステップS203、NO)、処理実行部113は、当該機能を情報処理装置1にインストールしてもよい。また、このとき処理実行部113は、例えば、ネットワークを介してサーバにアクセスし、当該サーバから、当該機能のインストールに必要なデータを取得(ダウンロード)してもよい。また、このとき処理実行部113は、当該機能をインストールするか否かを確認するための情報を出力制御部111に出力させ、当該ユーザからの指示を受けて、対応する機能をインストールするか否かを判断してもよい。
なお、指定された機能が情報処理装置1に既にインストールされている場合には(ステップS203、YES)、上記に示した当該機能のインストールに係る処理を実行しなくてもよいことは言うまでもない。
(ステップS207)
そして、処理実行部113は、取得したパラメータを入力として、読み出したデータに基づき指定された機能を実行し、当該機能の実行結果を出力制御部111に出力する。
出力制御部111は、ユーザから選択された機能の実行結果を、処理実行部113から取得し、当該実行結果を示す情報を、出力部40を介してユーザに提示する。
以上、図8を参照して、情報処理装置1が、各機能の抽出結果に対するユーザからの選択を受けて、当該ユーザに選択された機能を実行する処理の流れの一例について説明した。
<4.ハードウェア構成>
次に、図9を参照して、本開示の各実施形態に係る情報処理装置1のハードウェア構成の一例について説明する。図9は、本開示の実施形態に係る情報処理装置1のハードウェア構成の一例を示した図である。
図9に示すように、本実施形態に係る情報処理装置1は、プロセッサ901と、メモリ903と、ストレージ905と、操作デバイス907と、報知デバイス911と、集音デバイス915と、撮像デバイス917と、バス919とを含む。また、情報処理装置1は、通信デバイス913を含んでもよい。
プロセッサ901は、例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)又はSoC(System on Chip)であってよく、情報処理装置1の様々な処理を実行する。プロセッサ901は、例えば、各種演算処理を実行するための電子回路により構成することが可能である。なお、前述した制御部10の各構成は、プロセッサ901により実現され得る。
メモリ903は、RAM(Random Access Memory)及びROM(Read Only Memory)を含み、プロセッサ901により実行されるプログラム及びデータを記憶する。ストレージ905は、半導体メモリ又はハードディスクなどの記憶媒体を含み得る。例えば、前述した記憶部30は、メモリ903及びストレージ905の少なくともいずれか、もしくは、双方の組み合わせにより実現され得る。
操作デバイス907は、ユーザが所望の操作を行うための入力信号を生成する機能を有する。操作デバイス907は、例えば、タッチパネルとして構成され得る。また、他の一例として、操作デバイス907は、例えばボタン、スイッチ、及びキーボードなどユーザが情報を入力するための入力部と、ユーザによる入力に基づいて入力信号を生成し、プロセッサ901に供給する入力制御回路などから構成されてよい。なお、前述した入力部23は、操作デバイス907により実現され得る。
報知デバイス911は、出力デバイスの一例であり、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)装置、有機EL(OLED:Organic Light Emitting Diode)ディスプレイなどのデバイスであってよい。この場合には、報知デバイス911は、画面を表示することにより、ユーザに対して所定の情報を報知することができる。また、報知デバイス911は、スピーカ等のように、所定の音響信号を出力することで、所定の情報をユーザに報知するデバイスであってもよい。なお、前述した出力部40は、報知デバイス911により実現され得る。
また、上記に示した報知デバイス911の例はあくまで一例であり、ユーザに対して所定の情報を報知可能であれば、報知デバイス911の態様は特に限定されない。具体的な一例として、報知デバイス911は、LED(Light Emitting Diode)のように、点灯又は点滅のパターンにより、所定の情報をユーザに報知するデバイスであってもよい。また、報知デバイス911は、所謂バイブレータのように、振動することで、所定の情報をユーザに報知するデバイスであってもよい。
通信デバイス913は、情報処理装置1が備える通信手段であり、ネットワークを介して外部装置と通信する。通信デバイス913は、有線または無線用の通信インタフェースである。通信デバイス913を、無線通信インタフェースとして構成する場合には、当該通信デバイス913は、通信アンテナ、RF(Radio Frequency)回路、ベースバンドプロセッサなどを含んでもよい。
通信デバイス913は、外部装置から受信した信号に各種の信号処理を行う機能を有し、受信したアナログ信号から生成したデジタル信号をプロセッサ901に供給することが可能である。
集音デバイス915は、マイクロフォン等のような、ユーザから発せられた音声や周囲の環境の音響を集音し、音響情報(音響信号)として取得するためのデバイスである。また、集音デバイス915は、集音された音声や音響を示すアナログの音響信号を示すデータを音響情報として取得してもよいし、当該アナログの音響信号をデジタルの音響信号に変換し、変換後のデジタルの音響信号を示すデータを音響情報として取得してもよい。なお、前述した集音部21は、集音デバイス915により実現され得る。
撮像デバイス917は、CMOS(Complementary Metal-Oxide Semiconductor)イメージセンサやCCD(Charge Coupled Device)イメージセンサ等の、被写体を撮像し、撮像画像のデジタルデータを得る撮像素子を含む。即ち、撮像デバイス917は、プロセッサ901の制御に従い、レンズ等の光学系を介して静止画像又は動画像を撮影する機能を有する。撮像デバイス917は、撮像した画像をメモリ903やストレージ905に記憶させてもよい。
バス919は、プロセッサ901、メモリ903、ストレージ905、操作デバイス907、表示デバイス909、通信デバイス913、集音デバイス915、及び撮像デバイス917を相互に接続する。バス919は、複数の種類のバスを含んでもよい。
また、コンピュータに内蔵されるプロセッサ、メモリ、及びストレージなどのハードウェアを、上記した情報処理装置1が有する構成と同等の機能を発揮させるためのプログラムも作成可能である。また、当該プログラムを記録した、コンピュータに読み取り可能な記憶媒体も提供され得る。
<5.まとめ>
以上説明したように、本実施形態に係る情報処理装置1は、ユーザからの指示内容を示す文字情報に対する自然言語処理の結果を入力として、所謂教師あり文書分類問題に基づき、対象となり得る機能それぞれについて信頼度を算出する。また、情報処理装置1は、当該情報処理装置1の状態、情報処理装置1が利用される状況、及び、各種機能の過去の実行履歴等のような、情報処理装置1の使用に伴う状態または状況を示す情報に基づき、機能ごとに算出された信頼度を制御してもよい。
情報処理装置1は、機能ごとに算出された信頼度に応じて、ユーザからの指示内容に対する応答の候補となる機能を抽出して、当該機能を示す情報をユーザに提示し、当該ユーザにより選択された機能を実行する。このとき、情報処理装置1は、抽出した機能それぞれの信頼度に応じて、当該機能を示す情報の提示態様(例えば、提示する順序や、表示情報の大きさや色等の表示態様等)を制御してもよい。
このような構成により、情報処理装置1は、曖昧性を有する自然文がユーザからの指示として入力され得る状況下においても、ユーザや状況の変化に応じて、よりユーザの意図に近い機能を提示することが可能となる。これにより、ユーザは、自身が意図する機能を、煩雑な操作を伴わずに、情報処理装置1に実行させることが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
入力として取得された自然文に対する自然言語解析の結果を示す第1の情報と、所定の機器の使用に伴う状態または状況を示す第2の情報とに基づく、前記入力に対する応答の候補の抽出結果を取得する取得部と、
前記応答の候補を示す情報を、当該候補の抽出結果に応じた態様で、所定の出力部に提示させる制御部と、
を備える、情報処理装置。
(2)
前記取得部は、前記抽出結果として、前記応答の候補を示す情報と、当該候補が前記入力に対する応答であることの信頼度を示す情報とを取得し、
前記制御部は、前記応答の候補を示す情報を、当該候補に対応する前記信頼度に応じた態様で、所定の出力部に提示させる、
前記(1)に記載の情報処理装置。
(3)
前記第1の情報と前記第2の情報とに基づき、前記応答の候補を示す情報と、当該候補に対応する前記信頼度を示す情報とを、前記抽出結果として出力する抽出部を備える、前記(2)に記載の情報処理装置。
(4)
前記抽出部は、
前記第1の情報に基づき抽出された前記入力に対する応答の候補それぞれに対応する前記信頼度を、前記第2の情報に基づき制御し、
当該制御後の前記信頼度に応じて、当該応答の候補のうち少なくとも一部の候補と、当該少なくとも一部の候補に対応する当該信頼度とを、前記抽出結果として出力する、
前記(3)に記載の情報処理装置。
(5)
前記取得部は、前記入力に対する応答の候補の前記抽出結果として、抽出された機能の候補を取得し、
前記制御部は、抽出された前記機能の候補を、前記出力部に提示させる、
前記(1)〜(4)のいずれか一項に記載の情報処理装置。
(6)
前記制御部は、提示された前記機能の候補のうち、一部の候補に対する選択を受けて、選択された当該候補に対応する機能を実行する、前記(5)に記載の情報処理装置。
(7)
前記制御部は、
抽出された前記機能の候補それぞれを示す表示情報を、前記出力部に提示させ、
前記表示情報に対する操作を受けて、当該操作の対象となる前記表示情報に対応する機能が選択されたものと認識する、前記(6)に記載の情報処理装置。
(8)
前記制御部は、提示された前記機能の候補のうち、一部の候補を示す音声入力を受けて、当該一部の候補が選択されたものと認識する、前記(6)に記載の情報処理装置。
(9)
前記制御部は、前記応答の候補を示す情報を、当該候補の抽出結果に応じた表示態様で、前記出力部に提示させる、前記(1)〜(8)のいずれか一項に記載の情報処理装置。
(10)
前記制御部は、複数の前記応答の候補それぞれを示す情報を、当該応答の候補それぞれの抽出結果に応じた順序で、前記出力部に提示させる、前記(1)〜(9)のいずれか一項に記載の情報処理装置。
(11)
前記第2の情報は、前記機器の状態を示す情報を含む、前記(1)〜(10)のいずれか一項に記載の情報処理装置。
(12)
前記第2の情報は、ユーザによる前記機器の過去の使用状況に基づく情報を含む、前記(1)〜(11)のいずれか一項に記載の情報処理装置。
(13)
ユーザによる前記機器の過去の使用状況に基づく情報は、当該ユーザにより入力された自然文に基づく情報の履歴を含む、前記(12)に記載の情報処理装置。
(14)
ユーザによる前記機器の過去の使用状況に基づく情報は、当該ユーザからの指示に基づき実行された機能の履歴を含む、前記(12)または(13)に記載の情報処理装置。
(15)
前記入力として取得された自然文に対して自然言語解析を施し、当該自然言語解析の結果を前記第1の情報として出力する自然言語処理部を備える、前記(1)〜(14)のいずれか一項に記載の情報処理装置。
(16)
入力として取得された自然文に対する自然言語解析の結果を示す第1の情報と、所定の機器の使用に伴う状態または状況を示す第2の情報とに基づく、前記入力に対する応答の候補の抽出結果を取得することと、
プロセッサが、前記応答の候補を示す情報を、当該候補の抽出結果に応じた態様で、所定の出力部に提示させることと、
を含む、情報処理方法。
(17)
コンピュータに、
入力として取得された自然文に対する自然言語解析の結果を示す第1の情報と、所定の機器の使用に伴う状態または状況を示す第2の情報とに基づく、前記入力に対する応答の候補の抽出結果を取得することと、
前記応答の候補を示す情報を、当該候補の抽出結果に応じた態様で、所定の出力部に提示させることと、
を実行させる、プログラム。
1 情報処理装置
10 制御部
101 音声認識部
103 入力解析部
105 自然言語処理部
107 状態検出部
109 機能判定部
111 出力制御部
113 処理実行部
21 集音部
23 入力部
30 記憶部
40 出力部

Claims (17)

  1. 入力として取得された自然文に対する自然言語解析の結果を示す第1の情報と、所定の機器の使用に伴う状態または状況を示す第2の情報とに基づく、前記入力に対する応答の候補の抽出結果を取得する取得部と、
    前記応答の候補を示す情報を、当該候補の抽出結果に応じた態様で、所定の出力部に提示させる制御部と、
    を備える、情報処理装置。
  2. 前記取得部は、前記抽出結果として、前記応答の候補を示す情報と、当該候補が前記入力に対する応答であることの信頼度を示す情報とを取得し、
    前記制御部は、前記応答の候補を示す情報を、当該候補に対応する前記信頼度に応じた態様で、所定の出力部に提示させる、
    請求項1に記載の情報処理装置。
  3. 前記第1の情報と前記第2の情報とに基づき、前記応答の候補を示す情報と、当該候補に対応する前記信頼度を示す情報とを、前記抽出結果として出力する抽出部を備える、請求項2に記載の情報処理装置。
  4. 前記抽出部は、
    前記第1の情報に基づき抽出された前記入力に対する応答の候補それぞれに対応する前記信頼度を、前記第2の情報に基づき制御し、
    当該制御後の前記信頼度に応じて、当該応答の候補のうち少なくとも一部の候補と、当該少なくとも一部の候補に対応する当該信頼度とを、前記抽出結果として出力する、
    請求項3に記載の情報処理装置。
  5. 前記取得部は、前記入力に対する応答の候補の前記抽出結果として、抽出された機能の候補を取得し、
    前記制御部は、抽出された前記機能の候補を、前記出力部に提示させる、
    請求項1に記載の情報処理装置。
  6. 前記制御部は、提示された前記機能の候補のうち、一部の候補に対する選択を受けて、選択された当該候補に対応する機能を実行する、請求項5に記載の情報処理装置。
  7. 前記制御部は、
    抽出された前記機能の候補それぞれを示す表示情報を、前記出力部に提示させ、
    前記表示情報に対する操作を受けて、当該操作の対象となる前記表示情報に対応する機能が選択されたものと認識する、請求項6に記載の情報処理装置。
  8. 前記制御部は、提示された前記機能の候補のうち、一部の候補を示す音声入力を受けて、当該一部の候補が選択されたものと認識する、請求項6に記載の情報処理装置。
  9. 前記制御部は、前記応答の候補を示す情報を、当該候補の抽出結果に応じた表示態様で、前記出力部に提示させる、請求項1に記載の情報処理装置。
  10. 前記制御部は、複数の前記応答の候補それぞれを示す情報を、当該応答の候補それぞれの抽出結果に応じた順序で、前記出力部に提示させる、請求項1に記載の情報処理装置。
  11. 前記第2の情報は、前記機器の状態を示す情報を含む、請求項1に記載の情報処理装置。
  12. 前記第2の情報は、ユーザによる前記機器の過去の使用状況に基づく情報を含む、請求項1に記載の情報処理装置。
  13. ユーザによる前記機器の過去の使用状況に基づく情報は、当該ユーザにより入力された自然文に基づく情報の履歴を含む、請求項12に記載の情報処理装置。
  14. ユーザによる前記機器の過去の使用状況に基づく情報は、当該ユーザからの指示に基づき実行された機能の履歴を含む、請求項12に記載の情報処理装置。
  15. 前記入力として取得された自然文に対して自然言語解析を施し、当該自然言語解析の結果を前記第1の情報として出力する自然言語処理部を備える、請求項1に記載の情報処理装置。
  16. 入力として取得された自然文に対する自然言語解析の結果を示す第1の情報と、所定の機器の使用に伴う状態または状況を示す第2の情報とに基づく、前記入力に対する応答の候補の抽出結果を取得することと、
    プロセッサが、前記応答の候補を示す情報を、当該候補の抽出結果に応じた態様で、所定の出力部に提示させることと、
    を含む、情報処理方法。
  17. コンピュータに、
    入力として取得された自然文に対する自然言語解析の結果を示す第1の情報と、所定の機器の使用に伴う状態または状況を示す第2の情報とに基づく、前記入力に対する応答の候補の抽出結果を取得することと、
    前記応答の候補を示す情報を、当該候補の抽出結果に応じた態様で、所定の出力部に提示させることと、
    を実行させる、プログラム。
JP2015029551A 2015-02-18 2015-02-18 情報処理装置、情報処理方法、及びプログラム Pending JP2016151928A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015029551A JP2016151928A (ja) 2015-02-18 2015-02-18 情報処理装置、情報処理方法、及びプログラム
PCT/JP2015/083234 WO2016132620A1 (ja) 2015-02-18 2015-11-26 情報処理装置、情報処理方法、及びプログラム
EP15882721.2A EP3260990A4 (en) 2015-02-18 2015-11-26 Information processing device, information processing method, and program
US15/547,336 US10528659B2 (en) 2015-02-18 2015-11-26 Information processing device and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015029551A JP2016151928A (ja) 2015-02-18 2015-02-18 情報処理装置、情報処理方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2016151928A true JP2016151928A (ja) 2016-08-22

Family

ID=56692161

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015029551A Pending JP2016151928A (ja) 2015-02-18 2015-02-18 情報処理装置、情報処理方法、及びプログラム

Country Status (4)

Country Link
US (1) US10528659B2 (ja)
EP (1) EP3260990A4 (ja)
JP (1) JP2016151928A (ja)
WO (1) WO2016132620A1 (ja)

Cited By (79)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180082347A (ko) * 2017-01-09 2018-07-18 애플 인크. 디지털 어시스턴트와의 애플리케이션 통합
JP2018187401A (ja) * 2018-06-15 2018-11-29 株式会社セガゲームス 情報処理装置、コミュニケーションサーバおよびゲームシステム
JP2019523907A (ja) * 2016-06-07 2019-08-29 グーグル エルエルシー パーソナルアシスタントモジュールによる非決定的なタスク開始
WO2019230090A1 (ja) * 2018-05-31 2019-12-05 ソニー株式会社 音声処理装置および音声処理方法
US10681212B2 (en) 2015-06-05 2020-06-09 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10714117B2 (en) 2013-02-07 2020-07-14 Apple Inc. Voice trigger for a digital assistant
US10720160B2 (en) 2018-06-01 2020-07-21 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
US10741185B2 (en) 2010-01-18 2020-08-11 Apple Inc. Intelligent automated assistant
US10741181B2 (en) 2017-05-09 2020-08-11 Apple Inc. User interface for correcting recognition errors
US10748546B2 (en) 2017-05-16 2020-08-18 Apple Inc. Digital assistant services based on device capabilities
JP2020525827A (ja) * 2017-06-27 2020-08-27 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation インテリジェント・チューターのための向上した視覚的ダイアログ・システム
US10839159B2 (en) 2018-09-28 2020-11-17 Apple Inc. Named entity normalization in a spoken dialog system
US10878809B2 (en) 2014-05-30 2020-12-29 Apple Inc. Multi-command single utterance input method
US10909171B2 (en) 2017-05-16 2021-02-02 Apple Inc. Intelligent automated assistant for media exploration
US10930282B2 (en) 2015-03-08 2021-02-23 Apple Inc. Competing devices responding to voice triggers
US10942703B2 (en) 2015-12-23 2021-03-09 Apple Inc. Proactive assistance based on dialog communication between devices
US11010127B2 (en) 2015-06-29 2021-05-18 Apple Inc. Virtual assistant for media playback
US11010561B2 (en) 2018-09-27 2021-05-18 Apple Inc. Sentiment prediction from textual data
US11009970B2 (en) 2018-06-01 2021-05-18 Apple Inc. Attention aware virtual assistant dismissal
US11037565B2 (en) 2016-06-10 2021-06-15 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US11070949B2 (en) 2015-05-27 2021-07-20 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on an electronic device with a touch-sensitive display
US11087759B2 (en) 2015-03-08 2021-08-10 Apple Inc. Virtual assistant activation
US11120372B2 (en) 2011-06-03 2021-09-14 Apple Inc. Performing actions associated with task items that represent tasks to perform
US11126400B2 (en) 2015-09-08 2021-09-21 Apple Inc. Zero latency digital assistant
US11133008B2 (en) 2014-05-30 2021-09-28 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
US11152002B2 (en) 2016-06-11 2021-10-19 Apple Inc. Application integration with a digital assistant
US11169616B2 (en) 2018-05-07 2021-11-09 Apple Inc. Raise to speak
US11170166B2 (en) 2018-09-28 2021-11-09 Apple Inc. Neural typographical error modeling via generative adversarial networks
US11217251B2 (en) 2019-05-06 2022-01-04 Apple Inc. Spoken notifications
US11227589B2 (en) 2016-06-06 2022-01-18 Apple Inc. Intelligent list reading
US11237797B2 (en) 2019-05-31 2022-02-01 Apple Inc. User activity shortcut suggestions
US11257504B2 (en) 2014-05-30 2022-02-22 Apple Inc. Intelligent assistant for home automation
US11269678B2 (en) 2012-05-15 2022-03-08 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11348582B2 (en) 2008-10-02 2022-05-31 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
US11380310B2 (en) 2017-05-12 2022-07-05 Apple Inc. Low-latency intelligent automated assistant
US11388291B2 (en) 2013-03-14 2022-07-12 Apple Inc. System and method for processing voicemail
US11405466B2 (en) 2017-05-12 2022-08-02 Apple Inc. Synchronization and task delegation of a digital assistant
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
US11423886B2 (en) 2010-01-18 2022-08-23 Apple Inc. Task flow identification based on user intent
US11431642B2 (en) 2018-06-01 2022-08-30 Apple Inc. Variable latency device coordination
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US11467802B2 (en) 2017-05-11 2022-10-11 Apple Inc. Maintaining privacy of personal information
US11468282B2 (en) 2015-05-15 2022-10-11 Apple Inc. Virtual assistant in a communication session
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
US11488406B2 (en) 2019-09-25 2022-11-01 Apple Inc. Text detection using global geometry estimators
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
US11500672B2 (en) 2015-09-08 2022-11-15 Apple Inc. Distributed personal assistant
US11516537B2 (en) 2014-06-30 2022-11-29 Apple Inc. Intelligent automated assistant for TV user interactions
US11526368B2 (en) 2015-11-06 2022-12-13 Apple Inc. Intelligent automated assistant in a messaging environment
US11532306B2 (en) 2017-05-16 2022-12-20 Apple Inc. Detecting a trigger of a digital assistant
US11580990B2 (en) 2017-05-12 2023-02-14 Apple Inc. User-specific acoustic models
US11599331B2 (en) 2017-05-11 2023-03-07 Apple Inc. Maintaining privacy of personal information
US11638059B2 (en) 2019-01-04 2023-04-25 Apple Inc. Content playback on multiple devices
US11657813B2 (en) 2019-05-31 2023-05-23 Apple Inc. Voice identification in digital assistant systems
US11671920B2 (en) 2007-04-03 2023-06-06 Apple Inc. Method and system for operating a multifunction portable electronic device using voice-activation
US11696060B2 (en) 2020-07-21 2023-07-04 Apple Inc. User identification using headphones
US11710482B2 (en) 2018-03-26 2023-07-25 Apple Inc. Natural assistant interaction
US11727219B2 (en) 2013-06-09 2023-08-15 Apple Inc. System and method for inferring user intent from speech inputs
US11755276B2 (en) 2020-05-12 2023-09-12 Apple Inc. Reducing description length based on confidence
US11765209B2 (en) 2020-05-11 2023-09-19 Apple Inc. Digital assistant hardware abstraction
US11790914B2 (en) 2019-06-01 2023-10-17 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
US11798547B2 (en) 2013-03-15 2023-10-24 Apple Inc. Voice activated device for use with a voice-based digital assistant
US11809783B2 (en) 2016-06-11 2023-11-07 Apple Inc. Intelligent device arbitration and control
US11809483B2 (en) 2015-09-08 2023-11-07 Apple Inc. Intelligent automated assistant for media search and playback
US11838734B2 (en) 2020-07-20 2023-12-05 Apple Inc. Multi-device audio adjustment coordination
US11854539B2 (en) 2018-05-07 2023-12-26 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US11853536B2 (en) 2015-09-08 2023-12-26 Apple Inc. Intelligent automated assistant in a media environment
US11886805B2 (en) 2015-11-09 2024-01-30 Apple Inc. Unconventional virtual assistant interactions
US11914848B2 (en) 2020-05-11 2024-02-27 Apple Inc. Providing relevant data items based on context
US11928604B2 (en) 2005-09-08 2024-03-12 Apple Inc. Method and apparatus for building an intelligent automated assistant
US12010262B2 (en) 2013-08-06 2024-06-11 Apple Inc. Auto-activating smart responses based on activities from remote devices
US12014118B2 (en) 2017-05-15 2024-06-18 Apple Inc. Multi-modal interfaces having selection disambiguation and text modification capability
US12026197B2 (en) 2017-06-01 2024-07-02 Apple Inc. Intelligent automated assistant for media exploration

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017199898A1 (ja) * 2016-05-19 2017-11-23 日本電気株式会社 情報提示装置、情報提示方法、および記録媒体
JPWO2017199899A1 (ja) * 2016-05-19 2019-03-14 日本電気株式会社 情報提示装置、情報提示方法、および記憶媒体
US20220108693A1 (en) * 2019-01-16 2022-04-07 Sony Group Corporation Response processing device and response processing method

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6996777B2 (en) * 2001-11-29 2006-02-07 Nokia Corporation Method and apparatus for presenting auditory icons in a mobile terminal
JP5496947B2 (ja) 2011-05-27 2014-05-21 株式会社Nttドコモ 機能提示システム、端末装置及びプログラム
US20130346068A1 (en) * 2012-06-25 2013-12-26 Apple Inc. Voice-Based Image Tagging and Searching
US9547647B2 (en) * 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
US9619459B2 (en) * 2012-10-01 2017-04-11 Nuance Communications, Inc. Situation aware NLU/NLP
JP6102588B2 (ja) 2013-07-10 2017-03-29 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US9530404B2 (en) * 2014-10-06 2016-12-27 Intel Corporation System and method of automatic speech recognition using on-the-fly word lattice generation with word histories
US9652799B2 (en) * 2014-12-18 2017-05-16 Nuance Communications, Inc. Product recommendation with product review analysis

Cited By (126)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11928604B2 (en) 2005-09-08 2024-03-12 Apple Inc. Method and apparatus for building an intelligent automated assistant
US11979836B2 (en) 2007-04-03 2024-05-07 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US11671920B2 (en) 2007-04-03 2023-06-06 Apple Inc. Method and system for operating a multifunction portable electronic device using voice-activation
US11348582B2 (en) 2008-10-02 2022-05-31 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US11900936B2 (en) 2008-10-02 2024-02-13 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US10741185B2 (en) 2010-01-18 2020-08-11 Apple Inc. Intelligent automated assistant
US11423886B2 (en) 2010-01-18 2022-08-23 Apple Inc. Task flow identification based on user intent
US11120372B2 (en) 2011-06-03 2021-09-14 Apple Inc. Performing actions associated with task items that represent tasks to perform
US11321116B2 (en) 2012-05-15 2022-05-03 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US11269678B2 (en) 2012-05-15 2022-03-08 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US11557310B2 (en) 2013-02-07 2023-01-17 Apple Inc. Voice trigger for a digital assistant
US11862186B2 (en) 2013-02-07 2024-01-02 Apple Inc. Voice trigger for a digital assistant
US10714117B2 (en) 2013-02-07 2020-07-14 Apple Inc. Voice trigger for a digital assistant
US11636869B2 (en) 2013-02-07 2023-04-25 Apple Inc. Voice trigger for a digital assistant
US12009007B2 (en) 2013-02-07 2024-06-11 Apple Inc. Voice trigger for a digital assistant
US10978090B2 (en) 2013-02-07 2021-04-13 Apple Inc. Voice trigger for a digital assistant
US11388291B2 (en) 2013-03-14 2022-07-12 Apple Inc. System and method for processing voicemail
US11798547B2 (en) 2013-03-15 2023-10-24 Apple Inc. Voice activated device for use with a voice-based digital assistant
US11727219B2 (en) 2013-06-09 2023-08-15 Apple Inc. System and method for inferring user intent from speech inputs
US12010262B2 (en) 2013-08-06 2024-06-11 Apple Inc. Auto-activating smart responses based on activities from remote devices
US11257504B2 (en) 2014-05-30 2022-02-22 Apple Inc. Intelligent assistant for home automation
US11699448B2 (en) 2014-05-30 2023-07-11 Apple Inc. Intelligent assistant for home automation
US10878809B2 (en) 2014-05-30 2020-12-29 Apple Inc. Multi-command single utterance input method
US11670289B2 (en) 2014-05-30 2023-06-06 Apple Inc. Multi-command single utterance input method
US11810562B2 (en) 2014-05-30 2023-11-07 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US11133008B2 (en) 2014-05-30 2021-09-28 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US11516537B2 (en) 2014-06-30 2022-11-29 Apple Inc. Intelligent automated assistant for TV user interactions
US11838579B2 (en) 2014-06-30 2023-12-05 Apple Inc. Intelligent automated assistant for TV user interactions
US10930282B2 (en) 2015-03-08 2021-02-23 Apple Inc. Competing devices responding to voice triggers
US11842734B2 (en) 2015-03-08 2023-12-12 Apple Inc. Virtual assistant activation
US11087759B2 (en) 2015-03-08 2021-08-10 Apple Inc. Virtual assistant activation
US11468282B2 (en) 2015-05-15 2022-10-11 Apple Inc. Virtual assistant in a communication session
US12001933B2 (en) 2015-05-15 2024-06-04 Apple Inc. Virtual assistant in a communication session
US11070949B2 (en) 2015-05-27 2021-07-20 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on an electronic device with a touch-sensitive display
US10681212B2 (en) 2015-06-05 2020-06-09 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US11947873B2 (en) 2015-06-29 2024-04-02 Apple Inc. Virtual assistant for media playback
US11010127B2 (en) 2015-06-29 2021-05-18 Apple Inc. Virtual assistant for media playback
US11550542B2 (en) 2015-09-08 2023-01-10 Apple Inc. Zero latency digital assistant
US11809483B2 (en) 2015-09-08 2023-11-07 Apple Inc. Intelligent automated assistant for media search and playback
US11500672B2 (en) 2015-09-08 2022-11-15 Apple Inc. Distributed personal assistant
US11126400B2 (en) 2015-09-08 2021-09-21 Apple Inc. Zero latency digital assistant
US11853536B2 (en) 2015-09-08 2023-12-26 Apple Inc. Intelligent automated assistant in a media environment
US11954405B2 (en) 2015-09-08 2024-04-09 Apple Inc. Zero latency digital assistant
US11526368B2 (en) 2015-11-06 2022-12-13 Apple Inc. Intelligent automated assistant in a messaging environment
US11809886B2 (en) 2015-11-06 2023-11-07 Apple Inc. Intelligent automated assistant in a messaging environment
US11886805B2 (en) 2015-11-09 2024-01-30 Apple Inc. Unconventional virtual assistant interactions
US10942703B2 (en) 2015-12-23 2021-03-09 Apple Inc. Proactive assistance based on dialog communication between devices
US11227589B2 (en) 2016-06-06 2022-01-18 Apple Inc. Intelligent list reading
JP2019523907A (ja) * 2016-06-07 2019-08-29 グーグル エルエルシー パーソナルアシスタントモジュールによる非決定的なタスク開始
US11037565B2 (en) 2016-06-10 2021-06-15 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US11657820B2 (en) 2016-06-10 2023-05-23 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US11809783B2 (en) 2016-06-11 2023-11-07 Apple Inc. Intelligent device arbitration and control
US11152002B2 (en) 2016-06-11 2021-10-19 Apple Inc. Application integration with a digital assistant
US11749275B2 (en) 2016-06-11 2023-09-05 Apple Inc. Application integration with a digital assistant
JP2020077364A (ja) * 2017-01-09 2020-05-21 アップル インコーポレイテッドApple Inc. デジタルアシスタントとのアプリケーション統合
US11656884B2 (en) 2017-01-09 2023-05-23 Apple Inc. Application integration with a digital assistant
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
JP7146709B2 (ja) 2017-01-09 2022-10-04 アップル インコーポレイテッド デジタルアシスタントとのアプリケーション統合
KR102030784B1 (ko) 2017-01-09 2019-10-10 애플 인크. 디지털 어시스턴트와의 애플리케이션 통합
KR20190116960A (ko) * 2017-01-09 2019-10-15 애플 인크. 디지털 어시스턴트와의 애플리케이션 통합
KR102189314B1 (ko) 2017-01-09 2020-12-11 애플 인크. 디지털 어시스턴트와의 애플리케이션 통합
JP2018113035A (ja) * 2017-01-09 2018-07-19 アップル インコーポレイテッド デジタルアシスタントとのアプリケーション統合
KR20180082347A (ko) * 2017-01-09 2018-07-18 애플 인크. 디지털 어시스턴트와의 애플리케이션 통합
US10741181B2 (en) 2017-05-09 2020-08-11 Apple Inc. User interface for correcting recognition errors
US11467802B2 (en) 2017-05-11 2022-10-11 Apple Inc. Maintaining privacy of personal information
US11599331B2 (en) 2017-05-11 2023-03-07 Apple Inc. Maintaining privacy of personal information
US11837237B2 (en) 2017-05-12 2023-12-05 Apple Inc. User-specific acoustic models
US11380310B2 (en) 2017-05-12 2022-07-05 Apple Inc. Low-latency intelligent automated assistant
US11405466B2 (en) 2017-05-12 2022-08-02 Apple Inc. Synchronization and task delegation of a digital assistant
US11862151B2 (en) 2017-05-12 2024-01-02 Apple Inc. Low-latency intelligent automated assistant
US11580990B2 (en) 2017-05-12 2023-02-14 Apple Inc. User-specific acoustic models
US11538469B2 (en) 2017-05-12 2022-12-27 Apple Inc. Low-latency intelligent automated assistant
US12014118B2 (en) 2017-05-15 2024-06-18 Apple Inc. Multi-modal interfaces having selection disambiguation and text modification capability
US11532306B2 (en) 2017-05-16 2022-12-20 Apple Inc. Detecting a trigger of a digital assistant
US10748546B2 (en) 2017-05-16 2020-08-18 Apple Inc. Digital assistant services based on device capabilities
US11675829B2 (en) 2017-05-16 2023-06-13 Apple Inc. Intelligent automated assistant for media exploration
US10909171B2 (en) 2017-05-16 2021-02-02 Apple Inc. Intelligent automated assistant for media exploration
US12026197B2 (en) 2017-06-01 2024-07-02 Apple Inc. Intelligent automated assistant for media exploration
JP2020525827A (ja) * 2017-06-27 2020-08-27 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation インテリジェント・チューターのための向上した視覚的ダイアログ・システム
JP7135010B2 (ja) 2017-06-27 2022-09-12 インターナショナル・ビジネス・マシーンズ・コーポレーション インテリジェント・チューターのための向上した視覚的ダイアログ・システム
US11710482B2 (en) 2018-03-26 2023-07-25 Apple Inc. Natural assistant interaction
US11169616B2 (en) 2018-05-07 2021-11-09 Apple Inc. Raise to speak
US11854539B2 (en) 2018-05-07 2023-12-26 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US11900923B2 (en) 2018-05-07 2024-02-13 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US11487364B2 (en) 2018-05-07 2022-11-01 Apple Inc. Raise to speak
US11907436B2 (en) 2018-05-07 2024-02-20 Apple Inc. Raise to speak
WO2019230090A1 (ja) * 2018-05-31 2019-12-05 ソニー株式会社 音声処理装置および音声処理方法
US10720160B2 (en) 2018-06-01 2020-07-21 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
US11431642B2 (en) 2018-06-01 2022-08-30 Apple Inc. Variable latency device coordination
US10984798B2 (en) 2018-06-01 2021-04-20 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
US11009970B2 (en) 2018-06-01 2021-05-18 Apple Inc. Attention aware virtual assistant dismissal
US11360577B2 (en) 2018-06-01 2022-06-14 Apple Inc. Attention aware virtual assistant dismissal
US11630525B2 (en) 2018-06-01 2023-04-18 Apple Inc. Attention aware virtual assistant dismissal
JP2018187401A (ja) * 2018-06-15 2018-11-29 株式会社セガゲームス 情報処理装置、コミュニケーションサーバおよびゲームシステム
US11010561B2 (en) 2018-09-27 2021-05-18 Apple Inc. Sentiment prediction from textual data
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US10839159B2 (en) 2018-09-28 2020-11-17 Apple Inc. Named entity normalization in a spoken dialog system
US11893992B2 (en) 2018-09-28 2024-02-06 Apple Inc. Multi-modal inputs for voice commands
US11170166B2 (en) 2018-09-28 2021-11-09 Apple Inc. Neural typographical error modeling via generative adversarial networks
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
US11638059B2 (en) 2019-01-04 2023-04-25 Apple Inc. Content playback on multiple devices
US11783815B2 (en) 2019-03-18 2023-10-10 Apple Inc. Multimodality in digital assistant systems
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
US11217251B2 (en) 2019-05-06 2022-01-04 Apple Inc. Spoken notifications
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11705130B2 (en) 2019-05-06 2023-07-18 Apple Inc. Spoken notifications
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
US11675491B2 (en) 2019-05-06 2023-06-13 Apple Inc. User configurable task triggers
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
US11888791B2 (en) 2019-05-21 2024-01-30 Apple Inc. Providing message response suggestions
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
US11657813B2 (en) 2019-05-31 2023-05-23 Apple Inc. Voice identification in digital assistant systems
US11237797B2 (en) 2019-05-31 2022-02-01 Apple Inc. User activity shortcut suggestions
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
US11360739B2 (en) 2019-05-31 2022-06-14 Apple Inc. User activity shortcut suggestions
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
US11790914B2 (en) 2019-06-01 2023-10-17 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
US11488406B2 (en) 2019-09-25 2022-11-01 Apple Inc. Text detection using global geometry estimators
US11914848B2 (en) 2020-05-11 2024-02-27 Apple Inc. Providing relevant data items based on context
US11924254B2 (en) 2020-05-11 2024-03-05 Apple Inc. Digital assistant hardware abstraction
US11765209B2 (en) 2020-05-11 2023-09-19 Apple Inc. Digital assistant hardware abstraction
US11755276B2 (en) 2020-05-12 2023-09-12 Apple Inc. Reducing description length based on confidence
US11838734B2 (en) 2020-07-20 2023-12-05 Apple Inc. Multi-device audio adjustment coordination
US11750962B2 (en) 2020-07-21 2023-09-05 Apple Inc. User identification using headphones
US11696060B2 (en) 2020-07-21 2023-07-04 Apple Inc. User identification using headphones

Also Published As

Publication number Publication date
US10528659B2 (en) 2020-01-07
WO2016132620A1 (ja) 2016-08-25
EP3260990A4 (en) 2018-10-10
US20180024985A1 (en) 2018-01-25
EP3260990A1 (en) 2017-12-27

Similar Documents

Publication Publication Date Title
WO2016132620A1 (ja) 情報処理装置、情報処理方法、及びプログラム
KR102475223B1 (ko) 사용자 디바이스에서 상황 인식 서비스 제공 방법 및 장치
KR102585228B1 (ko) 음성 인식 시스템 및 방법
EP3437092B1 (en) Intelligent device arbitration and control
US10546582B2 (en) Information processing device, method of information processing, and program
CN109739469B (zh) 用户装置的情景感知服务提供方法和设备
CN107924313B (zh) 分布式个人助理
KR101061443B1 (ko) 전자 기기, 이동 단말기 및 이를 이용한 기능 수행 방법
US11551682B2 (en) Method of performing function of electronic device and electronic device using same
KR20170020841A (ko) 통신 개시를 위한 사용자 신호 레버리징
KR20190019401A (ko) 전자 장치 및 그 제어 방법
EP3419020B1 (en) Information processing device, information processing method and program
KR102630662B1 (ko) 어플리케이션 실행 방법 및 이를 지원하는 전자 장치
CN111640429B (zh) 提供语音识别服务的方法和用于该方法的电子装置
KR20200106703A (ko) 사용자 선택 기반의 정보를 제공하는 방법 및 장치
KR102629796B1 (ko) 음성 인식의 향상을 지원하는 전자 장치
KR20210116897A (ko) 외부 장치의 음성 기반 제어를 위한 방법 및 그 전자 장치
JPWO2017175442A1 (ja) 情報処理装置、および情報処理方法
US20210224066A1 (en) Information processing device and information processing method
KR20200100367A (ko) 루틴을 제공하기 위한 방법 및 이를 지원하는 전자 장치
KR20130106691A (ko) 에이전트 서비스 방법, 이를 위한 전자 기기, 서버 및 기록 매체
KR20200040562A (ko) 사용자 발화를 처리하기 위한 시스템
US11183167B2 (en) Determining an output position of a subject in a notification based on attention acquisition difficulty
CN114721310A (zh) 智能设备控制方法、扩展设备控制方法、装置及存储介质
KR20210111423A (ko) 사용자 입력을 처리하는 전자 장치 및 방법