JPWO2014103568A1 - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JPWO2014103568A1
JPWO2014103568A1 JP2014554243A JP2014554243A JPWO2014103568A1 JP WO2014103568 A1 JPWO2014103568 A1 JP WO2014103568A1 JP 2014554243 A JP2014554243 A JP 2014554243A JP 2014554243 A JP2014554243 A JP 2014554243A JP WO2014103568 A1 JPWO2014103568 A1 JP WO2014103568A1
Authority
JP
Japan
Prior art keywords
information processing
processing apparatus
utterance content
character string
present
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014554243A
Other languages
English (en)
Inventor
知昭 武村
知昭 武村
慎哉 桝永
慎哉 桝永
藤田 孝次
孝次 藤田
石綿 克利
克利 石綿
健一 池永
健一 池永
克敏 楠元
克敏 楠元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2014103568A1 publication Critical patent/JPWO2014103568A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/242Dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/268Morphological analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/221Announcement of recognition results

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Stored Programmes (AREA)
  • Debugging And Monitoring (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

音声認識の結果得られる発話内容を示す文字列を解析する解析部と、発話内容を示す文字列と解析の結果とを、表示画面に表示させる表示制御部と、を備える、情報処理装置が提供される。【選択図】図9

Description

本開示は、情報処理装置、情報処理方法、およびプログラムに関する。
音声を認識して処理を行うことが可能な装置が登場している。また、音声入力を用いる技術も開発されている。音声入力と他の入力とを併用する技術としては、例えば、下記の特許文献1に記載の技術が挙げられる。
特開2001−166914号公報
例えば上記特許文献1に記載の技術が用いられる場合を含め、音声を認識して処理を行うことが可能な既存の装置(以下、単に「既存の装置」と示す場合がある。)では、発話内容のどの部分が認識されて処理が行われたのかを、ユーザは知ることができない。そのため、既存の装置が用いられる場合には、例えば“当該装置における音声発話によるその後の挙動が、ユーザに十分に伝わらない”など、ユーザの利便性を低下させうる事態が起こりうる。
本開示では、ユーザの利便性の向上を図ることが可能な、新規かつ改良された情報処理装置、情報処理方法、およびプログラムを提案する。
本開示によれば、音声認識の結果得られる発話内容を示す文字列を解析する解析部と、上記発話内容を示す文字列と解析の結果とを、表示画面に表示させる表示制御部と、を備える、情報処理装置が提供される。
また、本開示によれば、音声認識の結果得られる発話内容を示す文字列を解析するステップと、上記発話内容を示す文字列と解析の結果とを、表示画面に表示させるステップと、を有する、情報処理方法が提供される。
また、本開示によれば、音声認識の結果得られる発話内容を示す文字列を解析するステップ、上記発話内容を示す文字列と、解析の結果とを表示画面に表示させるステップ、をコンピュータに実行させるためのプログラムが提供される。
本開示によれば、ユーザの利便性の向上を図ることができる。
本実施形態に係る情報処理方法に係る処理の概要を説明するための説明図である。 本実施形態に係る情報処理方法に係る処理の第1の例を示す流れ図である。 本実施形態に係る情報処理方法に係る処理の第2の例を示す流れ図である。 本実施形態に係る動作解析用の辞書の一例を示す説明図である。 本実施形態に係る解析結果と対応するアプリケーションやサービスの一例を示す説明図である。 本実施形態に係る情報処理方法に係る処理の第3の例を示す流れ図である。 本実施形態に係るスコア調整用の辞書の一例を示す説明図である。 本実施形態に係る時制解析用の辞書の一例を示す説明図である。 本実施形態に係る情報処理装置の構成の一例を示すブロック図である。 本実施形態に係る情報処理装置のハードウェア構成の一例を示す説明図である。 本実施形態に係る情報処理システムの一例を示す説明図である。 本実施形態に係る情報処理システムにおける処理の一例を示す説明図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、以下では、下記に示す順序で説明を行う。
1.本実施形態に係る情報処理方法
2.本実施形態に係る情報処理装置
3.本実施形態に係る情報処理システム
4.本実施形態に係るプログラム
(本実施形態に係る情報処理方法)
本実施形態に係る情報処理装置の構成について説明する前に、まず、本実施形態に係る情報処理方法について説明する。以下では、本実施形態に係る情報処理装置が、本実施形態に係る情報処理方法に係る処理を行う場合を例に挙げて、本実施形態に係る情報処理方法について説明する。
[1]本実施形態に係る情報処理方法の概要
上述したように、既存の装置が用いられる場合には、発話内容のどの部分が認識されて処理が行われたのかを、ユーザは知ることができない。そのため、既存の装置が用いられる場合には、例えば“当該装置における音声発話によるその後の挙動が、ユーザに十分に伝わらない”など、ユーザの利便性を低下させうる事態が起こりうる。
そこで、本実施形態に係る情報処理装置は、音声認識の結果得られる発話内容の文字列(以下、単に「発話内容の文字列」と示す場合がある。)を解析する(解析処理)。そして、本実施形態に係る情報処理装置は、発話内容の文字列と解析の結果とを、表示画面に表示させる(表示制御処理)。
ここで、本実施形態に係る情報処理装置は、例えば、発話内容を示す音声データに対して音声認識に係る処理を行うことによって、処理対象となる発話内容の文字列を得るが、本実施形態に係る処理対象となる発話内容の文字列の取得方法は、上記に限られない。例えば、本実施形態に係る情報処理装置は、サーバなどの外部装置において音声認識に係る処理が行われた結果得られる発話内容の文字列を示すデータを、当該外部装置から取得することによって、処理対象となる発話内容の文字列を得てもよい。
また、本実施形態に係る音声認識に係る処理としては、例えば、統計的手法を用いた処理や、隠れマルコフモデルを利用した処理などが挙げられるが、本実施形態に係る音声認識に係る処理は、上記に限られない。例えば、本実施形態に係る情報処理装置、または、サーバなどの外部装置は、発話内容を示す音声データから発話内容の文字列を得ることが可能な、任意の処理を用いることが可能である。
また、本実施形態に係る情報処理装置が発話内容の文字列と解析の結果とを表示させる表示画面としては、例えば、自装置(本実施形態に係る情報処理装置)が備える表示部(後述する)が挙げられるが、本実施形態に係る情報処理装置が発話内容の文字列と解析の結果とを表示させる表示画面は、上記に限られない。例えば、本実施形態に係る情報処理装置は、有線または無線で接続された外部装置が備える表示デバイスの表示画面に、発話内容の文字列と解析の結果とを表示させてもよい。
本実施形態に係る情報処理装置が、音声認識の結果得られる発話内容の文字列を表示画面に表示させることによって、発話を行ったユーザは、発話がどのように音声認識されたかを視覚的に把握することができる。
また、本実施形態に係る情報処理装置が、発話内容の文字列に対する解析の結果を、発話内容の文字列と共に併せて表示させることによって、発話を行ったユーザは、発話がどのように解析されたかを視覚的に把握することができる。よって、発話を行ったユーザは、発話によってその後に行われた、装置(例えば、本実施形態に係る情報処理装置や、本実施形態に係る情報処理装置によって動作が制御される装置など)における処理が、発話内容のどの部分が認識されて行われたのかを、把握することが可能となる。
したがって、本実施形態に係る情報処理装置が、本実施形態に係る情報処理方法に係る処理として、(1)解析処理、および(2)表示制御処理、を行うことによって、ユーザの利便性の向上を図ることができる。
図1は、本実施形態に係る情報処理方法に係る処理の概要を説明するための説明図であり、本実施形態に係る情報処理装置が表示画面に表示させる画面の一例を示している。
図1に示すAは、テレビ受像機を対象としたアプリケーションの選択画面の一例を示しており、図1に示すA1は、ユーザが音声認識を行わせるためのアプリケーションを選択するためのアイコンの一例を示している。
図1のAに示す画面において、例えばユーザ操作により図1のA1に示すアイコンが選択された場合には、例えば図1のBに示すような、ユーザが音声認識を行わせるためのアプリケーションの実行画面が表示される。
図1のBに示す画面において、ユーザが、マイクロホンなどの音声入力デバイスに対して発話を行うと、本実施形態に係る情報処理装置は、発話内容の文字列を示すデータに基づいて、本実施形態に係る情報処理方法に係る上記(1)の処理(解析処理)を行う。そして、本実施形態に係る情報処理装置は、本実施形態に係る情報処理方法に係る上記(2)の処理(表示制御処理)を行うことによって、例えば図1のCに示すような、発話内容の文字列と解析の結果とが併せて表示される画面を表示させる。
ここで、図1のCでは、ユーザが「明日のXXXが見たい」と発話した場合に表示される画面の一例を示している。図1のC1に示すように、本実施形態に係る情報処理装置は、例えば、「明日のXXXが見たい」という発話内容を示す文字列を表示させ、さらに、解析の結果を表示させる。
図1のCでは、本実施形態に係る情報処理装置が、発話内容を示す文字列の解析の結果を、クォーテーションマークで強調して示す例を示しているが、本実施形態に係る解析の結果の表示方法は、上記に限られない。例えば、本実施形態に係る情報処理装置は、文字に下線を引くことや、文字の色やフォントを変えることなど、視覚的な変化を文字に与えることが可能な任意の方法によって、発話内容を示す文字列の解析の結果を強調して表示してもよい。
また、本実施形態に係る情報処理装置は、例えば図1のCのC2に示すように、本実施形態に係る情報処理方法に係る上記(2)の処理(表示制御処理)を行うことによって、発話内容に対応するアプリケーション、および/または、発話内容に対応するサービスを、表示画面に表示させてもよい。
ここで、本実施形態に係る発話内容に対応するアプリケーションとしては、例えば、テレビジョン放送の番組表を表示させるアプリケーションや、テレビジョン放送の視聴に係るアプリケーション、録画されているコンテンツのリストを表示させるアプリケーション、記録媒体に記憶されているコンテンツの再生に係るアプリケーション、ホームネットワークなどのネットワークに接続するためのアプリケーションなど、様々なアプリケーションが挙げられる。また、本実施形態に係る発話内容に対応するサービスとしては、例えば、ビデオサービスや、ミュージックサービス、画像投稿Webサイトで提供されるサービス、検索サイトなどで提供される検索サービスなど、様々なサービスが挙げられる。
例えば図1のCのC2に示す“TV番組”が選択されると、例えば図1のDに示すような、選択されたアプリケーションや選択されたサービスに対応する画面が表示される。
例えば図1のCのC1に示すように、本実施形態に係る情報処理装置は、発話内容を示す文字列と、解析の結果とを表示画面に表示させる。よって、例えば図1のCに示す画面を見たユーザは、発話内容を示す文字列によって、発話がどのように音声認識されたかを視覚的に把握することができ、また、クォーテーションマークのように強調表示されることによって、発話がどのように解析されたかを視覚的に把握することができる。
したがって、本実施形態に係る情報処理装置は、ユーザの利便性の向上を図ることができる。なお、本実施形態に係る情報処理装置が、本実施形態に係る情報処理方法に係る処理によって表示させる画面が、図1のCに示す例に限られず、また、本実施形態に係る情報処理装置が表示させる画面が、図1のA、図1のB、図1のDに示す例に限られないことは、言うまでもない。
[2]本実施形態に係る情報処理方法に係る処理の一例
次に、本実施形態に係る情報処理装置における、本実施形態に係る情報処理方法に係る処理について、より具体的に説明する。上述したように、本実施形態に係る情報処理装置は、本実施形態に係る情報処理方法に係る処理として、例えば、上記(1)の処理(解析処理)および上記(2)の処理(表示制御処理)を行う。
(1)解析処理
本実施形態に係る情報処理装置は、音声認識の結果得られる発話内容を示す文字列を解析する。
本実施形態に係る情報処理装置は、例えば、記憶部(後述する)や外部記録媒体に記憶されている構文解析用の辞書を用いて、形態素解析を行うことによって、発話内容を示す文字列を、名詞や動詞などの単語に分割する。ここで、本実施形態に係る辞書は、例えば、データベース形式のデータであってもよいし、テーブル形式のデータであってもよい。
また、本実施形態に係る情報処理装置は、例えば、さらに、記憶部(後述する)や外部記録媒体に記憶されている意味解析用の辞書を用いて、発話内容を示す文字列に対して意味解析(または意図解析)を行ってもよい。
なお、本実施形態に係る(1)の処理(解析処理)は、上記に限られない。
例えば、本実施形態に係る情報処理装置は、発話内容を示す文字列に対する構文解析の結果、または、構文解析の結果および発話内容を示す文字列に対する意味解析の結果に基づいて、発話内容を示す文字列にスコアを設定してもよい。
ここで、本実施形態に係る情報処理装置は、例えば、形態素解析などによって分割された単語ごとにスコアを設定する。より具体的には、本実施形態に係る情報処理装置は、例えば、分割された単語それぞれに対して基準スコアを設定し、分割された単語それぞれに設定されたスコアを調整することによって、分割された単語それぞれに対応するスコアを設定する。本実施形態に係るスコアの設定に係る処理の一例については、後述する。
(1)の処理(解析処理)において設定されたスコアは、例えば、後述する本実施形態に係る実行処理において用いられる。本実施形態に係るスコアの設定に係る処理の一例、および設定されたスコアが利用される処理の一例については、後述する。
また、本実施形態に係る情報処理装置は、例えば、発話内容を示す文字列に対して動作を解析してもよい。本実施形態に係る情報処理装置は、例えば、記憶部(後述する)や外部記録媒体に記憶されている動作解析用の辞書を用いて、形態素解析などによって分割された単語の中に、動作解析用の辞書に登録されている動作を示す単語が含まれているか否かを判定することによって、発話内容を示す文字列に対して動作を解析する。
(1)の処理(解析処理)における動作の解析結果は、例えば(2)の処理(表示制御処理)において用いられる。(2)の処理(表示制御処理)における動作の解析結果が利用される処理の一例については、後述する。
また、本実施形態に係る情報処理装置は、例えば、発話内容を示す文字列に対して時制を解析してもよい。本実施形態に係る情報処理装置は、例えば、記憶部(後述する)や外部記録媒体に記憶されている時制解析用の辞書を用いて、形態素解析などによって分割された単語の中に、時制解析用の辞書に登録されている時制を示す単語が含まれているか否かを判定することによって、発話内容を示す文字列に対して時制を解析する。
(1)の処理(解析処理)における時制の解析結果は、例えば、後述する本実施形態に係る実行処理において用いられる。後述する本実施形態に係る実行処理における時制の解析結果が利用される処理の一例については、後述する。
また、形態素解析などによって分割された単語には、音声認識のゆらぎが存在する場合がある。本実施形態に係る音声認識のゆらぎとは、例えば、“特定の漢字で表される単語が、平仮名で表されてしまうこと”や、“正式名称ではなく略称で発話された場合に、分割された単語が、当該略称となること”などが挙げられる。上記のような音声認識のゆらぎが生じた場合には、例えば後述する本実施形態に係る実行処理などにおいて、正常に処理が行えないことや、ユーザが所望する処理結果を得ることができないことなどが生じる可能性がある。
そこで、本実施形態に係る情報処理装置は、例えば、上記のような正常に処理が行えないことなどを防止するために、音声認識のゆらぎを補正してもよい。本実施形態に係る情報処理装置は、例えば、記憶部(後述する)や外部記録媒体に記憶されているゆらぎ吸収用の辞書を用いて、形態素解析などによって分割された単語を置換することによって、音声認識のゆらぎを補正する。
本実施形態に係る情報処理装置が、(1)の処理(解析処理)において音声認識のゆらぎを補正する場合には、(2)の処理(表示制御処理)において表示される画面には、音声認識のゆらぎが補正された発話内容を示す文字列が、表示される。
本実施形態に係る情報処理装置は、例えば、上記のような処理のうちの1または2以上の処理を、本実施形態に係る解析処理として行う。なお、本実施形態に係る解析処理が、上記に示す処理の例に限られないことは、言うまでもない。
(2)表示制御処理
本実施形態に係る情報処理装置は、発話内容を示す文字列と、上記(1)の処理(解析処理)における解析の結果とを、表示画面に表示させる。ここで、本実施形態に係る情報処理装置は、例えば図1のCのC1に示すように、解析の結果が強調表示されるように、発話内容を示す文字列と解析の結果とを表示させる。
また、本実施形態に係る情報処理装置は、例えば、表示画面に表示させる発話内容を示す文字列を、編集することが可能な状態で表示させてもよい。本実施形態に係る情報処理装置は、例えば、発話内容を示す文字列の全体、または、発話内容を示す文字列における、形態素解析などによって分割された単語ごとに、文字列を編集可能とする。
ここで、本実施形態に係る情報処理装置は、例えば、キーボードなどの入力デバイスや、ソフトウェアキーボードなどの仮想的な入力デバイスを用いた入力操作によって、ユーザによる発話内容を示す文字列の編集を可能とする。なお、本実施形態に係る発話内容を示す文字列の編集方法は、上記に限られない。例えば、本実施形態に係る情報処理装置は、ユーザによる発話によって、ユーザによる発話内容を示す文字列の編集を可能としてもよい。
例えば、音声認識に係る処理が行われる場合、誤認識により、音声認識の結果に誤りが存在することが起こりうる。ここで、既存の装置では、誤認識された結果に基づいてそのまま処理を行うため、処理の再試行が必要となり、また、再試行時にはユーザが再度発話をやり直さなければならない。また、既存の装置が用いられる場合には、上述したように、発話内容のどの部分が認識されて処理が行われたのかを、ユーザは知ることができない。さらには、既存の装置では、再度発話が行われたとしても、再度誤認識が生じうることから、ユーザが何度も発話をやり直さなければユーザが所望する動作が実現されないなど、ユーザの利便性の低下が生じる事態が発生しうる。
これに対して、本実施形態に係る情報処理装置は、上述したように、発話内容を示す文字列を表示画面に表示させるので、発話を行ったユーザは、音声認識における誤認識を視覚的に把握することができる。また、本実施形態に係る情報処理装置が、表示画面に表示させる発話内容を示す文字列を編集することが可能な状態で表示させることによって、仮に、音声認識の結果得られる発話内容の文字列に誤りが存在する場合であっても、ユーザは、当該誤り部分を修正して、例えば後述する実行処理を、本実施形態に係る情報処理装置(または、外部装置)に行わせることができる。
したがって、発話内容を示す文字列を編集することが可能な状態で表示させることによって、本実施形態に係る情報処理装置は、例えば、ユーザに発話内容の修正を促すことを可能とし、より精度の高い処理を、自装置(本実施形態に係る情報処理装置)または外部装置に行わせることができる。また、発話内容を示す文字列を編集することが可能な状態で表示させることによって、ユーザは、例えば、ユーザが何度も発話をやり直さなければユーザが所望する動作が実現されないことなどが防止されるので、ユーザの利便性をより向上させることができる。
また、本実施形態に係る情報処理装置は、例えば図1のCのC2に示すように、上記(1)の処理(解析処理)における解析の結果に基づいて、発話内容に対応するアプリケーション、および/または、発話内容に対応するサービスを、さらに表示画面に表示させてもよい。
ここで、本実施形態に係る情報処理装置は、例えば、能力情報に基づいて、表示画面に表示させるアプリケーションの候補、および/または、表示画面に表示させるサービスの候補を決定する。そして、本実施形態に係る情報処理装置は、例えば、決定されたアプリケーションの候補および/またはサービスの候補の中から、上記(1)の処理(解析処理)における解析の結果に対応するアプリケーション、サービスを選択して、選択されたアプリケーション、サービスを、表示画面に表示させる。
本実施形態に係る能力情報としては、例えば、装置が有する能力を示すデータ(例えば、装置が有する機能を示すデータや、各機能の能力を示すデータなど)が挙げられる。ここで、本実施形態に係る情報処理装置が処理に用いる能力情報としては、例えば、自装置(本実施形態に係る情報処理装置)の能力情報や、本実施形態に係る情報処理装置が機能の制御を行う外部装置が挙げられる。以下では、本実施形態に係る情報処理装置が処理に用いる能力情報に対応する装置、すなわち、本実施形態に係る情報処理装置が機能の制御を行う対象の装置を、「制御対象装置」と示す場合がある。
また、本実施形態に係る情報処理装置は、例えば、上記(1)の処理(解析処理)における解析の結果に対応するアプリケーションおよび/またはサービスの一覧の中から、能力情報に基づいて、表示画面に表示させるアプリケーションの候補、および/または、表示画面に表示させるサービスの候補を決定してもよい。上記の場合には、本実施形態に係る情報処理装置は、決定されたアプリケーションの候補、サービスの候補を、表示画面に表示させる。
また、例えば図1のCのC2に示すように、発話内容に対応するアプリケーション、および/または、発話内容に対応するサービスを表示させる場合には、本実施形態に係る情報処理装置は、アプリケーション、サービスを強調して表示させてもよい。
ここで、本実施形態に係るアプリケーションやサービスの強調表示の方法としては、例えば、図1のCのC2に示すようなアプリケーション、サービスの一覧表示において、強調するアプリケーションやサービスをより上に配置するなどの、アプリケーションやサービスの表示順序を調整することが挙げられる。なお、本実施形態に係るアプリケーションやサービスの強調表示の方法は、上記に限られない。例えば、本実施形態に係る情報処理装置は、発話内容の解析結果に係るアプリケーションやサービスであることを示すアイコン(例えば、マイクアイコン)を付与することや、レコメンドを示すアイコンを付すこと、文字の色やフォントを変えることなど、視覚的な変化をアプリケーションやサービスに対して与えることが可能な任意の方法によって、アプリケーションやサービスを強調して表示してもよい。
例えば、上記(1)の処理(解析処理)において発話内容を示す文字列に対して動作の解析が行われた場合には、本実施形態に係る情報処理装置は、解析の結果に含まれる動作の解析結果に基づいて、表示画面に表示させるアプリケーション、サービスを強調して表示させる。
より具体的には、発話内容を示す文字列に対する動作の解析結果が、“見たい”などの見る動作を示す場合には、本実施形態に係る情報処理装置は、例えば、テレビジョン放送の番組表を表示させるアプリケーションや、テレビジョン放送の視聴に係るアプリケーション、録画されているコンテンツのリストを表示させるアプリケーション、記録媒体に記憶されているコンテンツの再生に係るアプリケーション、ビデオサービス、画像投稿Webサイトで提供されるサービスなど、視聴に係るアプリケーションやサービスを強調表示する。また、発話内容を示す文字列に対する動作の解析結果が、“聞きたい”などの聞く動作を示す場合には、本実施形態に係る情報処理装置は、例えば、記録媒体に記憶されているコンテンツの再生に係るアプリケーションや、ミュージックサービスなど、音声(音楽も含む。)の再生に係るアプリケーションやサービスを強調表示する。
また、発話内容を示す文字列に対する動作の解析結果が、特定の動作を示していない場合には、本実施形態に係る情報処理装置は、例えば、検索サイトなどで提供される検索サービスなど、設定されているアプリケーションやサービスを強調表示してもよい。
本実施形態に係る情報処理装置は、例えば上記のように、表示画面に表示させるアプリケーション、サービスを強調して表示させる。
なお、本実施形態に係るアプリケーションやサービスの強調表示に係る処理は、上記に限られない。例えば、本実施形態に係るアプリケーションやサービスそれぞれには、優先度が設定されている場合には、本実施形態に係る情報処理装置は、強調表示を行うアプリケーションやサービスのうち、より優先度が高いアプリケーションやサービスを、より強調して表示してもよい。
本実施形態に係る情報処理装置は、例えば、上記のような処理を、本実施形態に係る表示制御処理として行う。なお、本実施形態に係る表示制御処理が、上記に示す処理の例に限られないことは、言うまでもない。
本実施形態に係る情報処理装置は、本実施形態に係る情報処理方法に係る処理として、例えば上記に示すような、(1)の処理(解析処理)および(2)の処理(表示制御処理)を行う。
なお、本実施形態に係る情報処理方法に係る処理は、上記(1)の処理(解析処理)および上記(2)の処理(表示制御処理)に限られない。
例えば、本実施形態に係る情報処理装置は、図1のCに示す画面など、発話内容に対応するアプリケーションや発話内容に対応するサービスが表示される画面において選択された、発話内容に対応するアプリケーション、または、発話内容に対応するサービスに関する処理を実行してもよい(実行処理)。
より具体的には、本実施形態に係る情報処理装置は、例えば、下記に示す(a)の処理、(b)に示す処理、または(c)に示す処理を、本実施形態に係る実行処理として行う。なお、本実施形態に係る実行処理の具体例については、後述する。
(a)本実施形態に係る実行処理の第1の例
例えば、上記(1)の処理(解析処理)において発話内容を示す文字列に対するスコアの設定が行われた場合には、本実施形態に係る情報処理装置は、設定されている基準値と、設定されたスコアとの比較結果に基づいて、発話内容を示す文字列の一部、または全部を、発話内容に対応するアプリケーションの実行や、発話内容に対応するサービスに関する処理の実行に用いる文字列として決定する。そして、本実施形態に係る情報処理装置は、決定された文字列を用いて、発話内容に対応するアプリケーションや、発話内容に対応するサービスに関する処理を実行する。
ここで、本実施形態に係る基準値は、例えば、予め設定された固定値であってもよいし、ユーザ操作などに基づいて変更可能な可変値であってもよい。
より具体的には、例えば、発話内容を示す文字列において、基準値よりも大きなスコア(または、基準値以上のスコア。以下、同様とする。)がない場合には、本実施形態に係る情報処理装置は、発話内容を示す文字列全体を処理に用いる。また、例えば、発話内容を示す文字列において、基準値よりも大きなスコアがある場合には、本実施形態に係る情報処理装置は、発話内容を示す文字列のうちの、スコアが大きい1または2以上の一部の文字列を、処理に用いる。
(b)本実施形態に係る実行処理の第2の例
例えば、上記(1)の処理(解析処理)において発話内容を示す文字列に対して時制が解析された場合には、本実施形態に係る情報処理装置は、時制の解析結果に基づいて、発話内容を示す文字列に含まれる時制を示す文言を処理に選択的に用いる。より具体的には、上記の場合には、本実施形態に係る情報処理装置は、時制の解析結果が、発話内容を示す文字列に時制を示す文言が含まれることを示す場合に、発話内容を示す文字列に含まれる時制を示す文言を処理に用いる。
(c)本実施形態に係る実行処理の第3の例
本実施形態に係る情報処理装置は、例えば、上記第1の例に係る処理と、上記第2の例に係る処理とを組み合わせた処理を行うことも可能である。
本実施形態に係る情報処理装置は、例えば、上記に示す(a)の処理、(b)に示す処理、または(c)に示す処理を、本実施形態に係る実行処理として行う。
また、本実施形態に係る情報処理方法に係る処理は、“上記(1)の処理(解析処理)および上記(2)の処理(表示制御処理)”や、“上記(1)の処理(解析処理)、上記(2)の処理(表示制御処理)、および上記実行処理”に限られない。
本実施形態に係る情報処理装置は、例えば、上記(1)の処理(解析処理)における解析の結果を、ログとして記録させてもよい(ログ記録制御処理)。
ここで、本実施形態に係る情報処理装置がログを記録させる対象としては、例えば、記憶部(後述する)や、本実施形態に係る情報処理装置に接続されている外部記録媒体、ネットワークを介して(または直接的に)通信可能な外部装置などが挙げられる。本実施形態に係るネットワークとしては、例えば、LAN(Local Area Network)やWAN(Wide Area Network)などの有線ネットワーク、無線LAN(WLAN:Wireless Local Area Network)や基地局を介した無線WAN(WWAN:Wireless Wide Area Network)などの無線ネットワーク、あるいは、TCP/IP(Transmission Control Protocol/Internet Protocol)などの通信プロトコルを用いたインターネットなどが挙げられる。
本実施形態に係る情報処理装置が、解析の結果をログとして記録させることによって、音声認識に係る処理を行う装置(例えば、本実施形態に係る情報処理装置や、サーバなどの外部装置)は、当該ログを、例えば、音声認識の精度の向上や、アプリケーションの挙動の改善などに用いることが可能となる。
[3]本実施形態に係る情報処理方法に係る処理の具体例
次に、本実施形態に係る情報処理方法に係る処理の具体例を説明する。以下では、本実施形態に係る情報処理方法に係る処理を、本実施形態に係る情報処理装置が行うものとして説明する。
(A)本実施形態に係る情報処理方法に係る処理の第1の例
図2は、本実施形態に係る情報処理方法に係る処理の第1の例を示す流れ図である。ここで、例えば、図2に示すステップS104、S106の処理が、上記(1)の処理(解析処理)に該当し、図2に示すステップS108の処理が、上記(2)の処理(表示制御処理)に該当する。また、図2では、本実施形態に係る情報処理装置が、発話内容を示す音声データに対する音声認識に係る処理を行う例を示している。なお、上述したように、発話内容を示す音声データに対する音声認識に係る処理は、サーバなどの外部装置において行われてもよい。
本実施形態に係る情報処理装置は、音声が検出されたか否かを判定する(S100)。本実施形態に係る情報処理装置は、例えば、マイクロホンなどの音声入力デバイスなどから送信された発話内容を示す音声データが受信された場合に、音声が検出されたと判定する。
ステップS100において音声が検出されたと判定されない場合には、本実施形態に係る情報処理装置は、音声が検出されたと判定されるまで処理を進めない。
また、ステップS100において音声が検出されたと判定された場合には、本実施形態に係る情報処理装置は、音声データに対して音声認識に係る処理を行う(S102)。本実施形態に係る情報処理装置は、例えば、統計的手法を用いた処理や、隠れマルコフモデルを利用した処理を、音声認識に係る処理として行う。
本実施形態に係る情報処理装置は、ステップS102の処理により得られた発話内容を示す文字列を解析する(S104)。ここで、本実施形態に係る情報処理装置は、例えば、発話内容を示す文字列に対して、構文解析や、意味解析を行う。
ステップS104の処理を行うと、本実施形態に係る情報処理装置は、音声認識のゆらぎを補正する(S106)。本実施形態に係る情報処理装置は、例えば、記憶部(後述する)などに記憶されているゆらぎ吸収用の辞書を用いて、形態素解析などによって分割された単語を置換することによって、音声認識のゆらぎを補正する。
ステップS106の処理を行うと、本実施形態に係る情報処理装置は、発話内容を示す文字列と、ステップS104における解析の結果とを表示画面に表示させる(S108)。本実施形態に係る情報処理装置は、例えば図1のCのC1に示すように、発話内容を示す文字列に対して、発話内容を示す文字列の解析の結果を強調して表示する。
本実施形態に係る情報処理装置は、本実施形態に係る情報処理方法に係る処理として、例えば図2に示す処理を行う。例えば図2に示す処理が行われることによって、本実施形態に係る情報処理方法に係る、上記(1)の処理(解析処理)および上記(2)の処理(表示制御処理)が実現される。
したがって、例えば図2に示す処理を行うことによって、本実施形態に係る情報処理装置は、ユーザの利便性の向上を図ることができる。
なお、本実施形態に係る第1の例に係る情報処理方法に係る処理は、図2に示す例に限られない。
例えば、本実施形態に係る情報処理装置は、図2に示すステップS106の処理を行わなくてもよい。例えばステップS106の処理を行わない場合であっても、本実施形態に係る情報処理装置は、本実施形態に係る情報処理方法に係る、上記(1)の処理(解析処理)および上記(2)の処理(表示制御処理)を行うことが可能である。よって、例えばステップS106の処理を行わない場合であっても、本実施形態に係る情報処理装置は、ユーザの利便性の向上を図ることができる。
(B)本実施形態に係る情報処理方法に係る処理の第2の例
なお、本実施形態に係る情報処理方法に係る処理は、上記第1の例に係る処理に限られない。例えば、本実施形態に係る情報処理装置は、例えば図1のCのC2に示すように、本実施形態に係る上記(2)の処理(表示制御処理)において、上記(1)の処理(解析処理)における解析の結果に基づいて、発話内容に対応するアプリケーション、および/または、発話内容に対応するサービスを、さらに表示画面に表示させることも可能である。
図3は、本実施形態に係る情報処理方法に係る処理の第2の例を示す流れ図である。図3は、本実施形態に係る情報処理装置が、発話内容に対応するアプリケーション、および/または、発話内容に対応するサービスを、さらに表示画面に表示させる場合の処理の一例を示している。ここで、例えば、図3に示すステップS208の処理が、上記(1)の処理(解析処理)に該当し、図3に示すステップS210の処理が、上記(2)の処理(表示制御処理)に該当する。また、例えば、図3に示す第2の例に係る処理は、図2に示す第1の例に係る処理と並列に行われてもよいし、図2に示す第1の例に係る処理が行われた後に行われてもよい。
本実施形態に係る情報処理装置は、制御対象装置の能力情報が取得されているか否かを判定する(S200)。ステップS200において制御対象装置の能力情報が取得されていると判定された場合には、本実施形態に係る情報処理装置は、後述するステップS204の処理を行う。
また、ステップS200において制御対象装置の能力情報が取得されていると判定されない場合には、本実施形態に係る情報処理装置は、制御対象装置から能力情報を取得する(S202)。例えば、本実施形態に係る制御対象装置が、自装置(本実施形態に係る情報処理装置)である場合には、本実施形態に係る情報処理装置は、能力情報を生成することによって、能力情報を取得する。また、例えば、本実施形態に係る制御対象装置が、外部装置である場合には、能力情報を送信させる送信命令を含む能力情報送信要求を、当該外部装置へ送信することによって、能力情報を取得する。
ステップS200において制御対象装置の能力情報が取得されていると判定された場合、または、ステップS202の処理により制御対象装置の能力情報が取得された場合には、本実施形態に係る情報処理装置は、例えば、能力情報に基づいて、アプリケーション、サービスの一覧の中から、制御対象装置に対応するアプリケーション、サービスを特定する(S204)。
本実施形態に係る情報処理装置は、発話内容を示す文字列が取得されているか否かを判定する(S206)。ステップS206において発話内容を示す文字列が取得されていると判定されない場合には、本実施形態に係る情報処理装置は、例えば、発話内容を示す文字列が取得されていると判定されるまで、処理を進めない。
また、ステップS206において発話内容を示す文字列が取得されていると判定された場合には、本実施形態に係る情報処理装置は、発話内容を示す文字列に対して、動作を解析する(S208)。本実施形態に係る情報処理装置は、例えば、記憶部(後述する)などに記憶されている動作解析用の辞書を用いて、図2のステップS104の処理における形態素解析などによって分割された単語の中に、動作解析用の辞書に登録されている動作を示す単語が含まれているか否かを判定することによって、発話内容を示す文字列に対して動作を解析する。
図4は、本実施形態に係る動作解析用の辞書の一例を示す説明図である。ここで、図4では、単語を「Keyword」と示し、動作を「Type」と示している。また、図4に示すAは、英語の単語と動作とが対応付けられたテーブル形式の動作解析用の辞書の一例を示しており、図4に示すBは、日本語の単語と動作とが対応付けられたテーブル形式の動作解析用の辞書の一例を示している。また、図4では、動作解析用の辞書の各単語に、品詞を示す情報が対応付けられている例を示している。
本実施形態に係る情報処理装置は、例えば形態素解析などによって分割された単語の中に、図4に示す動作解析用の辞書に登録されている動作を示す単語が含まれているか否かを判定する。そして、単語が含まれていると判定された場合には、当該単語に対応する動作を、発話内容を示す文字列が示す動作として特定することによって、発話内容を示す文字列における動作を解析する。
なお、本実施形態に係る発話内容を示す文字列に対する動作の解析に係る処理が、上記に示す例に限られないこと、および、本実施形態に係る動作解析用の辞書が、図4に示す例に限られないことは、言うまでもない。
再度図3を参照して、本実施形態に係る情報処理方法に係る処理の第2の例について説明する。ステップS208の処理が行われると、本実施形態に係る情報処理装置は、ステップS208の処理における動作の解析結果に基づいて、対応するアプリケーションやサービスを強調して表示させる(S210)。
例えば、ステップS208における発話内容を示す文字列に対する動作の解析結果が、“見たい”などの見る動作を示す場合には、本実施形態に係る情報処理装置は、例えば、テレビジョン放送の番組表を表示させるアプリケーションなど、視聴に係るアプリケーションやサービスを強調表示する。また、ステップS208における発話内容を示す文字列に対する動作の解析結果が、“聞きたい”などの聞く動作を示す場合には、本実施形態に係る情報処理装置は、例えば、記録媒体に記憶されているコンテンツの再生に係るアプリケーションなど、音声(音楽も含む。)の再生に係るアプリケーションやサービスを強調表示する。また、ステップS208における発話内容を示す文字列に対する動作の解析結果が、特定の動作を示していない場合には、本実施形態に係る情報処理装置は、例えば、検索サイトなどで提供される検索サービスなど、設定されているアプリケーションやサービスを強調表示してもよい。
また、例えば、ステップS208における発話内容を示す文字列に対する動作の解析結果には、優先して表示されるアプリケーションやサービスが設定されていてもよい。
図5は、本実施形態に係る解析結果と対応するアプリケーションやサービスの一例を示す説明図である。ここで、図5では、解析結果を「Tense or Action Type」と示し、対応するアプリケーションやサービスを「High Priority Category」と示している。また、図5は、解析結果と、アプリケーションやサービスとが対応付けられているテーブルの一例を示している。図5に示すAは、時制の解析結果と、時制の解析結果に対応するアプリケーションやサービスとの一例を示しており、図5に示すBは、動作の解析結果と、動作の解析結果に対応するアプリケーションやサービスとの一例を示している。また、図5に示すCは、時制の解析および動作の解析の結果、時制および動作が発話内容を示す文字列に含まれない場合における、対応するアプリケーションやサービスの一例を示している。
本実施形態に係る情報処理装置は、例えば図5に示すテーブルを参照することによって、ステップS208における発話内容を示す文字列に対する動作の解析結果に対応する、アプリケーションやサービスを特定する。そして、本実施形態に係る情報処理装置は、例えば、特定されたアプリケーションやサービスを、優先して表示画面に表示させる。
本実施形態に係る情報処理装置は、本実施形態に係る情報処理方法に係る処理として、例えば図3に示す処理を、図2に示す第1の例に係る処理と並列に、または、図2に示す第1の例に係る処理が行われた後に行う。
したがって、例えば図3に示す処理を行うことによって、本実施形態に係る情報処理装置は、例えば図1のCのC2に示すように、上記(1)の処理(解析処理)における解析の結果に基づいて、発話内容に対応するアプリケーション、および/または、発話内容に対応するサービスを、さらに表示画面に表示させることができる。なお、本実施形態に係る第2の例に係る情報処理方法に係る処理が、図3に示す例に限られないことは、言うまでもない。
(C)本実施形態に係る情報処理方法に係る処理の第3の例
なお、本実施形態に係る情報処理方法に係る処理は、上記第1の例に係る処理や、上記第2の例に係る処理に限られない。例えば、本実施形態に係る情報処理装置は、さらに、上述した本実施形態に係る実行処理を行うことも可能である。
図6は、本実施形態に係る情報処理方法に係る処理の第3の例を示す流れ図である。図6は、本実施形態に係る情報処理装置が、本実施形態に係る実行処理として、発話内容を示す文字列を利用したコンテンツの検索に係る処理を行う場合の例を示している。図6において本実施形態に係る情報処理装置が検索するコンテンツとしては、例えば、光ディスクや磁気ディスクなどの記録媒体に記憶されている画像データや音声データなどのコンテンツデータや、テレビジョン放送の番組、Webの検索サービスを介して得られる各種情報やデータなどが挙げられる。
ここで、例えば、図6に示すステップS308〜S318の処理が、上記(1)の処理(解析処理)に該当し、図6に示すステップS314、S320〜S324の処理が、上記実行処理に該当する。また、例えば、図6に示す第3の例に係る処理は、図2に示す第1の例に係る処理と並列に行われてもよいし、図2に示す第1の例に係る処理が行われた後に行われてもよい。また、例えば、図6に示す第3の例に係る処理は、図3に示す第2の例に係る処理と並列に行われてもよい。
本実施形態に係る情報処理装置は、制御対象装置の能力情報が取得されているか否かを判定する(S300)。ステップS300において制御対象装置の能力情報が取得されていると判定された場合には、本実施形態に係る情報処理装置は、後述するステップS304の処理を行う。
また、ステップS300において制御対象装置の能力情報が取得されていると判定されない場合には、本実施形態に係る情報処理装置は、図3のステップS202と同様に、制御対象装置から能力情報を取得する(S302)。
ステップS300において制御対象装置の能力情報が取得されていると判定された場合、または、ステップS302の処理により制御対象装置の能力情報が取得された場合には、本実施形態に係る情報処理装置は、能力情報に基づいて、アプリケーション、サービスの一覧の中から、制御対象装置に対応するアプリケーション、サービスを特定する(S304)。
本実施形態に係る情報処理装置は、発話内容を示す文字列が取得されているか否かを判定する(S306)。ステップS306において発話内容を示す文字列が取得されていると判定されない場合には、本実施形態に係る情報処理装置は、例えば、発話内容を示す文字列が取得されていると判定されるまで、処理を進めない。
また、ステップS306において発話内容を示す文字列が取得されていると判定された場合には、本実施形態に係る情報処理装置は、発話内容を示す文字列に対して、基準スコアを設定する(S308)。ここで、本実施形態に係る情報処理装置は、例えば、図2のステップS104の処理における形態素解析などによって分割された単語それぞれに対して、基準スコア“1”を設定する。例えば、発話内容を示す文字列(または、音声認識のゆらぎが補正された文字列)が、図1のCに示す「明日のXXXが見たい」である場合には、本実施形態に係る情報処理装置は、「明日」/「の」/「XXX」/「が」/「見」/「た」/「い」それぞれに対して、基準スコア“1”を設定する。なお、本実施形態に係る基準スコアが“1”に限られないことは、言うまでもない。
ステップS308において基準スコアが設定されると、本実施形態に係る情報処理装置は、設定された基準スコアを調整する(S310)。本実施形態に係る情報処理装置は、例えば、記憶部(後述する)や外部記録媒体に記憶されているスコア調整用の辞書を用いて、設定された基準スコアを調整する。
図7は、本実施形態に係るスコア調整用の辞書の一例を示す説明図である。ここで、図7では、単語を「Keyword」と示し、スコアを調整するための調整値を「Additional Value」と示している。また、図7に示すAは、英語の単語と調整値とが対応付けられたテーブル形式のスコア調整用の辞書の一例を示しており、図7に示すBは、日本語の単語と調整値とが対応付けられたテーブル形式のスコア調整用の辞書の一例を示している。
本実施形態に係る情報処理装置は、例えば、図7に示すようなスコア調整用の辞書を参照して、図2のステップS104の処理における形態素解析などによって分割された単語それぞれに対応する調整値を特定する。そして、本実施形態に係る情報処理装置は、例えば、特定された各単語に対応する調整値を、対応する単語の基準スコアに加算することによって、設定された基準スコアを調整する。
例えば、発話内容を示す文字列(または、音声認識のゆらぎが補正された文字列)が、図1のCに示す「明日のXXXが見たい」である場合には、本実施形態に係る情報処理装置は、「明日」/「の」/「XXX」/「が」/「見」/「た」/「い」それぞれのスコアを調整する。調整後のスコアとしては、例えば下記に示す例が挙げられる。なお、調整後のスコアが、下記に示す例に限られないことは、言うまでもない。
・「明日」のスコア:“1.3”
・「の」のスコア:“1”
・「XXX」のスコア:“2”
・「が」のスコア:“1”
・「見」のスコア:“0.5”
・「た」のスコア:“1”
・「い」のスコア:“1”
なお、本実施形態に係る発話内容を示す文字列に設定されたスコアの調整に係る処理が、上記に示す例に限られないこと、および、本実施形態に係るスコア調整用の辞書が、図7に示す例に限られないことは、言うまでもない。
再度図6を参照して、本実施形態に係る情報処理方法に係る処理の第3の例について説明する。ステップS310の処理が行われると、本実施形態に係る情報処理装置は、発話内容を示す文字列に、設定されている基準値よりも大きなスコアが存在するか否かを判定する(S314)。
ステップS314において設定されている基準値よりも大きなスコアが存在すると判定されない場合には、本実施形態に係る情報処理装置は、例えば、発話内容を示す文字列全体を用いて、コンテンツを検索する(S314)。
また、ステップS314において設定されている基準値よりも大きなスコアが存在すると判定された場合には、本実施形態に係る情報処理装置は、例えば、設定されているスコアに基づいて、検索ワードを決定する(S316)。
本実施形態に係る情報処理装置は、例えば、発話内容を示す文字列のうちの、スコアが最も大きい一部の文字列を、検索ワードとして決定する。例えば、発話内容を示す文字列(または、音声認識のゆらぎが補正された文字列)が、図1のCに示す「明日のXXXが見たい」である場合における、上記に示す調整後のスコアの例では、調整後のスコアの中で「XXX」のスコアが最も大きい。よって、上記の場合には、本実施形態に係る情報処理装置は、例えば、「XXX」を検索ワードとして決定する。ここで、ステップS316において検索ワードとして「XXX」が決定された後に、後述するS318以降の処理が行われた場合に表示画面に表示される画面の一例が、例えば図1のCに示す画面である。なお、ステップS316において検索ワードとして「XXX」が決定された後に、後述するS318以降の処理が行われた場合に表示画面に表示される画面が、図1のCに示す画面に限られないことは、言うまでもない。
また、本実施形態に係る情報処理装置は、例えば、発話内容を示す文字列のうちのスコアが大きい複数の文字列を、検索ワードとして決定してもよい。複数の文字列が用いられる場合、本実施形態に係る情報処理装置は、例えば、複数の文字列のAND検索や、複数の文字列のOR検索によって、コンテンツを検索する。
ステップS316の処理が行われると、本実施形態に係る情報処理装置は、発話内容を示す文字列に対して時制を解析する(S318)。本実施形態に係る情報処理装置は、例えば、記憶部(後述する)などに記憶されている時制解析用の辞書を用いて、形態素解析などによって分割された単語の中に、時制解析用の辞書に登録されている時制を示す単語が含まれているか否かを判定することによって、発話内容を示す文字列に対して時制を解析する。
図8は、本実施形態に係る時制解析用の辞書の一例を示す説明図である。ここで、図8では、単語を「Keyword」と示し、対応する時制を「Type」と示している。また、図8に示すAは、英語の単語と対応する時制とが対応付けられたテーブル形式の時制解析用の辞書の一例を示しており、図8に示すBは、日本語の単語と対応する時制とが対応付けられたテーブル形式の時制解析用の辞書の一例を示している。
本実施形態に係る情報処理装置は、例えば、図8に示すような時制解析用の辞書を参照して、図2のステップS104の処理における形態素解析などによって分割された単語の中に、時制解析用の辞書に登録されている時制を示す単語が含まれているかを判定する。形態素解析などによって分割された単語の中に時制を示す単語が含まれている場合には、本実施形態に係る情報処理装置は、例えば、当該単語に対応する時制を、発話内容を示す文字列に含まれる時制として決定する。また、形態素解析などによって分割された単語の中に時制を示す単語が含まれていない場合には、本実施形態に係る情報処理装置は、例えば、発話内容を示す文字列に時制を示す文字列が含まれていないと判定する。
なお、本実施形態に係る発話内容を示す文字列に対する時制の解析に係る処理が、上記に示す例に限られないこと、および、本実施形態に係る時制解析用の辞書が、図8に示す例に限られないことは、言うまでもない。
再度図6を参照して、本実施形態に係る情報処理方法に係る処理の第3の例について説明する。ステップS318の処理が行われると、本実施形態に係る情報処理装置は、発話内容を示す文字列に時制を示す文字列が存在するか否かを判定する(S320)。本実施形態に係る情報処理装置は、例えば、ステップS318において発話内容を示す文字列に含まれる時制が決定された場合に、発話内容を示す文字列に時制を示す文字列が存在すると判定する。
ステップS320において発話内容を示す文字列に時制を示す文字列が存在すると判定されない場合には、本実施形態に係る情報処理装置は、ステップS316において決定された検索ワードを用いて、コンテンツを検索する(S322)。
また、ステップS320において発話内容を示す文字列に時制を示す文字列が存在すると判定された場合には、本実施形態に係る情報処理装置は、ステップS318において決定された時制をパラメータとして、ステップS316において決定された検索ワードを用いて、コンテンツを検索する(S324)。
例えば、決定された時制が過去である場合には、本実施形態に係る情報処理装置は、光ディスクや磁気ディスクなどの記録媒体に記憶されている画像データや音声データなどのコンテンツデータ(コンテンツの一例)を検索する。また、例えば、決定された時制が未来である場合には、本実施形態に係る情報処理装置は、テレビジョン放送の番組(コンテンツの一例)を検索する。
本実施形態に係る情報処理装置は、本実施形態に係る情報処理方法に係る処理として、例えば図6に示す処理を、図2に示す第1の例に係る処理と並列に、または、図2に示す第1の例に係る処理が行われた後に、あるいは、さらに図3に示す第2の例に係る処理と並列に行う。
したがって、例えば図6に示す処理を行うことによって、本実施形態に係る情報処理装置は、図1のCに示す画面など、発話内容に対応するアプリケーションや発話内容に対応するサービスが表示される画面において選択された、発話内容に対応するアプリケーション、または、発話内容に対応するサービスに関する処理を実行することができる。
なお、本実施形態に係る第3の例に係る情報処理方法に係る処理は、図6に示す例に限られない。例えば、本実施形態に係る情報処理装置は、図6に示すステップS318、S312、S324に示す、時制に係る処理を行わないことも可能である。
本実施形態に係る情報処理装置は、本実施形態に係る情報処理方法に係る処理として、例えば、上記(A)に示す第1の例に係る処理や、上記(B)に示す第2の例に係る処理、上記(C)に示す第3の例に係る処理を行う。なお、本実施形態に係る情報処理方法に係る処理が、上記に示す処理に限られないことは、言うまでもない。
(本実施形態に係る情報処理装置)
次に、上述した本実施形態に係る情報処理方法に係る処理を行うことが可能な、本実施形態に係る情報処理装置の構成の一例について、説明する。
図9は、本実施形態に係る情報処理装置100の構成の一例を示すブロック図である。情報処理装置100は、例えば、通信部102と、制御部104とを備える。
また、情報処理装置100は、例えば、ROM(Read Only Memory。図示せず)や、RAM(Random Access Memory。図示せず)、記憶部(図示せず)、ユーザが操作可能な操作部(図示せず)、様々な画面を表示画面に表示する表示部(図示せず)などを備えていてもよい。情報処理装置100は、例えば、データの伝送路としてのバス(bus)により上記各構成要素間を接続する。
ここで、ROM(図示せず)は、制御部104が使用するプログラムや演算パラメータなどの制御用データを記憶する。RAM(図示せず)は、制御部104により実行されるプログラムなどを一時的に記憶する。
記憶部(図示せず)は、情報処理装置100が備える記憶手段であり、例えば、各種辞書や、アプリケーションなど様々なデータを記憶する。ここで、記憶部(図示せず)としては、例えば、ハードディスク(Hard Disk)などの磁気記録媒体や、フラッシュメモリ(flash memory)などの不揮発性メモリ(nonvolatile memory)などが挙げられる。また、記憶部(図示せず)は、情報処理装置100から着脱可能であってもよい。
また、操作部(図示せず)としては、後述する操作入力デバイスが挙げられ、表示部(図示せず)としては、後述する表示デバイスが挙げられる。
[情報処理装置100のハードウェア構成例]
図10は、本実施形態に係る情報処理装置100のハードウェア構成の一例を示す説明図である。情報処理装置100は、例えば、MPU150と、ROM152と、RAM154と、記録媒体156と、入出力インタフェース158と、操作入力デバイス160と、表示デバイス162と、通信インタフェース164とを備える。また、情報処理装置100は、例えば、データの伝送路としてのバス166で各構成要素間を接続する。
MPU150は、例えば、MPU(Micro Processing Unit)や各種処理回路などで構成され、情報処理装置100全体を制御する制御部104として機能する。また、MPU150は、情報処理装置100において、例えば、後述する解析部110、表示制御部112、ログ記録制御部114、および処理部116の役目を果たす。
ROM152は、MPU150が使用するプログラムや演算パラメータなどの制御用データなどを記憶する。RAM154は、例えば、MPU150により実行されるプログラムなどを一時的に記憶する。
記録媒体156は、記憶部(図示せず)として機能し、例えば、各種辞書や、アプリケーションなど様々なデータを記憶する。ここで、記録媒体156としては、例えば、ハードディスクなどの磁気記録媒体や、フラッシュメモリなどの不揮発性メモリが挙げられる。また、記録媒体156は、情報処理装置100から着脱可能であってもよい。
入出力インタフェース158は、例えば、操作入力デバイス160や、表示デバイス162を接続する。操作入力デバイス160は、操作部(図示せず)として機能し、また、表示デバイス162は、表示部(図示せず)として機能する。ここで、入出力インタフェース158としては、例えば、USB(Universal Serial Bus)端子や、DVI(Digital Visual Interface)端子、HDMI(High-Definition Multimedia Interface)(登録商標)端子、各種処理回路などが挙げられる。また、操作入力デバイス160は、例えば、情報処理装置100上に備えられ、情報処理装置100の内部で入出力インタフェース158と接続される。操作入力デバイス160としては、例えば、ボタン、方向キー、ジョグダイヤルなどの回転型セレクター、あるいは、これらの組み合わせなどが挙げられる。また、表示デバイス162は、例えば、情報処理装置100上に備えられ、情報処理装置100の内部で入出力インタフェース158と接続される。表示デバイス162としては、例えば、液晶ディスプレイ(Liquid Crystal Display;LCD)や有機ELディスプレイ(Organic ElectroLuminescence display。または、OLEDディスプレイ(Organic Light Emitting Diode display)ともよばれる。)などが挙げられる。
なお、入出力インタフェース158が、情報処理装置100の外部装置としての操作入力デバイス(例えば、キーボードやマウスなど)や表示デバイスなどの、外部デバイスと接続することもできることは、言うまでもない。また、表示デバイス162は、例えばタッチスクリーンなど、表示とユーザ操作とが可能なデバイスであってもよい。
通信インタフェース164は、情報処理装置100が備える通信手段であり、ネットワークを介して(あるいは、直接的に)、制御対象装置やサーバなどの外部装置と無線/有線で通信を行うための通信部102として機能する。ここで、通信インタフェース164としては、例えば、通信アンテナおよびRF(Radio Frequency)回路(無線通信)や、IEEE802.15.1ポートおよび送受信回路(無線通信)、IEEE802.11bポートおよび送受信回路(無線通信)、あるいはLAN端子および送受信回路(有線通信)などが挙げられる。
情報処理装置100は、例えば図10に示す構成によって、本実施形態に係る情報処理方法に係る処理を行う。なお、本実施形態に係る情報処理装置100のハードウェア構成は、図10に示す構成に限られない。
例えば、情報処理装置100が、例えば、入出力インタフェース158などを介して接続される外部通信デバイスを介して、制御対象装置やサーバなどの外部装置と通信を行う場合には、情報処理装置100は、通信インタフェース164を備えていなくてもよい。
また、情報処理装置100は、例えば、操作デバイス160や表示デバイス162を備えない構成をとることも可能である。
また、情報処理装置100は、例えば、マイクロホンなどの音声入力デバイスや、音声入力デバイスから伝達される音声信号を増幅する増幅回路などをさらに備えていてもよい。
再度図9を参照して、情報処理装置100の構成の一例について説明する。通信部102は、情報処理装置100が備える通信手段であり、ネットワークを介して(あるいは、直接的に)、制御対象装置やサーバなどの外部装置と無線/有線で通信を行う。また、通信部102は、例えば制御部104により通信が制御される。
ここで、通信部102としては、例えば、通信アンテナおよびRF回路や、LAN端子および送受信回路などが挙げられるが、通信部102の構成は、上記に限られない。例えば、通信部102は、USB端子および送受信回路など通信を行うことが可能な任意の規格に対応する構成や、ネットワークを介して外部装置と通信可能な任意の構成をとることができる。
制御部104は、例えばMPUなどで構成され、情報処理装置100全体を制御する役目を果たす。また、制御部104は、例えば、解析部110と、表示制御部112と、ログ記録制御部114と、処理部116とを備え、本実施形態に係る情報処理方法に係る処理を主導的に行う役目を果たす。
解析部110は、上記(1)の処理(解析処理)を主導的に行う役目を果たし、音声認識の結果得られる発話内容を示す文字列を解析する。ここで、本実施形態に係る処理対象となる発話内容を示す文字列は、例えば、制御部104など情報処理装置100が備える構成要素が、発話内容を示す音声データに対して音声認識に係る処理を行うことによって、得られるが、本実施形態に係る処理対象となる発話内容の文字列の取得方法は、上記に限られない。例えば、上述したように、情報処理装置100は、サーバなどの外部装置において音声認識に係る処理が行われた結果得られる発話内容の文字列を示すデータを、当該外部装置から取得することによって、処理対象となる発話内容の文字列を得てもよい。
また、解析部110は、例えば、記憶部(図示せず)などに記憶されているゆらぎ吸収用の辞書を用いて、形態素解析などによって分割された単語を置換することによって、音声認識のゆらぎを補正してもよい。
また、解析部110は、発話内容を示す文字列に対して、例えば辞書を用いることによって、動作や時制を解析してもよい。
さらに、解析部110は、例えば、解析の結果に基づいて発話内容を示す文字列にスコアを設定することも可能である。解析部110は、例えば、図6に示すステップS308、S310の処理を行うことによって、スコアを設定する。
表示制御部112は、上記(2)の処理(表示制御処理)を主導的に行う役目を果たし、発話内容を示す文字列と、解析部110における解析の結果とを、表示画面に表示させる。
また、表示制御部112は、例えば、発話内容を示す文字列の全体、または、発話内容を示す文字列における、形態素解析などによって分割された単語ごとに、発話内容を示す文字列を、編集することが可能な状態で表示させてもよい。
また、解析部110において音声認識のゆらぎが補正された場合には、表示制御部112は、例えば、音声認識のゆらぎが補正された発話内容を示す文字列を表示させる。
また、表示制御部112は、例えば図1のCのC2に示すように、解析部110における解析の結果に基づいて、発話内容に対応するアプリケーション、および/または、発話内容に対応するサービスを、表示画面に強調して表示させてもよい。
より具体的には、例えば、解析部110において発話内容を示す文字列に対して動作が解析された場合には、表示制御部112は、例えば、解析部110における解析の結果に含まれる動作の解析結果に基づいて、表示画面に表示させるアプリケーション、サービスを強調して表示させる。
また、発話内容に対応するアプリケーション、および/または、発話内容に対応するサービスを、表示画面に表示させる場合には、表示制御部112は、例えば、制御対象装置の能力情報に基づいて、表示画面に表示させるアプリケーションの候補、および/または、表示画面に表示させるサービスの候補を決定してもよい。
ログ記録制御部114は、上記ログ記録制御処理を主導的に行う役目を果たし、解析部110における解析の結果をログとして記録させる。ログ記録制御部114がログを記録させる対象としては、例えば、記憶部(図示せず)や、外部記録媒体、ネットワークを介して(または直接的に)通信可能な外部装置などが挙げられる。外部装置にログを記録させる場合、ログ記録制御部114は、例えば、通信部102に、当該外部装置へとログデータを送信させる。
処理部116は、上記実行処理を主導的に行う役目を果たし、選択された発話内容に対応するアプリケーション、または、選択された発話内容に対応するサービスに関する処理を実行する。
また、例えば、解析部110においてスコアが設定された場合には、処理部116は、設定されている基準値と、設定されたスコアとの比較結果に基づいて、発話内容に対応するアプリケーションの実行や、発話内容に対応するサービスに関する処理の実行に用いる文字列を決定して、処理を行ってもよい。より具体的には、処理部116は、例えば、基準値よりも大きなスコアがない場合には、発話内容を示す文字列全体を処理に用い、また、基準値よりも大きなスコアがある場合には、発話内容を示す文字列のうちの、スコアが大きい1または2以上の一部の文字列を、処理に用いる。
また、例えば、解析部110において時制が解析されている場合、処理部116は、解析部110における時制の解析結果が発話内容を示す文字列に時制を示す文言が含まれることを示すときには、例えば図6のステップS324に示すように、発話内容を示す文字列に含まれる時制を示す文言を処理に用いてもよい。
制御部104は、例えば、解析部110、表示制御部112、ログ記録制御部114、および処理部116を備えることによって、本実施形態に係る情報処理方法に係る処理を主導的に行う。
情報処理装置100は、例えば図9に示す構成によって、本実施形態に係る情報処理方法に係る処理(例えば、上記(1)の処理(解析処理)、上記(2)の処理(表示制御処理)、上記実行処理、および上記ログ記録制御処理)を行う。
したがって、情報処理装置100は、例えば図9に示す構成によって、ユーザの利便性の向上を図ることができる。また、情報処理装置100は、例えば図9に示す構成によって、上述した本実施形態に係る情報処理方法に係る処理が行われることによる効果を奏することができる。
なお、本実施形態に係る情報処理装置100の構成は、図9に示す構成に限られない。
例えば、本実施形態に係る情報処理装置100は、ログ記録制御部114、および/または、処理部116を備えていなくてもよい。ログ記録制御部114、および/または、処理部116を備えない構成であっても、本実施形態に係る情報処理装置100は、本実施形態に係る情報処理方法に係る、上記(1)の処理(解析処理)および上記(2)の処理(表示制御処理)を主導的に行うことが可能である。
よって、ログ記録制御部114、および/または、処理部116を備えない構成であっても、本実施形態に係る情報処理装置100は、ユーザの利便性の向上を図ることができる。
また、例えば、本実施形態に係る情報処理装置100は、図9に示す解析部110、表示制御部112、ログ記録制御部114、および処理部116のうちの1または2以上を、制御部104とは個別に備える(例えば、個別の処理回路で実現する)ことができる。
また、例えば、本実施形態に係る情報処理装置100が、外部通信デバイスを介して、制御対象装置やサーバなどの外部装置と通信を行う場合には、情報処理装置100は、通信部102を備えていなくてもよい。
以上のように、本実施形態に係る情報処理装置は、本実施形態に係る情報処理方法に係る処理として、例えば、上記(1)の処理(解析処理)、および上記(2)の処理(表示制御処理)を行う。
ここで、本実施形態に係る情報処理装置が、上記(2)の処理(表示制御処理)において、音声認識の結果得られる発話内容の文字列を表示画面に表示させることによって、発話を行ったユーザは、発話がどのように音声認識されたかを視覚的に把握することが可能となる。また、本実施形態に係る情報処理装置が、上記(2)の処理(表示制御処理)において、上記(1)の処理(解析処理)における発話内容の文字列に対する解析の結果を、発話内容の文字列と共に併せて表示させることによって、発話を行ったユーザは、発話がどのように解析されたかを視覚的に把握することが可能となる。
したがって、本実施形態に係る情報処理装置は、ユーザの利便性の向上を図ることができる。
また、本実施形態に係る情報処理装置は、例えば、上記(2)の処理(表示制御処理)において、表示画面に表示させる発話内容を示す文字列を、編集することが可能な状態で表示させる。
上記(2)の処理(表示制御処理)において、発話内容を示す文字列を編集することが可能な状態で表示させることによって、本実施形態に係る情報処理装置は、例えば、ユーザに発話内容の修正を促すことを可能とし、より精度の高い処理を、自装置(本実施形態に係る情報処理装置)または外部装置に行わせることができる。また、上記(2)の処理(表示制御処理)において、発話内容を示す文字列を編集することが可能な状態で表示させることによって、ユーザは、例えば、ユーザが何度も発話をやり直さなければユーザが所望する動作が実現されないことなどが防止される。
したがって、上記(2)の処理(表示制御処理)において、発話内容を示す文字列を編集することが可能な状態で表示させることによって、本実施形態に係る情報処理装置は、ユーザの利便性の向上をさらに図ることができる。
また、本実施形態に係る情報処理装置は、上記(2)の処理(表示制御処理)において、例えば図1のCのC2に示すように、上記(1)の処理(解析処理)における解析の結果に基づいて、発話内容に対応するアプリケーション、および/または、発話内容に対応するサービスを、表示画面に表示させる。また、本実施形態に係る情報処理装置は、例えば、発話内容に対応するアプリケーション、および/または、発話内容に対応するサービスを、表示画面において強調して表示させる。
上記のように、解析の結果に基づいて、発話内容に対応するアプリケーション、および/または、発話内容に対応するサービスが、表示画面に表示されることによって、例えば、制御対象装置により適した表示を実現することができる。また、本実施形態に係る情報処理装置が、発話内容の解析結果を一つではなく、より適した形で表示することによって、発話のあいまいさの吸収と、ユーザによる新たなコンテンツの発見とが可能となる。
したがって、上記(2)の処理(表示制御処理)において、解析の結果に基づいて、発話内容に対応するアプリケーション、および/または、発話内容に対応するサービスが、表示画面に表示されることによって、本実施形態に係る情報処理装置は、ユーザの利便性の向上をさらに図ることができる。
以上、本実施形態として情報処理装置を挙げて説明したが、本実施形態は、かかる形態に限られない。本実施形態は、例えば、タブレット型の装置や、携帯電話やスマートフォンなどの通信装置、映像/音楽再生装置(または映像/音楽記録再生装置)、ゲーム機、PC(Personal Computer)などのコンピュータ、リモート・コントローラなど、様々な機器に適用することができる。また、本実施形態は、例えば、上記のような機器に組み込むことが可能な、処理IC(Integrated Circuit)に適用することもできる。
(本実施形態に係る情報処理システム)
上述したように、本実施形態に係る情報処理装置は、サーバなどの外部装置において音声認識の処理が行われた結果得られる発話内容を示す文字列を、処理することも可能である。そこで、次に、本実施形態に係る情報処理装置が、外部装置において音声認識の処理が行われた結果得られる発話内容を示す文字列を処理することが可能な、本実施形態に係る情報処理システムの一例について説明する。
図11は、本実施形態に係る情報処理システム1000の一例を示す説明図である。
情報処理システム1000は、例えば、情報処理装置100と、音声認識処理装置200と、情報処理装置100が機能の制御を行う対象の装置である制御対象装置300A、300B、…(以下、総称して「制御対象装置300」と示す場合がある。)とを有する。また、情報処理装置100と、音声認識処理装置200とは、例えば、ネットワーク400を介して通信を行う。ネットワーク400としては、例えば、LANやWANなどの有線ネットワーク、無線LANや基地局を介した無線WANなどの無線ネットワーク、あるいは、TCP/IPなどの通信プロトコルを用いたインターネットなどが挙げられる。
なお、図11では、情報処理システム1000が、複数の制御対象装置300を有する例を示しているが、本実施形態に係る情報処理システムは、上記に限られない。例えば、本実施形態に係る情報処理システムは、1つの制御対象装置300を有する構成であってもよい。また、情報処理装置100が機能の制御を行う対象が自装置(情報処理装置100)である場合には、本実施形態に係る情報処理システムは、例えば、図11に示す制御対象装置300A、300B、…を有さない構成であってもよい。
音声認識処理装置200は、発話内容を示す音声データに対して、例えば、統計的手法を用いた処理や、隠れマルコフモデルを利用した処理など、音声認識に係る処理を行う。また、音声認識処理装置200は、音声データに対する音声認識に係る処理の結果得られる、発話内容の文字列を示すデータを、情報処理装置100へ送信する。
また、音声認識処理装置200は、例えば、本実施形態に係る辞書に係るデータ(以下「辞書データ」と示す。)を管理する。なお、本実施形態に係る情報処理システムでは、サーバなどの他の装置が、辞書データを管理してもよい。音声認識処理装置200などの外部装置において辞書が管理されることによって、例えば、情報処理装置100における上記(1)の処理(解析処理)における挙動を、より容易に変更することが可能となる。以下では、音声認識処理装置200が辞書データを管理する場合を例に挙げる。
また、音声認識処理装置200は、例えば、ログデータを管理する。なお、本実施形態に係る情報処理システムでは、サーバなどの他の装置が、ログデータを管理してもよく、情報処理装置100がログデータを管理してもよい。以下では、音声認識処理装置200がログデータを管理する場合を例に挙げる。
ここで、音声認識処理装置200は、例えば図10に示すハードウェア構成をとるが、音声認識処理装置200のハードウェア構成は、上記に限られない。
情報処理装置100は、音声認識処理装置200から送信された発話内容の文字列を示すデータに対して、上述した本実施形態に係る情報処理方法に係る処理を行う。
制御対象装置300は、例えば、情報処理装置100から送信される制御命令に基づいて処理を行い、情報処理装置100により機能が制御される。ここで、制御対象装置300は、例えば図10に示すハードウェア構成をとるが、制御対象装置300のハードウェア構成は、上記に限られない。
例えば図11に示す構成によって、情報処理装置100が、音声認識処理装置200(外部装置の一例)において音声認識の処理が行われた結果得られる発話内容を示す文字列を処理することが可能な、情報処理システムが実現される。
次に、情報処理システム1000における処理の一例について説明する。図12は、本実施形態に係る情報処理システム1000における処理の一例を示す説明図である。ここで、図12に示すステップS414の処理が、上記(1)の処理(解析処理)に該当し、図12に示すステップS418の処理が、上記(2)の処理(表示制御処理)に該当する。また、図12に示すステップS416、S420は、本実施形態に係る実行処理の一例を示しており、図12に示すステップS422が、本実施形態に係るログ記録制御処理に該当する。
情報処理装置100と制御対象装置300とは、接続処理を行う(S400)。ここで、ステップS400の処理は、例えば、情報処理装置100が、ユーザの接続操作に基づいて、制御対象装置300に対して接続要求を送信することによって行われる。
ステップS400において情報処理装置100と制御対象装置300とが接続されると、情報処理装置100は、制御対象装置300の能力を特定する(S402)。情報処理装置100は、例えば、能力情報を送信させる能力情報送信要求を制御対象装置300に送信し、当該能力情報送信要求に応じて制御対象装置300から送信される能力情報に基づいて、制御対象装置300の能力を特定する。
情報処理装置100は、例えば、音声認識処理装置200に、辞書アップデート確認要求を送信する(S404)。
ステップS404において情報処理装置100から送信された辞書アップデート確認要求を受信した音声認識処理装置200は、記録媒体156などに記憶されている辞書データを確認し、辞書データが更新されている場合には、辞書データを情報処理装置100へ送信する(S406)。ステップS406の処理により、例えば情報処理装置100が備える記憶部(図示せず)などに記憶されている本実施形態に係る辞書は、更新される。ここで、音声認識処理装置200は、例えば、辞書全体を示す辞書データを送信してもよいし、辞書における更新部分に対応するデータのみを辞書データとして送信してもよい。
発話による音声データが得られると、情報処理装置100は、音声認識処理装置200に、音声データを送信する(S408)。
ステップS408において情報処理装置100から送信された音声データを受信した音声認識処理装置200は、音声データに対して音声認識に係る処理を行う(S410)。そして、音声認識処理装置200は、音声認識に係る処理の結果得られる発話内容の文字列を示すデータを、情報処理装置100へ送信する(S412)。
ステップS412において音声認識処理装置200から送信された発話内容の文字列を示すデータを受信した情報処理装置100は、発話内容の文字列を示すデータに対して解析処理を行う(S414)。
また、情報処理装置100は、ステップS414における解析結果に基づいて、コンテンツを検索する(S416)。ここで、情報処理装置100がコンテンツを検索する対象としては、例えば、記憶部(図示せず)や、光ディスクなどの外部記録媒体、音声認識処理装置200などの外部装置などが挙げられる。
具体例を挙げると、情報処理装置100は、例えば、音声認識処理装置200などの外部装置におけるコンテンツ検索エンジンと連携して、接続されているテレビ受像機(制御対象装置300の一例)における番組検索や、インターネット上の連携サービスの動画、音楽検索などを行う。また、情報処理装置100は、例えば、接続されているテレビ受像機(制御対象装置300の一例)と通信を行い、テレビ受像機における録画タイトルコンテンツやテレビ受像機のアプリケーションなどを検索する。また、情報処理装置100は、例えば、ホームネットワーク内のPC(制御対象装置300の一例)と通信を行い、PCが備える記録媒体に記憶されている画像データ(動画像、静止画像を示すデータ)や、音楽データなどを検索する。また、情報処理装置100は、例えば、Web検索を行う。また、情報処理装置100は、例えば、ディスクプレイヤー(制御対象装置300の一例)に挿入されているディスクを検索してもよい。
情報処理装置100は、発話内容の文字列と、ステップS414における解析結果とを表示画面に表示させる(S418)。また、情報処理装置100は、例えば、ステップS414における解析結果と、ステップS416における検索結果とに基づいて、図1のCのC2に示すように、発話内容に対応するアプリケーション、および/または、発話内容に対応するサービスを、表示画面に表示させてもよい。
例えば、ステップS418において表示させた画面において、アプリケーションやサービスに対する操作(制御対象装置300に動作を行わせるための操作)が検出された場合には、情報処理装置100は、当該操作に応じた制御命令を、制御対象装置300へ送信する(S420)。
また、情報処理装置100は、例えば、ステップS414における解析結果のログや、各処理におけるログを示すログデータを、音声認識処理装置200へ送信する(S422)。
情報処理システム1000では、例えば図12に示す処理が行われる。ここで、図12に示す処理が行われる場合であっても、情報処理装置100は、上述した本実施形態に係る情報処理方法に係る処理を行うことが可能である。よって、例えば図12に示す処理が行われることによって、ユーザの利便性の向上を図ることが可能な情報処理システムが実現される。なお、本実施形態に係る情報処理システム1000における処理が、図12に示す処理に限られないことは、言うまでもない。
上記では、本実施形態に係る情報処理システムの構成要素として音声認識処理装置200を挙げて説明したが、本実施形態は、かかる形態に限られない。本実施形態は、例えば、PCやサーバなどのコンピュータなど、様々な機器に適用することができる。また、本実施形態は、例えば、上記のような機器に組み込むことが可能な、処理ICに適用することもできる。
また、本実施形態に係る音声認識処理装置200に係る処理は、例えばクラウドコンピューティングなどのように、ネットワークへの接続(または各装置間の通信)を前提とした、複数の装置からなるシステムにより実現されてもよい。
また、上記では、本実施形態に係る情報処理システムの構成要素として制御対象装置300を挙げて説明したが、本実施形態は、かかる形態に限られない。本実施形態は、例えば、テレビ受像機や、PCやサーバなどのコンピュータ、映像/音楽再生装置(または映像/音楽記録再生装置)、ゲーム機など、様々な機器に適用することができる。また、本実施形態は、例えば、上記のような機器に組み込むことが可能な、処理ICに適用することもできる。
(本実施形態に係るプログラム)
コンピュータを、本実施形態に係る情報処理装置として機能させるためのプログラム(例えば、“上記(1)の処理(解析処理)、および上記(2)の処理(表示制御処理)”や、“上記(1)の処理(解析処理)、上記(2)の処理(表示制御処理)、および上記実行処理”、“上記(1)の処理(解析処理)、上記(2)の処理(表示制御処理)、および上記ログ記録制御処理”、“上記(1)の処理(解析処理)、上記(2)の処理(表示制御処理)、上記実行処理、および上記ログ記録制御処理”など、本実施形態に係る情報処理方法に係る処理を実行することが可能なプログラム)が、コンピュータにおいて実行されることによって、ユーザの利便性の向上を図ることができる。また、コンピュータを、本実施形態に係る情報処理装置として機能させるためのプログラムが、コンピュータにおいて実行されることによって、上述した本実施形態に係る情報処理方法に係る処理が行われることによる効果を奏することができる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上記では、コンピュータを、本実施形態に係る情報処理装置として機能させるためのプログラム(コンピュータプログラム)が提供されることを示したが、本実施形態は、さらに、上記プログラムを記憶させた記録媒体も併せて提供することができる。
上述した構成は、本実施形態の一例を示すものであり、当然に、本開示の技術的範囲に属するものである。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
音声認識の結果得られる発話内容を示す文字列を解析する解析部と、
前記発話内容を示す文字列と解析の結果とを、表示画面に表示させる表示制御部と、
を備える、情報処理装置。
(2)
前記表示制御部は、前記発話内容を示す文字列を、編集することが可能な状態で表示させる、(1)に記載の情報処理装置。
(3)
前記解析部は、音声認識のゆらぎを補正し、
前記表示制御部は、前記ゆらぎが補正された発話内容を示す文字列を表示させる、(1)、または(2)に記載の情報処理装置。
(4)
前記表示制御部は、前記解析の結果に基づいて、前記発話内容に対応するアプリケーション、および/または、前記発話内容に対応するサービスを、表示画面に強調して表示させる、(1)〜(3)のいずれか1つに記載の情報処理装置。
(5)
前記解析部は、前記発話内容を示す文字列に対して動作を解析し、
前記表示制御部は、前記解析の結果に含まれる動作の解析結果に基づいて、表示画面に表示させる前記アプリケーション、前記サービスを強調して表示させる、(4)に記載の情報処理装置。
(6)
前記表示制御部は、装置が有する能力を示す能力情報に基づいて、表示画面に表示させる前記アプリケーションの候補、および/または、表示画面に表示させる前記サービスの候補を決定する、(4)、または(5)に記載の情報処理装置。
(7)
選択された前記発話内容に対応するアプリケーション、または、選択された前記発話内容に対応するサービスに関する処理を実行する処理部をさらに備える、(4)〜(6)のいずれか1つに記載の情報処理装置。
(8)
前記解析部は、前記発話内容を示す文字列に対する構文解析の結果、または、前記構文解析の結果および前記発話内容を示す文字列に対する意味解析の結果に基づいて、前記発話内容を示す文字列にスコアを設定し、
前記処理部は、
基準値よりも大きな前記スコア、または、前記基準値以上の前記スコアがない場合には、前記発話内容を示す文字列全体を処理に用い、
前記基準値よりも大きな前記スコア、または、前記基準値以上の前記スコアがある場合には、前記発話内容を示す文字列のうちの、前記スコアが大きい1または2以上の一部の文字列を、処理に用いる、(7)に記載の情報処理装置。
(9)
前記解析部は、前記発話内容を示す文字列に対して時制を解析し、
前記処理部は、時制の解析結果が前記発話内容を示す文字列に時制を示す文言が含まれることを示す場合には、前記発話内容を示す文字列に含まれる時制を示す文言を処理に用いる、(7)、または(8)に記載の情報処理装置。
(10)
前記解析の結果をログとして記録させるログ記録制御部をさらに備える、(1)〜(9)のいずれか1つに記載の情報処理装置。
(11)
音声認識の結果得られる発話内容を示す文字列を解析するステップと、
前記発話内容を示す文字列と解析の結果とを、表示画面に表示させるステップと、
を有する、情報処理方法。
(12)
音声認識の結果得られる発話内容を示す文字列を解析するステップ、
前記発話内容を示す文字列と、解析の結果とを表示画面に表示させるステップ、
をコンピュータに実行させるためのプログラム。
100 情報処理装置
102 通信部
104 制御部
110 解析部
112 表示制御部
114 ログ記録制御部
116 処理部
200 音声認識処理装置
300、300A、300B 制御対象装置
400 ネットワーク
1000 情報処理システム

Claims (12)

  1. 音声認識の結果得られる発話内容を示す文字列を解析する解析部と、
    前記発話内容を示す文字列と解析の結果とを、表示画面に表示させる表示制御部と、
    を備える、情報処理装置。
  2. 前記表示制御部は、前記発話内容を示す文字列を、編集することが可能な状態で表示させる、請求項1に記載の情報処理装置。
  3. 前記解析部は、音声認識のゆらぎを補正し、
    前記表示制御部は、前記ゆらぎが補正された発話内容を示す文字列を表示させる、請求項1に記載の情報処理装置。
  4. 前記表示制御部は、前記解析の結果に基づいて、前記発話内容に対応するアプリケーション、および/または、前記発話内容に対応するサービスを、表示画面に強調して表示させる、請求項1に記載の情報処理装置。
  5. 前記解析部は、前記発話内容を示す文字列に対して動作を解析し、
    前記表示制御部は、前記解析の結果に含まれる動作の解析結果に基づいて、表示画面に表示させる前記アプリケーション、前記サービスを強調して表示させる、請求項4に記載の情報処理装置。
  6. 前記表示制御部は、装置が有する能力を示す能力情報に基づいて、表示画面に表示させる前記アプリケーションの候補、および/または、表示画面に表示させる前記サービスの候補を決定する、請求項4に記載の情報処理装置。
  7. 選択された前記発話内容に対応するアプリケーション、または、選択された前記発話内容に対応するサービスに関する処理を実行する処理部をさらに備える、請求項4に記載の情報処理装置。
  8. 前記解析部は、前記発話内容を示す文字列に対する構文解析の結果、または、前記構文解析の結果および前記発話内容を示す文字列に対する意味解析の結果に基づいて、前記発話内容を示す文字列にスコアを設定し、
    前記処理部は、
    基準値よりも大きな前記スコア、または、前記基準値以上の前記スコアがない場合には、前記発話内容を示す文字列全体を処理に用い、
    前記基準値よりも大きな前記スコア、または、前記基準値以上の前記スコアがある場合には、前記発話内容を示す文字列のうちの、前記スコアが大きい1または2以上の一部の文字列を、処理に用いる、請求項7に記載の情報処理装置。
  9. 前記解析部は、前記発話内容を示す文字列に対して時制を解析し、
    前記処理部は、時制の解析結果が前記発話内容を示す文字列に時制を示す文言が含まれることを示す場合には、前記発話内容を示す文字列に含まれる時制を示す文言を処理に用いる、請求項7に記載の情報処理装置。
  10. 前記解析の結果をログとして記録させるログ記録制御部をさらに備える、請求項1に記載の情報処理装置。
  11. 音声認識の結果得られる発話内容を示す文字列を解析するステップと、
    前記発話内容を示す文字列と解析の結果とを、表示画面に表示させるステップと、
    を有する、情報処理方法。
  12. 音声認識の結果得られる発話内容を示す文字列を解析するステップ、
    前記発話内容を示す文字列と、解析の結果とを表示画面に表示させるステップ、
    をコンピュータに実行させるためのプログラム。
JP2014554243A 2012-12-28 2013-11-20 情報処理装置、情報処理方法、およびプログラム Pending JPWO2014103568A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012287357 2012-12-28
JP2012287357 2012-12-28
PCT/JP2013/081312 WO2014103568A1 (ja) 2012-12-28 2013-11-20 情報処理装置、情報処理方法、およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018100317A Division JP6603754B2 (ja) 2012-12-28 2018-05-25 情報処理装置

Publications (1)

Publication Number Publication Date
JPWO2014103568A1 true JPWO2014103568A1 (ja) 2017-01-12

Family

ID=51020662

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2014554243A Pending JPWO2014103568A1 (ja) 2012-12-28 2013-11-20 情報処理装置、情報処理方法、およびプログラム
JP2018100317A Active JP6603754B2 (ja) 2012-12-28 2018-05-25 情報処理装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2018100317A Active JP6603754B2 (ja) 2012-12-28 2018-05-25 情報処理装置

Country Status (6)

Country Link
US (4) US10424291B2 (ja)
EP (2) EP2940683A4 (ja)
JP (2) JPWO2014103568A1 (ja)
CN (2) CN104871240A (ja)
BR (1) BR112015014830B1 (ja)
WO (1) WO2014103568A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11676578B2 (en) 2012-12-28 2023-06-13 Saturn Licensing Llc Information processing device, information processing method, and program

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102352764B1 (ko) * 2014-11-04 2022-01-19 삼성전자주식회사 사용자 단말 장치, 사용자 단말 장치와 연계되는 디스플레이 장치, 연계 시스템 및 그 제어 방법
US10271093B1 (en) 2016-06-27 2019-04-23 Amazon Technologies, Inc. Systems and methods for routing content to an associated output device
EP3475942B1 (en) * 2016-06-27 2023-01-11 Amazon Technologies, Inc. Systems and methods for routing content to an associated output device
US10931999B1 (en) * 2016-06-27 2021-02-23 Amazon Technologies, Inc. Systems and methods for routing content to an associated output device
CN109792502B (zh) * 2016-09-26 2021-11-19 索尼公司 信息处理设备、信息处理方法、存储介质和信息处理系统
US10449440B2 (en) 2017-06-30 2019-10-22 Electronic Arts Inc. Interactive voice-controlled companion application for a video game
US10621317B1 (en) 2017-09-14 2020-04-14 Electronic Arts Inc. Audio-based device authentication system
US10572586B2 (en) * 2018-02-27 2020-02-25 International Business Machines Corporation Technique for automatically splitting words
CN113330472A (zh) * 2018-12-05 2021-08-31 株式会社东芝 对话分析系统、方法以及程序
JPWO2020240958A1 (ja) * 2019-05-30 2020-12-03
US10926173B2 (en) * 2019-06-10 2021-02-23 Electronic Arts Inc. Custom voice control of video game character
KR20240044260A (ko) * 2022-09-28 2024-04-04 엘지전자 주식회사 디스플레이 장치 및 그의 동작 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008046260A (ja) * 2006-08-11 2008-02-28 Nissan Motor Co Ltd 音声認識装置
JP2010134074A (ja) * 2008-12-03 2010-06-17 Toshiba Corp 音声認識装置、方法、およびプログラム

Family Cites Families (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0756933A (ja) * 1993-06-24 1995-03-03 Xerox Corp 文書検索方法
US7165098B1 (en) * 1998-11-10 2007-01-16 United Video Properties, Inc. On-line schedule system with personalization features
US6594630B1 (en) * 1999-11-19 2003-07-15 Voice Signal Technologies, Inc. Voice-activated control for electrical device
JP3907363B2 (ja) 1999-12-06 2007-04-18 キヤノン株式会社 情報入力装置、情報入力方法、及び記憶媒体
US6941266B1 (en) * 2000-11-15 2005-09-06 At&T Corp. Method and system for predicting problematic dialog situations in a task classification system
US8019602B2 (en) * 2004-01-20 2011-09-13 Microsoft Corporation Automatic speech recognition learning using user corrections
US7929767B2 (en) * 2004-09-22 2011-04-19 Microsoft Corporation Analyzing subordinate sub-expressions in expression recognition
JP4542974B2 (ja) * 2005-09-27 2010-09-15 株式会社東芝 音声認識装置、音声認識方法および音声認識プログラム
WO2007047487A1 (en) * 2005-10-14 2007-04-26 Nuance Communications, Inc. One-step repair of misrecognized recognition strings
US20100153885A1 (en) * 2005-12-29 2010-06-17 Rovi Technologies Corporation Systems and methods for interacting with advanced displays provided by an interactive media guidance application
US9436951B1 (en) * 2007-08-22 2016-09-06 Amazon Technologies, Inc. Facilitating presentation by mobile device of additional content for a word or phrase upon utterance thereof
US9318108B2 (en) * 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US9015172B2 (en) * 2006-09-22 2015-04-21 Limelight Networks, Inc. Method and subsystem for searching media content within a content-search service system
US8631440B2 (en) * 2007-04-30 2014-01-14 Google Inc. Program guide user interface
US8140335B2 (en) * 2007-12-11 2012-03-20 Voicebox Technologies, Inc. System and method for providing a natural language voice user interface in an integrated voice navigation services environment
US20090210411A1 (en) * 2008-02-15 2009-08-20 Oki Electric Industry Co., Ltd. Information Retrieving System
JP5220451B2 (ja) 2008-03-26 2013-06-26 日本電気株式会社 電話受付システム、電話受付方法、プログラム、及び記録媒体
KR20090107365A (ko) 2008-04-08 2009-10-13 엘지전자 주식회사 이동 단말기 및 그 메뉴 제어방법
KR101513615B1 (ko) * 2008-06-12 2015-04-20 엘지전자 주식회사 이동 단말기 및 그 음성 인식 방법
US8108214B2 (en) * 2008-11-19 2012-01-31 Robert Bosch Gmbh System and method for recognizing proper names in dialog systems
US9367608B1 (en) * 2009-01-07 2016-06-14 Guangsheng Zhang System and methods for searching objects and providing answers to queries using association data
US10706373B2 (en) * 2011-06-03 2020-07-07 Apple Inc. Performing actions associated with task items that represent tasks to perform
CN102483917B (zh) * 2009-07-15 2016-03-16 谷歌公司 针对显示文本的命令
KR101253104B1 (ko) * 2009-09-01 2013-04-10 한국전자통신연구원 패턴 데이터베이스화 장치 및 그 방법, 이를 이용한 음성 이해 장치 및 그 방법
CN102640107A (zh) * 2009-11-30 2012-08-15 株式会社东芝 信息处理装置
WO2011068170A1 (ja) * 2009-12-04 2011-06-09 ソニー株式会社 検索装置、検索方法、及び、プログラム
EP2339576B1 (en) * 2009-12-23 2019-08-07 Google LLC Multi-modal input on an electronic device
US8522283B2 (en) * 2010-05-20 2013-08-27 Google Inc. Television remote control data transfer
US8359020B2 (en) * 2010-08-06 2013-01-22 Google Inc. Automatically monitoring for voice input based on context
JP2012063526A (ja) 2010-09-15 2012-03-29 Ntt Docomo Inc 端末装置、音声認識方法および音声認識プログラム
JP2015038526A (ja) * 2011-03-31 2015-02-26 株式会社東芝 音声処理装置、及び音声処理方法
JP2012221108A (ja) * 2011-04-06 2012-11-12 Sony Corp 情報処理装置、情報処理方法、プログラム、履歴管理サーバ、履歴管理方法および情報処理システム
US9236045B2 (en) * 2011-05-23 2016-01-12 Nuance Communications, Inc. Methods and apparatus for proofing of a text input
WO2013012107A1 (ko) * 2011-07-19 2013-01-24 엘지전자 주식회사 전자 기기 및 그 제어 방법
US8488916B2 (en) * 2011-07-22 2013-07-16 David S Terman Knowledge acquisition nexus for facilitating concept capture and promoting time on task
WO2013022221A2 (en) * 2011-08-05 2013-02-14 Samsung Electronics Co., Ltd. Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same
US20130073293A1 (en) * 2011-09-20 2013-03-21 Lg Electronics Inc. Electronic device and method for controlling the same
CN104871240A (zh) 2012-12-28 2015-08-26 索尼公司 信息处理设备、信息处理方法、以及程序
DK2994908T3 (da) * 2013-05-07 2019-09-23 Veveo Inc Grænseflade til inkrementel taleinput med realtidsfeedback
KR102227599B1 (ko) * 2013-11-12 2021-03-16 삼성전자 주식회사 음성인식 시스템, 음성인식 서버 및 디스플레이 장치의 제어방법
WO2015098079A1 (ja) * 2013-12-26 2015-07-02 パナソニックIpマネジメント株式会社 音声認識処理装置、音声認識処理方法、および表示装置
CN105940399B (zh) * 2014-03-28 2019-04-26 松下知识产权经营株式会社 声音检索装置、声音检索方法以及显示装置
US10978052B2 (en) * 2014-04-16 2021-04-13 Facebook, Inc. Email-like user interface for training natural language systems
US9852136B2 (en) * 2014-12-23 2017-12-26 Rovi Guides, Inc. Systems and methods for determining whether a negation statement applies to a current or past query
US10268491B2 (en) * 2015-09-04 2019-04-23 Vishal Vadodaria Intelli-voyage travel
US9978367B2 (en) * 2016-03-16 2018-05-22 Google Llc Determining dialog states for language models
US10304444B2 (en) * 2016-03-23 2019-05-28 Amazon Technologies, Inc. Fine-grained natural language understanding

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008046260A (ja) * 2006-08-11 2008-02-28 Nissan Motor Co Ltd 音声認識装置
JP2010134074A (ja) * 2008-12-03 2010-06-17 Toshiba Corp 音声認識装置、方法、およびプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11676578B2 (en) 2012-12-28 2023-06-13 Saturn Licensing Llc Information processing device, information processing method, and program

Also Published As

Publication number Publication date
EP2940683A1 (en) 2015-11-04
US10424291B2 (en) 2019-09-24
JP2018170015A (ja) 2018-11-01
US11100919B2 (en) 2021-08-24
US11676578B2 (en) 2023-06-13
BR112015014830B1 (pt) 2021-11-16
US20230267920A1 (en) 2023-08-24
BR112015014830A2 (pt) 2017-07-11
WO2014103568A1 (ja) 2014-07-03
US20190348024A1 (en) 2019-11-14
US20150310854A1 (en) 2015-10-29
JP6603754B2 (ja) 2019-11-06
EP2940683A4 (en) 2016-08-10
CN104871240A (zh) 2015-08-26
CN110889265B (zh) 2024-01-30
EP3896596A1 (en) 2021-10-20
US20210358480A1 (en) 2021-11-18
CN110889265A (zh) 2020-03-17

Similar Documents

Publication Publication Date Title
JP6603754B2 (ja) 情報処理装置
EP3190512B1 (en) Display device and operating method therefor
US20200260127A1 (en) Interactive server, display apparatus, and control method thereof
US20240155092A1 (en) Interactive information processing method, device and medium
JP6375521B2 (ja) 音声検索装置、音声検索方法、および表示装置
JP6618223B2 (ja) 音声処理方法及び装置
JP6244560B2 (ja) 音声認識処理装置、音声認識処理方法、および表示装置
EP3279809A1 (en) Control device, control method, computer and program
US11664024B2 (en) Artificial intelligence device
KR20140022320A (ko) 영상표시장치와 서버의 동작 방법
US20220293106A1 (en) Artificial intelligence server and operation method thereof
JP2015106203A (ja) 情報処理装置、情報処理方法、及びプログラム
US20150382070A1 (en) Method, electronic device, and computer program product
KR20190117913A (ko) 디스플레이 장치
US11455990B2 (en) Electronic device and control method therefor
US20230282209A1 (en) Display device and artificial intelligence server
US11706482B2 (en) Display device
US20240203419A1 (en) Display device and operation method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161102

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180116

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180413

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180828