JP5977597B2 - 情報処理装置、通信システム、通信方法、およびプログラム - Google Patents

情報処理装置、通信システム、通信方法、およびプログラム Download PDF

Info

Publication number
JP5977597B2
JP5977597B2 JP2012141030A JP2012141030A JP5977597B2 JP 5977597 B2 JP5977597 B2 JP 5977597B2 JP 2012141030 A JP2012141030 A JP 2012141030A JP 2012141030 A JP2012141030 A JP 2012141030A JP 5977597 B2 JP5977597 B2 JP 5977597B2
Authority
JP
Japan
Prior art keywords
character information
information
user
character
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012141030A
Other languages
English (en)
Other versions
JP2014006648A (ja
Inventor
尚久 蔦田
尚久 蔦田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2012141030A priority Critical patent/JP5977597B2/ja
Publication of JP2014006648A publication Critical patent/JP2014006648A/ja
Application granted granted Critical
Publication of JP5977597B2 publication Critical patent/JP5977597B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)

Description

本発明は、情報処理装置、通信システム、通信方法、およびプログラムに関し、特に相手方の情報処理装置との通信に関する。
従来から、お互いが遠隔地にいるユーザそれぞれが、電話などの情報処理装置を用いて通話を行う技術がある。例えば、特開2003−209600号公報(特許文献1)は、相手との会話を明確にするために、相手の通信端末から送信された音声情報を音声認識して、文字情報に変換し、該文字情報を表示する技術を開示している。
特開2003−209600号公報
上記技術では、ユーザが相手方ユーザと通話を行っている場合に、該通話において、以前の該相手方ユーザの発言に対して、該ユーザがさらに発言(例えば、質問)した場合に、該相手方ユーザの発言とユーザの発言との関連付けが明瞭ではないという問題が生じる。
本発明は、このような問題を解決するためのものであって、その目的は、ユーザが音声認識を結果を指定して発話することにより、該音声認識結果と、該発話についての音声認識結果を、相手方の情報処理装置の表示部に関連付けて表示させ、上記問題を解決できる情報処理装置、通信システム、通信方法、およびプログラムを提供することである。
本発明のある局面に従う情報処理装置は、情報表示端末と通信可能であって、文字情報を表示するための表示手段と、音声データに対して音声認識することにより文字情報を生成する認識手段と、文字情報を情報処理装置のユーザにより指定可能に表示手段に表示させる表示制御手段と、表示手段に表示された文字情報と同一の文字情報を、情報表示端末に表示させる処理制御手段と、を備え、処理制御手段は、文字情報のうち第1文字情報が情報処理装置のユーザから指定された状態で認識手段が音声認識することにより第2文字情報を生成して、該第1文字情報と同一の文字情報である第3文字情報と、該第2文字情報とを関連付けて、情報表示端末に表示させる。
好ましくは、処理制御手段は、第2文字情報を、情報表示端末のユーザにより指定可能に、情報表示端末に表示させ、表示制御手段は、第2文字情報が情報表示端末のユーザから指定された状態で、情報表示端末が音声認識することにより生成した第4文字情報を、該第2文字情報に関連付けられた第3文字情報と同一の第1文字情報と関連付けて表示手段に表示させる。
好ましくは、表示制御手段は、第1文字情報と、該第1文字情報に関連する第4文字情報とを線で結んで表示手段に表示させる。
好ましくは、表示制御手段は、第1文字情報に所定のマークを表示させ、情報処理装置のユーザから所定のマークが指定されると、該第1文字情報に関連する第4文字情報を表示手段に表示させる。
好ましくは、処理制御手段は、文字情報、および、情報表示端末に該文字情報を表示させる指示信号を情報表示端末に送信する。
好ましくは、処理制御手段は、音声データ、および、該音声データに対して情報表示端末に音声認識させることにより文字情報を生成させ該文字情報を情報表示端末に表示させる指示信号を情報表示端末に送信する。
本発明の他の局面によれば、各々が通信可能な少なくとも2つの情報処理装置を備え、一方の情報処理装置は、文字情報を表示するための表示手段と、音声データに対して音声認識することにより文字情報を生成する認識手段と、文字情報を一方の情報処理装置のユーザにより指定可能に表示手段に表示させる表示制御手段と、表示手段に表示された文字情報と同一の文字情報を、他方の情報処理装置に表示させる処理制御手段と、を備え、処理制御手段は、文字情報のうち第1文字情報が一方の情報処理装置のユーザから指定された状態で認識手段が音声認識することにより第2文字情報を生成して、該第1文字情報と同一の文字情報である第3文字情報と、該第2文字情報とを関連付けて、記他方の情報処理装置に表示させる。
本発明の他の局面によれば、情報表示端末と通信する通信方法であって、音声データに対して音声認識することにより文字情報を生成するステップと、文字情報をユーザにより指定可能に表示するステップと、表示された文字情報と同一の文字情報を、情報表示端末に表示させるステップと、文字情報のうち第1文字情報がユーザから指定された状態で音声認識することにより第2文字情報を生成するステップと、生成された生成した第2文字情報を、該第1文字情報と同一の文字情報である第3文字情報と関連付けて、情報表示端末に表示させるステップと、を備える。
本発明の他の局面によれば、情報表示端末と通信するプログラムであって、プログラムは、コンピュータに、音声データに対して音声認識することにより文字情報を生成するステップと、文字情報をユーザにより指定可能に表示するステップと、表示された文字情報と同一の文字情報を、情報表示端末に表示させるステップと、文字情報のうち第1文字情報がユーザから指定された状態で音声認識することにより第2文字情報を生成するステップと、生成された生成した第2文字情報を、該第1文字情報と同一の文字情報である第3文字情報と関連付けて、情報表示端末に表示させるステップとを備える。
ある局面において、ユーザが音声認識を結果を指定して発話することにより、情報処理装置は、該音声認識結果と、該発話についての音声認識結果を、相手方の情報処理装置の表示部に関連付けて表示させる。
この発明の上記および他の目的、特徴、局面および利点は、添付の図面と関連して理解されるこの発明に関する次の詳細な説明から明らかとなるであろう。
本実施形態の概略の一例の前半を示した図である。 本実施形態の概略の一例の後半を示した図である。 本実施形態の情報処理装置の使用態様の一例を示した図である。 情報処理装置のハードウェア構成例を示した図である。 自己の情報処理装置などの機能構成例を示した図である。 相手方の情報処理装置などの機能構成例を示した図である。 文字情報DBの一例を示した図である。 別の実施形態の関連付けの一例を示した図である。 本実施形態の処理フローの一例を示した図である。 別の実施形態の処理フローの一例を示した図である。 別の実施形態の処理フローの一例を示した図である。 テレビ会議システムの機能構成例を示した図である。 別の実施形態の概略の一例を示した図である。 別の実施形態の概略の一例を示した図である。 別の実施形態の概略の一例の前半を示した図である。 別の実施形態の概略の一例の後半を示した図である。
以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してあり、それらの名称および機能も同じである。従って、重複説明を繰り返さない。
[概略]
<前提>
まず、図1Aおよび図1Bを参照しながら、本実施形態の概略の前提を説明する。図1Aおよび図1Bは、本実施形態の概略を示した図である。本実施形態の情報処理装置(以下「自己の情報処理装置」という場合がある。)は、相手方の情報処理装置と互いに通信可能である。また、自己の情報処理装置のユーザを「ユーザA」とし、相手方の情報処理装置のユーザを「ユーザB」とする。
自己の情報処理装置は、ユーザAの発話音声の音声データに対して音声認識することにより、該音声データを文字情報に変換する。自己の情報処理装置は、該変換された文字情報を表示する。また、自己の情報処理装置は、ユーザBの発話音声の音声データに対して音声認識がされたことにより生成された文字情報も表示する。
相手方の情報処理装置は、ユーザBの発話音声の音声データに対して音声認識することにより、該音声データを文字情報に変換する。相手方の情報処理装置は、該変換された文字情報を表示する。また、相手方の情報処理装置は、ユーザBの発話音声の音声データに対して音声認識がされたことにより生成された文字情報も表示する。
このように、図1に示すように、情報処理装置は、ユーザAの発話音声の文字情報、および、ユーザBの発話音声の文字情報を表示する。従って、ユーザAは、自分(ユーザA)の発話音声の文字情報、およびユーザB(相手方ユーザ)の発話音声の文字情報を、目視できることから、ユーザAおよびB同士で、明確な通話を行うことができる。
図1Aおよび図1Bの例では、画面X1、X2、X5は、自己の情報処理装置が表示する画面である。また、画面X3、X4は、相手方の情報処理装置が表示する画面である。
また、画面X1などに示すように、自己の情報処理装置は、自分の発言として、ユーザAの発話音声についての文字情報CrAを表示する。また、相手方の情報処理装置は、相手の発言として、ユーザAの発話音声についての文字情報CrAと同一の文字情報CrA’を表示する。
また、画面E1などに示すように自己の情報処理装置は、相手の発言として、ユーザBの発話音声についての文字情報CrBを表示する。一方、相手方の情報処理装置は、自分の発言として、ユーザBの発話音声についての文字情報CrBと同一の文字情報CrB’を表示する。
また、自己の情報処理装置および相手方の情報処理装置は、文字情報を生成する毎に、該生成された文字情報に識別情報(以下、ID(Identification)という。)を付加して記憶する。詳細は後述する。
また、文字情報CrAのIDと、文字情報CrA’のIDとは同一とし、文字情報CrBのIDと文字情報CrB’のIDとは同一である。
図1の例では、文字情報は生成される毎に、時系列に沿って、下方向に表示される。また、各画面X1〜X4において、左半分の領域に、自分の発話の文字情報が表示され、右半分の領域に、相手方の発話の文字情報が表示される。
つまり、画面X1を例として説明すると、各文字情報は、ユーザBの発話「こんにちは。元気ですか?」→ユーザAの発話「元気ですよ」→ユーザBの発話「明日の予定ですが、大丈夫でしょうか?」→ユーザBの発話「会議の後ですが、引き続き会議を行います。内容は来月のプロジェクトについてです。」で表示される。
また、例えば図1Aおよび図1B記載のように、自己の情報処理装置および相手方の情報処理装置は、吹き出し形状の枠内に、文字情報を表示する。これにより、ユーザAおよびユーザBは、文字情報が発話音声から変換されたものであると、直感的に認識できる。
また、自己の情報処理装置および相手方の情報処理装置の表示部分は、例えばタッチパネル機能を具備している。これにより、ユーザが、接触子(例えば、ユーザの指やスタイラスペンなど)を文字情報に接触(例えば、タッチ)させることにより、該ユーザは該文字情報を指定できる。例えば、ユーザが文字情報が表示されている吹き出し形状を指定することにより、文字情報の指定を行うことができる。
ユーザが接触子で文字情報を接触し続けることにより、該文字情報を指定するようにしてもよい。また、ユーザが接触子で一度接触することにより、該文字情報を指定するようにしてもよい。
また、情報処理装置は、ユーザから指定された文字情報の色と、ユーザから指定されていない文字情報の色とを異ならせることが好ましい。これにより、ユーザは、自分で指定された文字情報を容易に認識できる。
また、相手方の情報処理装置を「情報表示端末」という場合もある。
<具体的な処理>
≪前半部≫
次に、自己の情報処理装置などの具体的な処理の前半部について説明する。一例として、画面X1およびX3に示すように、ユーザAは、ユーザBとの通話を進めていたが、ユーザBの発話についての文字情報「会議の後ですが、引き続き会議を行います。内容は来月のプロジェクトについてです。」について、理解できないことを思い出し、該文字情報の内容の再度の説明を所望している場合について説明する。この場合には、画面X2に示すように、ユーザAは、該文字情報を指定する。以下では、該指定された文字情報を「第1文字情報1001」とする。また、画面X4に示すように、相手方の情報処理装置は、第1文字情報1001と同一の文字情報を表示している。該同一の文字情報を「第3文字情報1003」とする。
ユーザAは、第1文字情報1001を指定した状態で、該第1文字情報1001について、相手方ユーザに伝えたい内容を通話する。ここでは、「相手方ユーザに伝えたい内容」Aは、「よく分からないのでもう一度説明して下さい。」という文言であるとする。ユーザは、「よく分からないのでもう一度説明して下さい。」と発話する。そうすると、自己の(ユーザAの)情報処理装置は、発話音声「よく分からないのでもう一度説明して下さい。」を音声認識することにより、該発話音声を文字情報に変換する。該変換された文字情報を第2文字情報という。
そして、自己の情報処理装置は、第1文字情報のID、および、第2文字情報を送信する。相手方の情報処理装置へ送信する。画面X4に示すように、相手方の情報処理装置は、送信されたIDと同一のIDの第3文字情報と、送信された第2文字情報とを関連付けて表示する。「関連付けて表示する」とは、例えば、第3文字情報1003の近傍に第2文字情報1002を表示することであり、好ましくは、第3文字情報の枠と第2文字情報の枠とを重畳させて表示させることである。
また、第3文字情報1003は、指定された第1文字情報1001と同一であり、つまり、第3文字情報のIDと第1文字情報のIDとは同一である。
これにより、相手方の情報処理装置のユーザBは、第3文字情報1003(第1文字情報と同一であり、つまり、「会議の後ですが、引き続き会議を行います。内容は来月のプロジェクトについてです。」を表す文字情報)と、第2文字情報1002(「よく分からないのでもう一度説明して下さい。」を表す文字情報)と、が関連付けられていることを直感的に認識できる。従って、第3文字情報1003に対してユーザAが所望する内容を、ユーザBは容易に理解できる。
≪後半部≫
次に、具体的な処理の後半部について説明する。ユーザBが、それぞれが関連付けられた第2文字情報1002および第3文字情報1003を目視することにより、第2文字情報1002についての回答を行う場合について説明する。
この場合には、ユーザBは、第2文字情報1002を指定する。ユーザBは、第2文字情報1002が指定された状態で、該第2文字情報1002について発話(例えば、回答)する。相手方の情報処理装置は、該発話に対して音声認識を行うことにより、文字情報(以下、「第4文字情報1004」という。)を生成する。相手方の情報処理装置は、該第4文字情報1004を、自己の情報処理装置へ送信する。
自己の情報処理装置は、該第4文字情報1004と、第1文字情報1001とを関連付けて表示する。ここで、該第1文字情報1001は、ユーザBにより第4文字情報1004についての発話がなされた際に指定された第2文字情報1002に関連付けられた第3文字情報1003と同一の第1文字情報1001である。
このように、前半部の処理により、本実施形態の情報処理装置は、第1文字情報1001がユーザAから指定された状態で自己の情報処理装置が音声認識することにより第2文字情報1002を生成する。そして、相手方の情報処理装置は、第2文字情報1002と、第3文字情報1003とを関連付けて表示する。従って、ユーザAが相手方ユーザBと通話を行っている場合に、該通話中の以前の該相手方ユーザBの発言(図1の例では、第1文字情報に係る発言)に対して、該ユーザがさらに発言(第2文字情報に係る発言)した場合に、該相手方ユーザの発言とユーザの発言との関連を明瞭に相手方ユーザに対して表示できる。
また、後半部の処理により、本実施形態の情報処理装置は、第2文字情報1002が相手方ユーザBから指定された状態で、相手方の情報処理装置が音声認識することにより第4文字情報1004を生成する。自己の情報処理装置は、第1文字情報1001と、該第4文字情報とを関連付けて表示する。従って、例えば、ユーザAが第1文字情報1001に対して質問した回答内容(第4文字情報1004)を明瞭に認識できる。
[使用態様]
図2を参照しながら、本実施形態の情報処理装置の使用態様について説明する。図2は、本実施形態の情報処理装置の使用態様の一例を示した図である。図2の例では、ユーザAは、電話50と情報処理装置100とを用いて、遠隔地にいるユーザBと対話している。また、ユーザBは、電話60と情報処理装置200とを用いて、ユーザAと対話している。
情報処理装置100および情報処理装置200は、それぞれ発話音声の音声データに対して音声認識を行うことにより、該音声データを文字情報に変換する。また、図1に示すように、情報処理装置100および情報処理装置200は、それぞれ該文字情報を表示する。情報処理装置100および情報処理装置200は、例えば、PC(Personal Computer)、携帯電話、スマートフォン、タブレット端末などである。また、情報処理装置100と情報処理装置200とは、ネットワーク10で接続されている。情報処理装置100と情報処理装置200との情報のやり取りについては後述する。
また、電話50は、スピーカ52とマイク54を含む。電話60は、スピーカ62とマイク64を含む。
ユーザAが発話した発話音声は、マイク54で集められ、該発話音声は、公衆回線(図示せず)などにより、電話60に送信される。電話60のスピーカ62はユーザAの発話音声を出力する。
ユーザBが発話した発話音声は、マイク64で集められ、該発話音声は、公衆回線(図示せず)などにより、電話50に送信される。電話50のスピーカ52はユーザAの発話音声を出力する。
また、情報処理装置100のユーザによる使用態様として、ユーザがヘッドセットを情報処理装置100に装着して使用するようにしてもよい。
[ハードウェア構成例]
次に、図3を参照して、情報処理装置100のハードウェア構成例を説明する。図3は、情報処理装置100のハードウェア構成例を示した図である。図3の例では、情報処理装置100は、CPU(Central Processing Unit)302と、RAM(Random Access Memory)304と、ROM(Read Only Memory)306と、EEPROM(Electronically Erasable and Programmable Read Only Memory)308と、通信部110と、表示部112と、操作部310と、外部メディアI/F部312と、を含む。
CPU302は、ROM306に格納されているプログラムや各種データに基づいて、処理を行う。RAM304は、ROM306から読み出された各種プログラムやデータを一時保持する。ROM306は、情報処理装置100が、起動されるときに実行されるプログラムや各種データを格納する。
通信部110は、相手方の情報処理装置との間で、種々の情報を送受信する。操作部310は、ユーザからの操作を受け付ける。表示部112は、タッチパネル機能を備えるディスプレイである。従って、表示部112は、概念的に、操作部310の一部を含む。
外部メディアI/F部308は、情報処理装置100と、外部メディア314(例えばSD(Secure Digital)メモリーカードなど)とのインターフェースの役割を果たす。
[機能構成例]
次に、図1、図4、および図5を参照して、情報処理装置100の機能構成例を説明する。図1は、上述の通り、情報処理装置100の表示部が表示する画面の一例である。図4は、ユーザAが保有する情報処理装置100(自己の情報処理装置)などの機能構成例である。図5は、ユーザB(相手方ユーザ)が保有する情報処理装置200(相手方の情報処理装置)などの機能構成例である。
図4に示すように、電話50は、スピーカ52とマイク54とを含む。また、情報処理装置100は、変換部102と、認識部104と、記憶部106と、表示制御部108と、表示部112と、処理制御部114と、通信部110と、検知部116と、を含む。
また、相手方の情報処理装置200の各構成部の参照符号は、情報処理装置100の各構成部の参照符号に対して「100」を加算したものであり、情報処理装置200の各構成部において、情報処理装置100の各構成部と同一の名称の構成部については、同様の処理を行う。従って、情報処理装置200の各構成部の処理の説明については繰り返さない。
変換部102は、入力された音声に対してアナログデジタル変換を行うことにより、音声データに変換する。変換された音声データは、認識部104に入力される。
認識部104は、入力された音声データに対して、音声認識を行い、文字情報を生成する。認識部104は、音声認識の手法として、種々の公知の技術を用いればよい。認識部104は、例えば、予め生成された音響モデルおよび言語モデルなど(図示せず)を用いて、音声認識を行う。認識部104が生成した文字情報は、処理制御部114および表示制御部108に入力される。
記憶部106は、認識部104が生成した文字情報ごとに、IDを付加して、文字情報DB(Database)として記憶する。文字情報DBについては後述する。
処理制御部114は、認識部104から入力された文字情報および第1指示信号を通信部110経由で、相手方の情報処理装置200へ送信する。該第1指示信号は、相手方の情報処理装置200の表示部212に文字情報を表示させるための信号である。情報処理装置200の表示制御部208は、文字情報および第1指示信号を受信すると、図1の画面X3の「相手の発言」に示すように、表示部210に、該文字情報(ユーザAの発話音声についての文字情報)を表示させる。
表示部112は、タッチパネル機能を備える表示ディスプレイである。タッチパネルの方式は、抵抗膜方式、静電容量方式、電磁誘導方式、超音波表面弾性波方式、赤外線走査方式のいずれであってもよい。
図1に示すように、表示制御部108は、認識部104により生成された文字情報を表示部112に表示する。また、情報処理装置200の認識部204はユーザBの発話音声の音声データに対して音声認識を行うことにより、ユーザBの発話音声についての音声情報を生成する。表示制御部108は、生成された音声情報を通信部110経由で取得する。図1の画面X1の「相手の発言」に記載のように、表示制御部108は、取得した音声情報を、相手の発言として、表示部112に表示する。また、ユーザが表示部112に表示された文字情報は、接触子(ユーザの指やスタイラスペンなど)により指定(タッチ)できる。
検知部116は、表示部112に対して接触子が接触したことを検知する。
スピーカ52およびマイク54については、図2で説明した通りなので、説明を繰り返さない。
次に、図6を参照して文字情報DBについて説明する。図6は、文字情報DB(Database)の一例を示した図である。図6記載の文字情報DBは、図1の画面X1の文字情報について示したものである。認識部104が、音声認識を行うごとに、および、通信部110が、情報処理装置200から文字情報を受信することに、CPU302は、文字情報DBを更新する。また、同一の文字情報DBが、相手方の情報処理装置200の記憶部206にも記憶される。
図6に示すように、文字情報IDごとに、文字情報を記憶する。図6の例では、文字情報ID=1に対応付けられて、文字情報「こんにちは。お元気ですか。」が記憶されている。
次に、図4および図5を参照して、図1の処理内容について説明する。画面X1およびX3に示すように、ユーザAは、ユーザBとの通話を進めていたが、ユーザBの発話についての文字情報「会議の後ですが、引き続き会議を行います。内容は来月のプロジェクトについてです。」について、理解できないことを思い出し、該文字情報の内容の再度の説明を所望している場合について説明する。この場合には、画面X2に示すように、ユーザAは、該文字情報を指定する。
上述のように、ユーザは接触子(ユーザの指やスタイラスペンなど)で文字情報をタッチすることにより、該文字情報を指定できる。検知部116は、接触子によりタッチされた点の座標を検出する。処理制御部114は、検出した座標に基づいて、指定された文字情報を取得する。
上述したように、指定された文字情報を「第1文字情報1001」とする。また、画面X4に示すように、相手方の情報処理装置は、第1文字情報1001と同一の文字情報(第3文字情報1003)を表示している。
ユーザAは、第1文字情報1001を指定した状態で、該第1文字情報1001について、相手方ユーザに伝えたい内容を通話する。ここでは、「相手方ユーザに伝えたい内容」は、「よく分からないのでもう一度説明して下さい。」という文言であるとする。ユーザは、「よく分からないのでもう一度説明して下さい。」と発話する。
そうすると、変換部102は、該発話音声を音声データに変換する。認識部104は、「よく分からないのでもう一度説明して下さい。」の音声データを音声認識することにより、文字情報を生成する。該生成された文字情報を第2文字情報1002という。
そして、処理制御部114は、指定された第1文字情報についての文字情報IDを取得する。この例では、処理制御部114は、文字情報IDとして4を取得する。
処理制御部114は、文字情報ID(=4)と、第2文字情報1002とを通信部110経由で情報処理装置200へ送信する。
相手方の情報処理装置200の通信部210は、文字情報ID=4と、第2文字情報1002とを受信する。受信した文字情報ID(=4)と、第2文字情報1002は、表示制御部208に入力される。表示制御部208は、記憶部206に記憶されている文字情報DB(図6参照)を参照して、文字情報ID(=4)の文字情報(つまり、第1文字情報1001と同一の文字情報である第3文字情報1003)を取得する。表示制御部208は、取得した第3文字情報1003と、第2文字情報と関連付けて、表示部210に表示させる(図1の画面X4参照)。
その結果、相手方の情報処理装置のユーザBは、表示部210を目視することにより、第3文字情報1003と、第2文字情報1002と、が関連付けられていることを直感的に認識できる。従って、ユーザBは、第3文字情報に対するユーザAの発話内容を容易に理解できる。
≪後半部≫
次に、具体的な処理の後半部について説明する。ユーザBが、それぞれが関連付けられた第2文字情報1002および第3文字情報1003を目視することにより、第2文字情報1002についての回答を行う場合について説明する。
この場合には、ユーザBは、第2文字情報1002を指定する。該指定は、検知部216により検知される。ユーザBは、第2文字情報1002が指定された状態で、該第2文字情報1002について発話(例えば、回答)する。相手方の情報処理装置200の変換部202は、該発話音声から、音声データに変換する。認識部204は、該音声データに対して音声認識を行うことにより、第4文字情報1004を生成する。処理制御部214は、該第4文字情報1004を、情報処理装置100へ送信する。
情報処理装置100の通信部110は、第4文字情報を取得すると、表示制御部108へ出力する。表示制御部108は、処理制御部114が取得した文字情報ID(この例では文字情報ID=4)の第1文字情報と、該第4文字情報1004とを関連付けて表示する。ここで、第1文字情報1001は、第3文字情報1003と同一である。該第3文字情報1003は、ユーザBにより第4文字情報1004についての発話がなされた際に指定された第2文字情報1002に関連付けられた第3文字情報1003である。
≪第1文字情報と第4文字情報の関連付けの第1手法について≫
図1の画面X5を参照して、第1文字情報1001と第4文字情報1004との関連付けの第1手法について説明する。画面X5に示すように、表示制御部108は、第1文字情報1001と、第4文字情報1004とを線1050で結んで表示部112に表示する。これにより、ユーザAは、第1文字情報1001と第4文字情報1004とが関連付けられていることを直感的に認識できる。従って、ユーザが疑問に思っていた内容(第1文字情報1001)の回答(第4文字情報1004)を容易に理解できる。
≪第1文字情報と第4文字情報の関連付けの第2手法について≫
図7を参照して、次に第1文字情報1001と第4文字情報1004との関連付けの第2手法について説明する。図7は、関連付けの第2手法の一例について示した図である。表示制御部108は、第1文字情報1001に所定のマーク1001aを表示させる。ここで、所定のマーク1001aの形状および大きさなどは予め定められる。図7の例では、所定のマーク1001aは「星印」であるが、他の形状のマークでもよい。
そして、検知部116が、ユーザAによりマーク1001aが指定(タッチ)されたことを検知すると、該検知したことを表す検知信号を、表示制御部108に送信する。表示制御部108は、検知信号を受信すると、第4文字情報1004を表示部112に表示させる。
この第2手法の場合には、ユーザは所望のタイミングで第4文字情報1004を表示部112に表示させることができる。
[処理の流れ]
≪前提≫
次に、図8を参照して、情報処理装置100および情報処理装置200の前提処理の流れを説明する。また、以下では、図1に示すように、ユーザが発話した音声を文字情報に変換して、情報処理装置100の表示部112、および、情報処理装置200の表示部210に該文字情報を表示させる通信方法を「チャット電話」という。また、以下の説明では、情報処理装置100および情報処理装置200に、チャット電話のアプリケーションがダウンロードされているとする。
まず、ステップS2において、ユーザBが、ユーザAとチャット電話を行うことを所望した場合には、ユーザBは情報処理装置200に対して、チャット電話要求操作を行う。該チャット電話要求操作は、例えば、ユーザBが、チャット電話アプリケーションで、情報処理装置100に対して電話をかけることである。チャット電話要求操作が行われると、情報処理装置200のCPUは、チャット電話を要求するための要求信号を情報処理装置100へ送信する。
ステップS4において、情報処理装置100の通信部110が、要求信号を受信すると、表示制御部108が、例えば、音通知等とともに、「ユーザBから着信がある」旨のメッセージを表示部112に表示させる。
ステップS6において、ユーザAが、ユーザBとのチャット電話を許諾する場合には、ユーザAは、許諾操作(例えば、チャット電話の応答ボタンを押下する操作)を行う。情報処理装置100のCPU302は、許諾信号を生成して、情報処理装置200へ送信する。
ステップS8において、情報処理装置200の表示制御部208は、許諾された旨を表示部212に表示することにより、ユーザBにチャット電話が許可されたことを通知する。
ステップS2〜S8までの処理により、ユーザAとユーザBとのチャット電話が開始される。以下では、ユーザAが発話する場合について説明する。
ステップS12において、ユーザAが発話するまで、情報処理装置100は待機する(ステップS12のNO)。ユーザAが発話すると(ステップS12のYES)、処理はステップS14に移行する。
ステップS14において、変換部102が、ユーザAにより発話された音声を音声データに変換し、認識部104が、音声データに対して音声認識を行うことにより、文字情報を生成する。
ステップS16において、表示制御部108は、生成された文字情報を表示部112に表示する(図1の画面E1参照)。
ステップS18において、処理制御部114は、文字情報IDを付加して、文字情報IDごとに文字情報を記憶部106に記憶する(図6参照)。
ステップS20において、処理制御部114は、通信部110経由で、文字情報および第1指示信号を相手方の情報処理装置200へ送信する。ステップS16、S18、S20の処理は、この順番に限られず、他の順番でもいい。また、情報処理装置100は、ステップS16、S18、S20の処理を並列的に行ってもよい。
ステップS22において、相手方の情報処理装置200の通信部210が、文字情報および第1指示信号を受信する。
ステップS24において、情報処理装置200の処理制御部214は、受信した文字情報を文字情報IDを付加して記憶部206に格納する。
ステップS26において、表示制御部208は、表示部212に文字情報を表示させる。
また、ステップS14〜ステップS26までの処理は、ユーザAが発話した場合の処理の流れであるが、ユーザBが発話した場合でも、同様の処理が行われる。
また、ステップS20において、通信部110は、文字情報および第1指示信号を送信するのではなく、変換部102で変換された音声データおよび第2指示信号を情報処理装置200へ送信するようにしてもよい。該第2指示信号は、音声データに対して情報処理装置200の認識部204に音声認識させることにより文字情報を生成させ、該文字情報を表示部212に表示させるための信号である。
しかし、情報処理装置100の認識部104の認識精度と、情報処理装置200の認識部204の認識精度と、が異なる場合には、表示部112および表示部212に同一の文字情報が表示されない場合がある。従って、「情報処理装置100が文字情報および第1指示信号を情報処理装置200へ送信する実施形態」の方が「情報処理装置100が音声データおよび第2指示信号を情報処理装置200へ送信する実施形態」よりも好ましい。
≪前半部の処理の流れ≫
次に、図9を参照して、本実施形態の情報処理装置100と情報処理装置200とのチャット電話の流れについて説明する。
ステップS52において、検知部116が、ユーザAにより、第1文字情報1001(図1の画面X2参照)が指定されたか否かを判断する。検知部116が、第1文字情報1001は指定されていないと判断すると(ステップS52のNO)、検知部116は、引き続き、該判断処理を繰り返す。検知部116が、第1文字情報1001が指定されたと判断すると(ステップS52のYES)、処理は、ステップS54に移行する。
ステップS54において、ユーザAが発話するまで、情報処理装置100は待機する(ステップS54のNO)。ユーザAが発話すると(ステップS54のYES)、処理はステップS56に移行する。
ステップS56において、変換部102が、ユーザAにより発話された音声を音声データに変換し、認識部104が、音声データに対して音声認識を行うことにより、第2文字情報1002を生成する。
ステップS60において、処理制御部114は、指定された第1文字情報1001の文字情報ID(図1および図6の例では、ID=4)を取得する。そして、処理制御部114は、ステップS56で生成された第2文字情報1002、および、該取得した文字情報IDを情報処理装置200へ送信する。
ステップS62において、情報処理装置200の通信部210は、送信された第2文字情報1002、および、第1文字情報の文字情報IDを受信する。
ステップS64において、表示制御部208は、受信した文字情報IDについての文字情報(つまり、第3文字情報1003)と、第2文字情報1002とを関連付けて表示部212に表示する(図1の画面X4参照)。
≪後半部の処理の流れ≫
次に、図10を参照して、後半部の処理の流れについて説明する。ステップS102において、図5記載の情報処理装置200の検知部216が、ユーザBにより第2文字情報1002が指定されたか否かを判断する。検知部216は、ユーザBにより第2文字情報1002が指定されるまで、該判断処理を継続する(ステップS102のNO)。検知部216が、ユーザBにより第2文字情報1002が指定されたと判断すると(ステップS102のYES)、処理はステップS104に移行する。
ユーザBが発話するまで、情報処理装置200は待機する(ステップS104のNO)。ユーザBが発話すると(ステップS104のYES)、処理はステップS106に移行する。
ステップS106において、変換部202は発話音声を音声データに変換する。そして、認識部204は、音声データに対して音声認識することにより、第4文字情報1004を生成する。
ステップS108において、処理制御部214は、通信部210により、第4文字情報1004を情報処理装置100へ送信する。
ステップS110において、情報処理装置100の通信部110は、該送信された第4文字情報1004を受信する。
ステップS112において、図1の画面X5に示すように、表示制御部108は、第1文字情報1001と第4文字情報1004とを関連付けて表示部210に表示する。
[まとめ]
従来技術では、ユーザAが、第1文字情報1001について、ユーザBに対してさらに聞き返したい場合には、例えば「先ほど、「会議の後ですが、引き続き会議を行います。内容は来月のプロジェクトについてです。」という話をさせていただきましたが、よくわからないので説明してもらえますか。」という長い発話をユーザBに対して行う必要がある。従って、ユーザAにとって、発話が煩雑となる。また、該発話が過去の発話であり、かつ、ユーザBに対した行われた発話を構成する単語数が多いことから、ユーザBは該発話を理解することが煩雑となる。
これに対して、この実施形態1の情報処理装置100によると、第1文字情報1001がユーザAから指定された状態で、認識部204が音声認識することにより、第2文字情報1002を生成する。そして、情報処理装置100は、該第1文字情報1001と同一の文字情報である第3文字情報1003とを関連付けて、相手方の情報処理装置200の表示部210に表示させる。
従って、ユーザAが、第1文字情報1001について、ユーザBに対してさらに聞き返したい場合に、「先ほど、「会議の後ですが、引き続き会議を行います。内容は来月のプロジェクトについてです。」という話をさせていただきましたが、」という発話を省略することができ、「よくわからないので説明してもらえますか。」という発話のみでよくなる。従って、ユーザAの発話の煩雑さを低減できる。
また、第1文字情報1001(ユーザBの発話)および第2文字情報1002(ユーザAの発話)の関連をユーザBに対して明瞭に表示できる。従って、ユーザBも第1文字情報1001および第2文字情報1002の関連を容易に認識でき、ユーザBの理解も容易になる。
さらに、第2文字情報1002が相手方ユーザBから指定された状態で、相手方の情報処理装置200が音声認識することにより第4文字情報1004を生成する。情報処理装置100は、該第2文字情報1002に関連付けられた第3文字情報1003と同一の第1文字情報1001と、該第4文字情報とを関連付けて表示する。従って、例えば、ユーザAは第1文字情報1001に対して質問した回答内容(第4文字情報1004)を明瞭に認識できる。
また、第1文字情報1001と第4文字情報1004とが関連付けられて、表示部112に表示されていることから、後日、ユーザAが会話履歴を閲覧した場合でも、ユーザAは第1文字情報1001と第4文字情報1004との関連付けを容易に理解できる。
また、発話音声を聞き逃しやすい状況である場合であっても、各ユーザは対話を行うことができる。発話音声を聞き逃しやすい状況での対話とは、例えば、雑音が多い環境での対話や、老人または耳の不自由な人との対話などである。
[変形例]
図2などでは、ユーザAは電話50と情報処理装置100とを組み合わせて用いる、と説明した。その他の実施形態として、情報処理装置100にスピーカ62とマイク64とを含ませた構成とした情報処理装置500(例えば、スマートフォン)としてもよい。
また、各遠隔地点に情報処理装置500が設置されることにより、テレビ電話会議システムが実現される。図11は、該テレビ会議システム600の機能構成例である。図11の例のテレビ会議システム600では、6つの情報処理装置500A〜500Fが、ネットワーク10に接続されている。また、ユーザA〜F各々が、情報処理装置500A〜500Fを使用する。また、以下の説明では、6つの情報処理装置500A〜500Fの構成部の参照番号を情報処理装置100の構成部(図5記載)の参照番号として説明する。
図12は、該テレビ会議システムで情報処理装置500が用いられる場合の各情報処理装置の500A〜Fの表示部112の表示例である。ユーザBが情報処理装置500Bに対して、「来週の会議の出欠の有無を教えてください」という発話をしたとする。
そうすると、情報処理装置500Bの変換部102は、発話音声を音声データに変換する。認識部104は、該音声データに対して音声認識を行うことにより第3文字情報1013を生成する。そして、情報処理装置500Bの通信部110は、情報処理装置500A、500C〜500Fへ第3文字情報1013を送信する。
情報処理装置500A、500C〜500F各々の表示部112は、第3文字情報1013と同一の文字情報である第1文字情報1011を表示する。ユーザA、ユーザC〜ユーザF各々は、第1文字情報1011を目視することにより、第1文字情報1011を認識できる。
ユーザA、ユーザC〜ユーザF各々は、第1文字情報1011を指定して、第1文字情報1011に対する回答を情報処理装置A、C〜F各々に対して発話する。図12の例では、ユーザAは「出席します」と発話している。また、ユーザCは「欠席します」と発話している。また、ユーザFは「保留にしてください」と発話している。
情報処理装置500A、500C〜500F各々の変換部102は、ユーザA、ユーザC〜ユーザFの発話音声を音声データに変換し、情報処理装置500A、500C〜500F各々の認識部104は、音声認識を行うことにより、第2文字情報1012A、1012C〜1012Fを生成する。情報処理装置500A、500C〜500F各々の通信部110は、第2文字情報1012A、1012C〜1012Fを情報処理装置500Bへ送信する。
情報処理装置500Bの表示制御部108は、第3文字情報1013と、第2文字情報1012A、1012C〜1012Fとを関連付けて表示部112に表示する。従って、ユーザBは、ユーザA、C〜F各々の第2文字情報(この例では出席状況)を認識できる。なお、図12では、図面を簡単にするために、ユーザD、Eの発話については省略しているが、実際はユーザD、Eの発話についての文字情報も生成され、情報処理装置500Bへ送信される。
次に、図13を参照して、ユーザBが、第2文字情報1012A、1012C〜1012Fに対して発言する場合について説明する。図13の例では、ユーザBは、「来週の会議は101会議室で16:00スタートです」と発話している。そうすると、ユーザBは、該発話についての文字情報(第4文字情報1004)を送信したいユーザについての第1文字情報を指定して、発話する。
この例では、ユーザBは、出席の可能性があるユーザAおよびユーザFの情報処理装置500A、500F各々に第4文字情報1014を送信することを所望している。この場合に、ユーザAおよびユーザFについての第2文字情報1012Aおよび1012Fを指定して、発話する。
そうすると、情報処理装置500Bの通信部110は、第4文字情報1014を、情報処理装置500A、500F各々に送信する。そして、情報処理装置500A、500Fの各表示部112は、第1文字情報1011と、第4文字情報1014とを関連付けて、表示する。従って、ユーザAおよびユーザFは、第1文字情報1011および第4文字情報1014の関連を容易に認識できる。
また、情報処理装置100の認識部104が、音声認識に失敗する場合がある。図14は、認識部104が音声認識に失敗した場合の、表示部112および表示部212が表示する画面の一例である。図14は図1と比較すると、認識部104が、音声認識を失敗したために、第1文字情報1001が完全なものではない場合がある。図14の画面X2の例では、音声認識失敗した箇所は、「・・・」で示されている。
そして、ユーザAが、第1文字情報1001についての、ユーザBからの発話音声を聞き逃した場合に、ユーザAが第1文字情報1001を確認しても、第1文字情報1001が不完全であり、第1文字情報1001を把握できない。このような場合であっても、ユーザAは容易に、第1文字情報1001について質問できる。
[その他]
また、本発明の情報処理装置は、CPUとその上で実行されるプログラムにより実現される。本発明を実現するプログラムは、コンピュータが読み取り可能な記録媒体、例えば半導体メモリ、ハードディスク、CD−ROM、DVD等に格納することができ、これらの記録媒体に記録して提供され、又は、通信インタフェースを介してネットワークを利用した送受信により提供される。
また、今回開示された実施形態はすべての点で例示であって、制限的なものではない。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
202 電源ボタン、204 メニューボタン、206 ホームボタン、208 ボタン、112 表示部、112a 第1領域、112b 第2領域、304 RAM、306 ROM、310 操作部、230 外部メディア、306 付加情報記憶部、308 ログ記憶部、310 電子書籍管理部、312 付加情報管理部、314 ログ管理部、316 決定部、318 表示制御部、340 第1受付部、342 第2受付部、344 第3受付部。

Claims (8)

  1. 情報表示端末と通信可能な情報処理装置であって、
    文字情報を表示するための表示手段と、
    音声データに対して音声認識することにより前記文字情報を生成する認識手段と、
    前記文字情報を前記情報処理装置のユーザにより指定可能に前記表示手段に表示させる表示制御手段と、
    前記表示手段に表示された前記文字情報と同一の文字情報を、前記情報表示端末に表示させる処理制御手段と、を備え、
    前記処理制御手段は、
    前記文字情報のうち第1文字情報が前記情報処理装置のユーザから指定された状態で前記認識手段が音声認識することにより第2文字情報を生成して、該第1文字情報と同一の文字情報である第3文字情報と、該第2文字情報とを関連付けて、該第2文字情報については前記情報表示端末のユーザにより指定可能に、前記情報表示端末に表示させ
    前記表示制御手段は、前記第2文字情報が前記情報表示端末のユーザから指定された状態で、前記情報表示端末が音声認識することにより生成した第4文字情報を、該第2文字情報に関連付けられた前記第3文字情報と同一の前記第1文字情報と関連付けて前記表示手段に表示させる、情報処理装置。
  2. 前記表示制御手段は、
    前記第1文字情報と、該第1文字情報に関連する第4文字情報とを線で結んで前記表示手段に表示させる、請求項記載の情報処理装置。
  3. 前記表示制御手段は、
    前記第1文字情報に所定のマークを表示させ、
    前記情報処理装置のユーザから前記所定のマークが指定されると、該第1文字情報に関連する第4文字情報を前記表示手段に表示させる、請求項記載の情報処理装置。
  4. 前記処理制御手段は、
    前記文字情報、および、前記情報表示端末に該文字情報を表示させる指示信号を前記情報表示端末に送信する、請求項1〜いずれか1項記載の情報処理装置。
  5. 前記処理制御手段は、
    前記音声データ、および、該音声データに対して前記情報表示端末に音声認識させることにより文字情報を生成させ該文字情報を前記情報表示端末に表示させる指示信号を前記情報表示端末に送信する、請求項1〜いずれか1項記載の情報処理装置。
  6. 各々が通信可能な少なくとも2つの情報処理装置を備え、
    一方の情報処理装置は、
    文字情報を表示するための表示手段と、
    音声データに対して音声認識することにより文字情報を生成する認識手段と、
    前記文字情報を前記一方の情報処理装置のユーザにより指定可能に前記表示手段に表示させる表示制御手段と、
    前記表示手段に表示された前記文字情報と同一の文字情報を、他方の情報処理装置に表示させる処理制御手段と、を備え、
    前記処理制御手段は、
    前記文字情報のうち第1文字情報が前記一方の情報処理装置のユーザから指定された状態で前記認識手段が音声認識することにより第2文字情報を生成して、該第1文字情報と同一の文字情報である第3文字情報と、該第2文字情報とを関連付けて、該第2文字情報については前記他方の情報処理装置のユーザにより指定可能に、前記他方の情報処理装置に表示させ
    前記表示制御手段は、前記第2文字情報が前記他方の情報処理装置のユーザから指定された状態で、前記他方の情報処理装置が音声認識することにより生成した第4文字情報を、該第2文字情報に関連付けられた前記第3文字情報と同一の前記第1文字情報と関連付けて前記表示手段に表示させる、通信システム。
  7. 情報表示端末と通信する情報処理装置の通信方法であって、
    音声データに対して音声認識することにより文字情報を生成するステップと、
    前記文字情報を前記情報処理装置のユーザにより指定可能に表示するステップと、
    前記表示された前記文字情報と同一の文字情報を、前記情報表示端末に表示させるステップと、
    前記文字情報のうち第1文字情報が前記ユーザから指定された状態で音声認識することにより第2文字情報を生成するステップと、
    成した第2文字情報を、該第1文字情報と同一の文字情報である第3文字情報と関連付けて、該第2文字情報については前記情報表示端末のユーザにより指定可能に、前記情報表示端末に表示させるテップと、
    前記第2文字情報が前記情報表示端末のユーザから指定された状態で、前記情報表示端末が音声認識することにより生成した第4文字情報を、該第2文字情報に関連付けられた前記第3文字情報と同一の前記第1文字情報と関連付けて表示するステップとを備える、通信方法。
  8. 情報表示端末と通信するコンピュータに、
    音声データに対して音声認識することにより文字情報を生成するステップと、
    前記文字情報を前記コンピュータのユーザにより指定可能に表示するステップと、
    前記表示された前記文字情報と同一の文字情報を、前記情報表示端末に表示させるステップと、
    前記文字情報のうち第1文字情報が前記ユーザから指定された状態で音声認識することにより第2文字情報を生成するステップと、
    成した第2文字情報を、該第1文字情報と同一の文字情報である第3文字情報と関連付けて、該第2文字情報については前記情報表示端末のユーザにより指定可能に、前記情報表示端末に表示させるステップと
    前記第2文字情報が前記情報表示端末のユーザから指定された状態で、前記情報表示端末が音声認識することにより生成した第4文字情報を、該第2文字情報に関連付けられた前記第3文字情報と同一の前記第1文字情報と関連付けて表示するステップとを実行させるための、プログラム。
JP2012141030A 2012-06-22 2012-06-22 情報処理装置、通信システム、通信方法、およびプログラム Expired - Fee Related JP5977597B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012141030A JP5977597B2 (ja) 2012-06-22 2012-06-22 情報処理装置、通信システム、通信方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012141030A JP5977597B2 (ja) 2012-06-22 2012-06-22 情報処理装置、通信システム、通信方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2014006648A JP2014006648A (ja) 2014-01-16
JP5977597B2 true JP5977597B2 (ja) 2016-08-24

Family

ID=50104321

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012141030A Expired - Fee Related JP5977597B2 (ja) 2012-06-22 2012-06-22 情報処理装置、通信システム、通信方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP5977597B2 (ja)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3179303B2 (ja) * 1994-12-16 2001-06-25 富士通株式会社 表示制御装置
JP2000285063A (ja) * 1999-03-31 2000-10-13 Sony Corp 情報処理装置および情報処理方法、並びに媒体
JP2001283024A (ja) * 2000-03-31 2001-10-12 Hiroshi Fukuda 仮想店舗管理装置、仮想店舗管理方法および仮想店舗管理システムならびに情報記録媒体
JP4097008B2 (ja) * 2000-12-18 2008-06-04 ヤマハ株式会社 電子掲示板のページ作成方法およびサーバ装置
JP2002288102A (ja) * 2001-03-26 2002-10-04 Sharp Corp 通信端末装置、チャットサーバ装置、発言順序の明示方法、発言順序の明示方法を実現させるためのプログラム、およびチャットシステム
JP4146109B2 (ja) * 2001-07-16 2008-09-03 株式会社東芝 知識蓄積支援システムおよび同システムにおけるメッセージ階層表示設定方法
JP2003209600A (ja) * 2002-01-11 2003-07-25 Canon Inc 通話システム、通話端末、方法、プログラム、及びコンピュータ読み取り可能な記憶媒体

Also Published As

Publication number Publication date
JP2014006648A (ja) 2014-01-16

Similar Documents

Publication Publication Date Title
DK180049B1 (en) VOICE INTERACTION AT A PRIMARY DEVICE TO ACCESS CALL FUNCTIONALITY OF A COMPANION DEVICE
KR101726945B1 (ko) 수동 시작/종료 포인팅 및 트리거 구문들에 대한 필요성의 저감
TWI644307B (zh) 用於操作一虛擬助理之方法,電腦可讀儲存媒體,及系統
US10930277B2 (en) Configuration of voice controlled assistant
US10403272B1 (en) Facilitating participation in a virtual meeting using an intelligent assistant
TW201505023A (zh) 個人化語音助理之方法
KR102193029B1 (ko) 디스플레이 장치 및 그의 화상 통화 수행 방법
KR102136962B1 (ko) 컴패니언 디바이스의 통화 기능을 액세스하기 위한 일차 디바이스에서의 음성 상호작용
KR102447381B1 (ko) 통화 중 인공지능 서비스를 제공하기 위한 방법 및 그 전자 장치
WO2018186416A1 (ja) 翻訳処理方法、翻訳処理プログラム、及び、記録媒体
JP2010034695A (ja) 音声応答装置及び方法
CN105706427A (zh) 环境声处理的音频信息的确定
JP6973380B2 (ja) 情報処理装置、および情報処理方法
JP2010026686A (ja) 統合的インタフェースを有する対話型コミュニケーション端末及びそれを用いたコミュニケーションシステム
JP6624476B2 (ja) 翻訳装置および翻訳システム
WO2021144964A1 (ja) ヒアリングデバイス、ヒアリングデバイスの調整方法
JP2016189121A (ja) 情報処理装置、情報処理方法およびプログラム
JP5977597B2 (ja) 情報処理装置、通信システム、通信方法、およびプログラム
CN110097883A (zh) 用于在主设备处访问配套设备的呼叫功能的语音交互
JP2020119043A (ja) 音声翻訳システムおよび音声翻訳方法
JP7123028B2 (ja) 情報処理システム、情報処理方法、及びプログラム
JP6659066B1 (ja) 音声通話システム、音声通話制御装置、音声通話プログラム、及び音声通話方法
JP2013157758A (ja) 情報伝達システム、情報伝達方法、情報伝達プログラム、情報伝達端末装置、及び情報伝達端末装置用プログラム
WO2017187674A1 (ja) 情報処理装置、情報処理システム、及びプログラム
JP2021077963A (ja) 情報処理装置、情報処理方法、及び、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150401

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160722

R150 Certificate of patent or registration of utility model

Ref document number: 5977597

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees