JP2005184583A - Information processing apparatus and communication method - Google Patents
Information processing apparatus and communication method Download PDFInfo
- Publication number
- JP2005184583A JP2005184583A JP2003424083A JP2003424083A JP2005184583A JP 2005184583 A JP2005184583 A JP 2005184583A JP 2003424083 A JP2003424083 A JP 2003424083A JP 2003424083 A JP2003424083 A JP 2003424083A JP 2005184583 A JP2005184583 A JP 2005184583A
- Authority
- JP
- Japan
- Prior art keywords
- user
- search
- processing apparatus
- information
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
本発明は、ネットワークを介して映像及び音声を交換することで対話環境を実現する情報処理装置及びコミュニケーション方法に関する。 The present invention relates to an information processing apparatus and a communication method that realize an interactive environment by exchanging video and audio via a network.
近年、ネットワーク設備の普及により、遠隔地間でのコミュニケーションがより身近なものとなってきている。例えばテレビ会議システムなどがこれである。 In recent years, with the spread of network equipment, communication between remote locations has become more familiar. For example, this is a video conference system.
従来のテレビ会議システムは、それぞれの拠点で取得した映像及び音声を互いに送受信し、再生するように構成されている。しかしながら、ただ単に利用者の様子を互いに交換するだけのシステムでは、伝達する情報が限られているため、目的とした情報を相手に十分に伝えられない場合がある。 A conventional video conference system is configured to mutually transmit and receive video and audio acquired at each site and reproduce them. However, in a system that simply exchanges the state of users with each other, the information to be transmitted is limited, and the target information may not be sufficiently transmitted to the other party.
このような問題を解決する技術としては、例えば以下に示す特許文献1が開示するところの技術が存在する。本従来技術によるシステム構成を図1に示す。 As a technique for solving such a problem, for example, there is a technique disclosed in Patent Document 1 shown below. A system configuration according to the conventional technology is shown in FIG.
図1に示すように、従来のシステム構成はサーバ・クライアント型のシステム構成を有し、ネットワーク20に接続されたクライアント端末910a,910bと、サーバ920及びコンテンツサーバ930とを有する。クライアント端末910a,910bは各ユーザが使用する端末であり、映像や音声を取得するためのカメラやマイクを有する。サーバ920は、クライアント端末910a,910bからそれぞれ送られてくる映像及び音声を他方のクライアント端末910b,910aに送信する。これにより、クライアント端末910a,910b間で映像及び音声がライブ中継される。コンテンツサーバ930は会議や教育などに使用されるマルチメディアコンテンツを蓄積しており、クライアント端末910a,910bからの要求に基づいてこれを配信する。ユーザは他方のクライアント端末から送られてきた映像及び音声と共にマルチメディアコンテンツを用いて、会議を進行したり教育を受けたりする。
As shown in FIG. 1, the conventional system configuration has a server / client type system configuration, and includes
この従来技術は、一方のユーザが持つ情報を他方のユーザに正しく伝えることを目的としている。そこで従来技術では、対象のマルチメディアコンテンツを事前にコンテンツサーバ930へ登録しておき、これを必要に応じて各クライアント端末910a,910bへ配信するように構成されていた。
但し、テレビ会議システムを用いた会議の目的は情報の伝達に限ったものではない。例えばブレインストーミング型の会議のように、共同で何らかの目的に到達することを目指す場合も多くある。このような場合、共同行為の過程でのコミュニケーションを円滑に進めるためには、これを阻害する要因を抽出し、これを解決することが重要となる。 However, the purpose of the conference using the video conference system is not limited to the transmission of information. In many cases, for example, brainstorming-type conferences aim to jointly reach some purpose. In such a case, in order to facilitate communication in the process of joint action, it is important to extract a factor that hinders this and solve it.
例えば国を跨いだテレビ会議などでは、参加する全てのユーザが理解できる言語を用いて会議が行われるが、一方のユーザが他方のユーザの言語に堪能でない場合、英語などの共通言語を利用して会話を進める必要がある。このような場合、単語や文章の意味が不明確となり、コミュニケーションの進行に問題が発生して会議を円滑に進行することができないことがある。また、プレゼンテーションや教育の現場などでも、専門用語の意味や時事ニュースなど、聴講者が知識として持つ必要がある情報の不備から、コミュニケーションの進行に問題が発生してしまうことがある。 For example, in a video conference across countries, a conference is conducted using a language that all participating users can understand. If one user is not fluent in the other user's language, a common language such as English is used. It is necessary to proceed with the conversation. In such a case, the meaning of the words and sentences may become unclear, and problems may occur in the progress of communication, making it impossible to smoothly proceed with the conference. Also, in presentations and educational sites, problems may occur in the progress of communication due to the lack of information that listeners should have as knowledge, such as the meaning of technical terms and current news.
このような問題を解決するためには、あるユーザにとって不明確である情報、すなわちコミュニケーションの進行を阻害する要因を他のユーザに知らしめる必要がある。この要因が解れば、ユーザはこれを踏まえて会議や教育やプレゼンテーションなどを進行することが可能となる。 In order to solve such a problem, it is necessary to let other users know information that is unclear for a certain user, that is, a factor that hinders the progress of communication. If this factor is understood, the user can proceed with meetings, education, presentations, etc. based on this factor.
しかしながら、上記したような、事前に登録しておいた情報を配信するだけの従来技術では、このような問題を解決することが不可能であった。 However, it is impossible to solve such a problem with the prior art that only distributes information registered in advance as described above.
そこで本発明は、コミュニケーションの進行を阻害する要因をユーザ間で共有することが可能な情報処理装置及びコミュニケーション方法を提供することを目的とする。 Therefore, an object of the present invention is to provide an information processing apparatus and a communication method that can share a factor that hinders the progress of communication among users.
かかる目的を達成するために、本発明は、請求項1記載のように、ネットワークを介して接続された他の情報処理装置と共通のユーザインタフェースを有し、且つ該他の情報処理装置と映像及び音声を交換することでユーザ間の対話環境を実現する情報処理装置であって、前記ユーザインタフェースへの入力情報に基づいて情報を検索する検索手段と、前記検索手段による検索結果を表示するように前記ユーザインタフェースを更新するインタフェース作成手段と、前記入力情報及び前記検索結果を前記他の情報処理装置へ送信する送信手段と、前記他の情報処理装置から前記ユーザインタフェースへの入力情報及び該入力情報に基づいて得られた検索結果を受信する受信手段とを有し、前記インタフェース作成手段は前記他の情報処理装置から受信した入力情報及び検索結果に基づいて前記ユーザインタフェースを更新するように構成される。他の情報処理装置と共用されるユーザインタフェースを設けることで、このユーザインタフェースに対して入力した内容をユーザ間で共有することが可能となる。従って、このユーザインタフェースに例えばコミュニケーションの進行を阻害する要因を入力することで、ユーザ間で何が進行を阻害する要因であるかを共有することができ、結果として、どうすればこの要因を解決することができるかを容易に導くことが可能となる。また、コミュニケーションを阻害する要因としては、一方のユーザの知識不備であることが多い。そこで、一方のユーザにとって不明確である情報を検索するためのユーザインタフェースを設け、且つこのユーザインタフェースへの操作を他方のユーザへ知らせる構成とすることで、コミュニケーションの進行を阻害する要因、すなわち一方のユーザにとって不明確な情報をユーザ間で容易に共有することができる。更に、不明確な情報を検索することができる構成とすることで、不明確な情報を共有すると同時に、これを明確化することも可能となる。 In order to achieve the above object, the present invention has a user interface common to another information processing apparatus connected via a network and a video image with the other information processing apparatus. And an information processing apparatus that realizes an interactive environment between users by exchanging voices, wherein search means for searching for information based on information input to the user interface, and search results by the search means are displayed. Interface creation means for updating the user interface; transmission means for sending the input information and the search result to the other information processing apparatus; and input information and input from the other information processing apparatus to the user interface. Receiving means for receiving a search result obtained based on information, wherein the interface creating means is the other information processing apparatus. Configured to update the user interface based on the input information and the search results are al received. By providing a user interface that is shared with other information processing apparatuses, it is possible to share contents input to this user interface among users. Therefore, by inputting factors that inhibit the progress of communication into this user interface, for example, it is possible to share what is the factor that inhibits the progress among users, and as a result, how to solve this factor It is possible to easily guide whether or not In addition, as a factor that hinders communication, there is often a lack of knowledge of one user. Therefore, by providing a user interface for searching for information that is unclear to one user and notifying the other user of operations on this user interface, a factor that hinders the progress of communication, that is, It is possible to easily share information that is unclear to other users. Further, by adopting a configuration in which unclear information can be searched, unclear information can be shared and clarified at the same time.
また、請求項1記載の前記情報処理装置は、好ましくは請求項2記載のように、前記ユーザインタフェースが前記入力情報の履歴又は前記検索結果の履歴をリスト化して表示するように構成される。検索した履歴をリスト化して表示することで、各ユーザはコミュニケーションの進行中、何の情報を検索したかを容易に再確認することが可能となる。 Further, the information processing apparatus according to claim 1 is preferably configured such that the user interface lists and displays the history of the input information or the history of the search result as described in claim 2. By displaying the retrieved histories in a list, each user can easily reconfirm what information has been retrieved while the communication is in progress.
また、請求項1記載の前記情報処理装置は、例えば請求項3記載のように、情報を蓄積する蓄積手段を有し、前記検索手段が前記入力情報に基づいて前記蓄積手段から情報を検索するように構成されてもよい。すなわち、検索する情報の情報源は情報処理装置の内部に設けられていてもよい。 Further, the information processing apparatus according to claim 1 has storage means for storing information, for example, according to claim 3, and the search means searches for information from the storage means based on the input information. It may be configured as follows. That is, the information source of the information to be searched may be provided inside the information processing apparatus.
また、請求項3記載の前記情報処理装置は、例えば請求項4記載のように、前記入力情報に対応する訳語を検索する電子辞書であってもよい。ネットワークを介したコミュニケーションが普及するに連れて、国を跨いだコミュニケーションや異文化間のコミュニケーションなど、母国語が異なるユーザ間でコミュニケーションを取る機会が増加する。このような場合、電子辞書を用いることはコミュニケーションの大きな助けとなる。また、この電子辞書を活用するためのユーザインタフェースをユーザ間で共用することは、相手の考えや相手にとって不明確な語彙を理解する上でも、大きな助けとなる。 Further, the information processing apparatus according to claim 3 may be an electronic dictionary that searches for a translation corresponding to the input information, for example, as described in claim 4. As communication through networks becomes widespread, opportunities for communication between users with different native languages such as cross-country communication and cross-cultural communication increase. In such a case, using an electronic dictionary is a great help for communication. Also, sharing the user interface for utilizing this electronic dictionary among users is a great help in understanding the other person's thoughts and vocabulary unclear for the other party.
また、請求項1記載の前記情報処理装置は、例えば請求項5記載のように、前記入力情報に基づいた検索を前記ネットワークを介した他の情報処理装置に要求する要求手段を有して構成されてもよい。すなわち、検索する情報の情報源はネットワークを介した他の情報処理装置に設けられていてもよい。 The information processing apparatus according to claim 1 includes request means for requesting another information processing apparatus via the network to perform a search based on the input information, for example, as in claim 5. May be. That is, the information source of the information to be searched may be provided in another information processing apparatus via the network.
また、請求項1記載の前記情報処理装置は、例えば請求項6記載のように、前記入力情報に基づいた検索を前記ネットワークを介して接続された検索エンジンに要求する要求手段を有して構成されてもよい。すなわち、検索する情報の情報源はネットワーク上の情報サイトであってもよい。この場合、情報処理装置は、ネットワーク上の情報サイトを検索する検索エンジンに検索を要求するように構成される。 Further, the information processing apparatus according to claim 1 includes request means for requesting a search based on the input information from a search engine connected via the network, as in claim 6. May be. That is, the information source of the information to be searched may be an information site on the network. In this case, the information processing apparatus is configured to request a search from a search engine that searches for information sites on the network.
また、請求項1記載の前記情報処理装置は、例えば請求項7記載のように、前記他の情報処理装置とピア・ツー・ピア型のネットワークを介して相互に接続されてもよい。ピア・ツー・ピア型のネットワークを介して情報処理装置間を接続することで、サーバなどを介することがないため、簡単なシステム構成でネットワークを介したコミュニケーションを実現することができる。但し、本発明は、サーバを介するシステム構成、すなわちサーバ・クライアント型のシステム構成を除外するものではない。 In addition, the information processing apparatus according to claim 1 may be connected to the other information processing apparatus via a peer-to-peer network as described in claim 7, for example. By connecting information processing apparatuses via a peer-to-peer network, there is no need for a server or the like, so communication via the network can be realized with a simple system configuration. However, the present invention does not exclude a system configuration via a server, that is, a server / client system configuration.
また、他の本発明は、請求項8記載のように、ネットワークを介して他の情報処理装置と映像及び音声を交換することで他のユーザとコミュニケーションを取るためのコミュニケーション方法であって、前記他の情報処理装置と共通のユーザインタフェースを作成する第1のステップと、前記ユーザインタフェースへの入力情報に基づいて情報を検索する第2のステップと、前記第2のステップによる検索結果を表示するように前記ユーザインタフェースを更新する第3のステップと、前記入力情報及び前記検索結果を前記他の情報処理装置へ送信する第4のステップと、前記他の情報処理装置から前記ユーザインタフェースへの入力情報及び該入力情報に基づいて得られた検索結果を受信する第5のステップと、前記第5のステップで受信した入力情報及び検索結果に基づいて前記ユーザインタフェースを更新する第6のステップとを有して構成される。ユーザインタフェースを作成し、これに対する操作を他の情報処理装置と送受信することで、このユーザインタフェースに対して入力した内容をユーザ間で共有することが可能となる。従って、このユーザインタフェースに例えばコミュニケーションの進行を阻害する要因を入力することで、ユーザ間で何が進行を阻害する要因であるかを共有することができ、結果として、どうすればこの要因を解決することができるかを容易に導くことが可能となる。また、上述したように、コミュニケーションを阻害する要因としては、一方のユーザの知識不備であることが多い。そこで、一方のユーザにとって不明確である情報を検索するためのユーザインタフェースを設け、且つこのユーザインタフェースへの操作を他方のユーザへ知らせる構成とすることで、コミュニケーションの進行を阻害する要因、すなわち一方のユーザにとって不明確な情報をユーザ間で容易に共有することができる。更に、不明確な情報を検索することができる構成とすることで、不明確な情報を共有すると同時に、これを明確化することも可能となる。 According to another aspect of the present invention, there is provided a communication method for communicating with another user by exchanging video and audio with another information processing apparatus via a network. A first step of creating a user interface common to other information processing apparatuses, a second step of searching for information based on information input to the user interface, and a search result of the second step are displayed. A third step of updating the user interface, a fourth step of transmitting the input information and the search result to the other information processing device, and an input from the other information processing device to the user interface A fifth step of receiving information and a search result obtained based on the input information, and receiving in the fifth step And based on the input information and the search results made and a sixth step of updating the user interface. By creating a user interface and transmitting / receiving an operation for this to / from another information processing apparatus, it is possible to share the contents input to this user interface among users. Therefore, by inputting factors that inhibit the progress of communication into this user interface, for example, it is possible to share what is the factor that inhibits the progress among users, and as a result, how to solve this factor It is possible to easily guide whether or not Further, as described above, one factor that hinders communication is a lack of knowledge of one user. Therefore, by providing a user interface for searching for information that is unclear to one user and notifying the other user of operations on this user interface, a factor that hinders the progress of communication, that is, It is possible to easily share information that is unclear to other users. Further, by adopting a configuration in which unclear information can be searched, unclear information can be shared and clarified at the same time.
本発明によれば、コミュニケーションの進行を阻害する要因をユーザ間で共有することが可能となり、結果として、どうすればこの要因を解決することができるかをユーザは容易に導くことが可能となる。 According to the present invention, a factor that hinders the progress of communication can be shared among users, and as a result, the user can easily guide how to solve this factor.
以下、本発明を実施するための最良の形態を図面と共に詳細に説明する。 Hereinafter, the best mode for carrying out the present invention will be described in detail with reference to the drawings.
まず、本発明による実施例1について図面を用いて詳細に説明する。図2は本実施例による対話支援システム1の概略構成を示す図である。尚、本発明によるコミュニケーション方法は、この対話支援システム1を用いて実現される。 First, Embodiment 1 according to the present invention will be described in detail with reference to the drawings. FIG. 2 is a diagram showing a schematic configuration of the dialogue support system 1 according to the present embodiment. Note that the communication method according to the present invention is realized by using the dialogue support system 1.
図2に示すように、対話支援システム1は、ネットワーク20を介して接続されたユーザ端末100a,100bを有する。ネットワーク20は例えばインターネットやLAN(Local Area Network)やWAN(Wide Area Network)などを適用することができる。また、ユーザ端末100a,100bはそれぞれ、JXTA(登録商標)等に代表されるピア・ツー・ピアフレームワーク上のピアとしてネットワーク20上に実装される。すなわち、ユーザ端末100a,100bは相互にピア・ツー・ピア型のネットワークを形成することが可能である。ユーザ端末100a,100bは、この機能を用いてネットワーク20上で各種データを交換することにより、サーバなどを介さずにリアルタイムの対話型コミュニケーションを実現する。
As shown in FIG. 2, the dialogue support system 1 includes
また、ユーザ端末100aは、CPU(Central Processing Unit)やROM(Read Only Memory)やRAM(Random Access Memory)やハードディスクドライブなどを搭載したPC本体101と、ディスプレイ102,キーボード103及びマウス104などを含むコンソールとを有して構成される。このようなユーザ端末100aには、例えばパーソナルコンピュータ(以下、PCという)などの情報処理装置を適用することが可能である。尚、ユーザ端末100bも同様の構成であるため、以下ではユーザ端末100aに着目して説明する。
The
ユーザ端末100aは、上記した構成の他に、カメラ105とマイク106とスピーカ107とを有する。カメラ105は対話に参加するユーザの映像を取得するための構成である。マイク106は対話に参加するユーザからの音声を取得するための構成である。カメラ105及びマイク106で取得された映像及び音声はPC本体101に入力される。PC本体101は入力された映像及び音声を他のユーザ端末(ここではユーザ端末100bとする)へ送信する。換言すれば、カメラ105及びマイク106で取得された映像及び音声は他のユーザ端末と共有される。
The
また、PC本体101は他のユーザ端末100bから受信した映像及び音声をディスプレイ102及びスピーカ107を用いて再生する。このように、ユーザ端末100a,100b間で映像及び音声がライブ中継されるため、ユーザ端末100aのユーザ(これをユーザAとする)とユーザ端末100bのユーザ(これをユーザBとする)とがネットワーク20を介して対話可能となる。尚、ユーザ端末100a,100bは、自己に備えつけられたカメラ105で取得された映像を自己のディスプレイ102に再生してもよい。
Further, the PC
ここで、ディスプレイ102に表示される画面の一例を図3に示す。尚、以下の説明では、ユーザAが使用する言語(例えば母国語など、以下これを使用言語という)を日本語とし、ユーザBの使用言語を中国語とし、ユーザA及びユーザBが共通に使用する言語(以下これを共通言語という)を英語とする。また、ユーザ端末100a,100bには日中(中日も含む)及び日英(英日も含む)の電子辞書が組み込まれているものとする。電子辞書とは検索手段として機能するものである。
An example of the screen displayed on the
図3に示すように、ディスプレイ102には、ユーザ端末100aのカメラ105で取得されたユーザAの映像を表示するためのユーザA映像表示領域21aと、ユーザ端末100bのカメラ105で取得されたユーザBの映像を表示するためのユーザB映像表示領域21bとが表示される。ユーザAは、ユーザB映像表示領域21bに表示された映像及びスピーカ107から出力された音声に基づいてユーザBとの対話を行う。
As shown in FIG. 3, on the
この他、ユーザ端末100aのディスプレイ102には、各種情報を検索するためにユーザが操作可能なユーザインタフェースとして、ユーザAログ表示領域22aと、ユーザBログ表示領域22bと、共通言語ログ表示領域22cと、ユーザA使用言語入力欄25aと、共通言語入力欄25cとが表示される。
In addition, the
ユーザA使用言語入力欄25aは、ユーザAが調べたい語句(以下、検索語という)をユーザAの使用言語(日本語)で入力するための欄である。ユーザAログ表示領域22aは、ユーザAが入力した検索語と、ユーザBが入力した検索語に対する日本語による訳語とが表示される領域である。また、共通言語入力欄25cは、ユーザAが調べたい語句(以下、検索語という)を共通言語(英語)で入力するための欄である。共通言語ログ表示領域22cは、ユーザAが入力した検索語に対する英語による訳語と、ユーザBが入力した検索語に対する英語による訳語とが表示される領域である。また、ユーザBログ表示領域22bは、ユーザBが入力した検索語と、ユーザAが入力した検索語に対する中国語による訳語とが表示される領域である。尚、本説明では、コミュニケーションの進行中にユーザA/Bが入力した検索語と、ユーザA/Bが入力した検索語に対する訳語とをログ(履歴)と呼ぶ。
The user A use
上記構成において、ユーザAは、ある日本語の語句に関して英語又は中国語の訳語を調べたい場合、ユーザA使用言語入力欄25aに対象の検索語を入力し、『検索』ボタン24aをクリックする。尚、『検索』ボタン24aは検索の実行指示を入力するためにユーザが操作可能なユーザインタフェースである。
In the above configuration, when the user A wants to look up an English or Chinese translation for a certain Japanese phrase, he / she enters the target search word in the user A
『検索』ボタン24aがクリックされると、ユーザA使用言語入力欄25aに入力された検索語は、ユーザAログ表示領域22aに表示される。ユーザAログ表示領域22aはユーザA使用言語入力欄25aに入力された検索語のログを例えばリスト形式で表示する。尚、新たに追加された検索語は例えばリストの最上段又は最下段に表示される。但し、これに限定されず、五十音順やアルファベット順や発音記号順などでリストを表示してもよい。
When the “search”
また、『検索』ボタン24aがクリックされると、入力された検索語に関する英語による訳語が共通言語ログ表示領域22cに表示される。共通言語ログ表示領域22cは訳語のログを例えばリスト形式で表示する。尚、新たに追加された訳語は例えばリストの最上段又は最下段に表示されてもよいが、これに限るものではない。
When the “search”
更に、『検索』ボタン24aがクリックされると、入力された検索語に関する中国語による訳語がユーザBログ表示領域22bに表示される。ユーザBログ表示領域22bは訳語のログを例えばリスト形式で表示する。尚、新たに追加された訳語は例えばリストの最上段又は最下段に表示されてもよいが、これに限るものではない。
Further, when the “search”
一方、ユーザ端末100bのディスプレイ102には、上記と同様のユーザA映像表示領域21a、ユーザB映像表示領域21b及び各種ユーザインタフェースが表示される。但し、ユーザA使用言語入力欄25a及び『検索』ボタン24aは、ユーザBが検索語をユーザBの使用言語(中国語)で入力するためのユーザB使用言語入力欄及びこれに入力した検索語に基づいた検索を実行指示するための『検索』ボタンに置き換えられる。また、これらの表示位置はユーザBログ表示領域22bの下側である。従って、ユーザ端末100aにおいてユーザBログ表示領域22bの下側に配置された『辞書切替え』ボタン27(これについては後述において説明する)は、ユーザ端末100bにおいてユーザAログ表示領域22aの下側に配置される。
On the other hand, the
ユーザBは、ある中国語の語句に関して英語又は日本語の訳語を調べたい場合、ユーザB使用言語入力欄に対象の検索語を入力し、『検索』ボタンをクリックする。『検索』ボタンがクリックされると、ユーザB使用言語入力欄に入力された検索語がユーザBログ表示領域22bに表示される。ユーザBログ表示領域22bは入力された検索語のログを例えばリスト形式で表示する。尚、新たに追加された検索語は例えばリストの最上段又は最下段に表示される。但し、これに限定されず、五十音順やアルファベット順や発音記号順などでリストを表示してもよい。
When user B wants to look up an English or Japanese translation for a certain Chinese phrase, he / she enters the target search word in the user B language input field and clicks the “search” button. When the “Search” button is clicked, the search word input in the user B use language input field is displayed in the user B
また、『検索』ボタンがクリックされると、入力された検索語に関する英語による訳語が共通言語ログ表示領域22cに表示される。共通言語ログ表示領域22cは訳語のログを例えばリスト形式で表示する。尚、新たに追加された訳語は例えばリストの最上段又は最下段に表示されてもよいが、これに限るものではない。
When the “search” button is clicked, a translated word in English related to the input search word is displayed in the common language
更に、『検索』ボタンがクリックされると、入力された検索語に関する日本語による訳語がユーザAログ表示領域22aに表示される。ユーザAログ表示領域22aは訳語のログを例えばリスト形式で表示する。尚、新たに追加された訳語は例えばリストの最上段又は最下段に表示されてもよいが、これに限るものではない。
Further, when the “search” button is clicked, a translated word in Japanese relating to the input search word is displayed in the user A
また、ユーザA(Bであってもよい)は、ある英語の語句に関して日本語又は中国語の訳語を調べたい場合、共通言語入力欄25cに対象の検索語を入力し、『検索』ボタン24cをクリックする。尚、『検索』ボタン24cは検索の実行指示を入力するためにユーザが操作可能なユーザインタフェースである。
In addition, when the user A (or B) wants to look up a Japanese or Chinese translation of a certain English word, he / she inputs the target search word in the common
『検索』ボタン24cがクリックされると、共通言語入力欄25cに入力された検索語は、共通言語ログ表示領域22cに表示される。共通言語ログ表示領域22cは共通言語入力欄25cに入力された検索語のログを例えばリスト形式で表示する。尚、新たに追加された検索語は例えばリストの最上段又は最下段に表示される。但し、これに限定されず、五十音順やアルファベット順や発音記号順などでリストを表示してもよい。
When the “search”
また、『検索』ボタン24cがクリックされると、入力された検索語に関する日本語による訳語がユーザAログ表示領域22aに表示される。ユーザAログ表示領域22aは訳語のログを例えばリスト形式で表示する。尚、新たに追加された訳語は例えばリストの最上段又は最下段に表示されてもよいが、これに限るものではない。
When the “search”
更に、『検索』ボタン24cがクリックされると、入力された検索語に関する中国語による訳語がユーザBログ表示領域22bに表示される。ユーザBログ表示領域22bは訳語のログを例えばリスト形式で表示する。尚、新たに追加された訳語は例えばリストの最上段又は最下段に表示されてもよいが、これに限るものではない。
Further, when the “search”
尚、上述の検索語と訳語とのログは、ユーザAログ表示領域22a,ユーザBログ表示領域22b及び共通言語ログ表示領域22cにおいて同じリスト上に表示される。
The log of the search word and the translated word is displayed on the same list in the user A
また、上記したユーザインタフェースのうち、少なくともユーザAログ表示領域22a,ユーザBログ表示領域22b及び共通言語ログ表示領域22cの表示内容は、全てのユーザ端末100a,100bにおいて同一な内容となる。換言すれば、各ユーザ端末は他のユーザ端末と共用のユーザインタフェースを有する。これにより、一方のユーザAにとってどの語彙が不明確であったかを他方のユーザBは知ることができ、更にユーザBは自分にとってどの語彙が不明確であるかをユーザAに知らせることができる。すなわち、円滑なコミュニケーションを阻害する要因を相手方と共有することができる。これにより、この要因を抽出し且つ解決することが可能となり、円滑なコミュニケーションの進行が可能となる。
Of the user interfaces described above, the display contents of at least the user A
また、ディスプレイ102に表示されたユーザインタフェースの他の構成を以下に説明する。上記したユーザAログ表示領域22a、ユーザBログ表示領域22b及び共通言語ログ表示領域22cに表示されるリストは横の対応を持つ。すなわち、検索語に対応する訳語が当該検索語の横に表示される。これにより、ユーザA及びBは検索語と訳語との対応を容易に認識することが可能となる。但し、1つの検索語に対して複数の訳語が対応する場合が存在する。このような場合には、リストの各列を選択可能とし、選択された検索語又は訳語に対応する訳語又は検索語のみが他の表示領域にリストアップされるように構成してもよい。
Another configuration of the user interface displayed on the
また、ディスプレイ102に表示されるユーザインタフェースには、ユーザAログ表示領域22a、ユーザBログ表示領域22b及び共通言語ログ表示領域22cに表示されたリストをスクロールするためのスクロールバー23a,23b及び23cと、スクロールボタン26a及び26cとが含まれる。ユーザは表示領域外のログを参照したい場合、これらのバー及びボタンをマウス104やキーボード103を用いて操作することで、リストの表示領域を移動する。
The user interface displayed on the
更に、ディスプレイ102には『辞書切替え』ボタン27も表示される。『辞書切替え』ボタン27は電子辞書を切り替えるためにユーザが操作可能なユーザインタフェースである。上記では、検索手段を日中(中日も含む)及び日英(英日も含む)の電子辞書としたが、本発明ではこれに限らず、例えば他言語の電子辞書や専門用語の電子辞書などを適用することができる。そこで、上記のような検索手段を切り替える機能を設けることで、様々な状況に対応することが可能な対話支援システム1が実現できる。
Further, a “dictionary switching”
次に、ユーザ端末100a,100bの機能ブロックを図4と共に説明する。尚、ユーザ端末100a,100bの機能ブロックは同様の構成であるため、以下の説明ではこれらをユーザ端末100として説明する。
Next, functional blocks of the
図4に示すように、ユーザ端末100は、映像/音声取得手段11と入力手段12と検索手段13と蓄積手段14とインタフェース作成手段15と送信手段16と受信手段17と表示手段18とを有する。
As shown in FIG. 4, the
映像/音声取得手段11はカメラ105やマイク106を含んで実現される機能であり、ユーザA(B)の映像及び音声を取得する。映像/音声取得手段11は取得した映像を表示手段18に入力すると共に、取得した映像及び音声を送信手段16に入力する。
The video /
入力手段12はキーボード103やマウス104を含んで実現される機能であり、図3に示すユーザインタフェースに対する各種操作を入力する。入力手段12は、ユーザA(B)使用言語入力欄25aに入力された検索語を検索手段13とインタフェース作成手段15と送信手段16とにそれぞれ入力する。また、入力手段12は入力された他の操作の情報をインタフェース作成手段15に入力する。尚、他の操作とは、例えばリストのスクロールなどである。
The
検索手段13はPC本体101のCPUなどで実現される機能であり、入力された検索語に基づいて蓄積手段14に蓄積されたコンテンツを検索する。蓄積手段14はPC本体101のハードディスクドライブなどを含んで実現される機能であり、電子辞書などのようなコンテンツとなるデータを蓄積する。上述した電子辞書は検索手段13と蓄積手段14とを含んで実現される機能である。また、検索手段13は検索結果として得られた訳語をインタフェース作成手段15に入力すると共に送信手段16に入力する。
The search means 13 is a function realized by the CPU of the PC
送信手段16はPC本体101のネットワークアダプタなどを含んで実現される機能であり、ネットワーク20を介して他のユーザ端末100へ各種データを送信する。尚、各種データは、映像/音声取得手段11から入力された映像及び音声や、入力手段12から入力された検索語並びに他の操作情報や、検索手段13から入力された訳語などを含む。
The transmission means 16 is a function realized by including the network adapter of the PC
受信手段17はPC本体101のネットワークアダプタなどを含んで実現される機能であり、他のユーザ端末100から送信された各種データ(映像及び音声、検索語及び訳語を含む)をネットワーク20を介して受信する。受信手段17は、受信した映像及び音声を表示手段18に入力する。また、送信手段17は受信した検索語及び訳語並びに他の操作情報をインタフェース作成手段15に入力する。
The receiving means 17 is a function realized by including the network adapter of the PC
インタフェース作成手段15はPC本体101のCPUなどで実現される機能であり、入力された検索語や訳語や他の操作情報などに基づいて図3に示すユーザインタフェースを作成、更新する。インタフェース作成手段15は作成、更新したユーザインタフェースを表示手段18に入力する。
The
表示手段18はディスプレイ102及びスピーカ107を含んで実現される機能である。表示手段18は映像/音声取得手段11で取得した映像をユーザA映像表示領域21a(図3参照)に表示する。また、表示手段18は受信手段17で受信した映像をユーザB映像表示領域21b(図3参照)に表示すると共に、受信手段17で受信した音声をスピーカ107から音声出力する。更に、表示手段18はインタフェース作成手段15で作成、更新された各種ユーザインタフェースを図3に示すように表示する。
The display means 18 is a function realized by including the
以上で説明した各手段は、上記した構成の他に、PC本体101で実行された所定のプログラムにより実現される。このプログラムは例えばPC本体101のハードディスクなどに記録されており、必要に応じて読み出されて実行される。
Each means described above is realized by a predetermined program executed in the PC
次に、ユーザ端末100の動作について図面と共に説明する。図5から図9はユーザ端末100の動作を示すフローチャートである。
Next, the operation of the
先ず、図5に示すように、ユーザ端末100は上記所定のプログラムが起動されると、ピア・ツー・ピアのピアとしてネットワーク20上に存在する他のユーザ端末100を検索する(ステップS101)。他のユーザ端末100が存在する場合(ステップS102のYes)、ユーザ端末100は当該他のユーザ端末100のネットワーク20上のアドレスを取得する(ステップS103)。このアドレスは例えばIP(Internet Protocol)アドレスなどである。次に、ユーザ端末100は所定のイベントを発生させる(ステップS104)。その後、ユーザ端末100はステップS101へ帰還し、新たに別のユーザ端末100を検索する。
First, as shown in FIG. 5, when the predetermined program is started, the
上記したイベントの発生は、例えばイベントリスナなどの常駐プロセスにより監視される。イベントの発生を検出すると、ユーザ端末100は図6から図9に示す動作をそれぞれ実行する。尚、これらの動作もPC本体101で実行された所定のプログラムにより実現されるものである。
The occurrence of the event is monitored by a resident process such as an event listener. When the occurrence of an event is detected, the
先ず、図6に示す動作を説明する。上記のようにイベントが発生すると、ユーザ端末100はカメラ105及びマイク106を用いてユーザAの映像及び音声を取得する(ステップS111)。次に、ユーザA映像表示領域21a(図3参照)を作成し(ステップS112)、これに取得したユーザAの映像を表示する(ステップS113)。また、ユーザ端末100はステップS111で取得した映像及び音声を他のユーザ端末100へ送信する(ステップS114)。これは上記で取得したアドレスに基づいて行われる。
First, the operation shown in FIG. 6 will be described. When an event occurs as described above, the
次に、図7に示す動作を説明する。上記のようにイベントが発生すると、ユーザ端末100は他のユーザ端末100から送信されたユーザBの映像及び音声を受信する(ステップS121)。次に、ユーザB映像表示領域21b(図3参照)を作成し(ステップS122)、これに受信したユーザBの映像を表示する(ステップS123)。また、ユーザ端末100はステップS121で受信した音声をスピーカ107から出力する(ステップS124)。
Next, the operation shown in FIG. 7 will be described. When the event occurs as described above, the
尚、図6及び図7に示す動作は、上記した所定のプログラムの終了命令が入力されるまで繰り返し実行される。これにより、ユーザ端末100間で映像及び音声がライブ中継される。
The operations shown in FIGS. 6 and 7 are repeatedly executed until the above-described predetermined program end command is input. Thereby, video and audio are relayed live between the
次に、図8に示す動作を説明する。上記のようにイベントが発生すると、ユーザ端末100は図3を用いて説明した各ユーザインタフェースを作成し(ステップS131)、これをディスプレイ102上に表示する(ステップS132)。次に、ユーザ端末100は、キーボード103又はマウス104を用いた操作入力があるか否かを監視する(ステップS133)。ユーザからの操作入力があると(ステップS133のYes)、ユーザ端末100は、入力された操作が検索語であるか否かを判断する(ステップS134)。ステップS134の判断の結果、検索語である場合(ステップS134のYes)、ユーザ端末100はこの検索語に基づいた検索を実行する(ステップS135)。次に、ユーザ端末100は検索により得られた訳語と検索語とに基づいて上記したユーザインタフェース、特にユーザAログ表示領域22a,ユーザBログ表示領域22b及び共通言語ログ表示領域22cを更新する(ステップS136)。また、ユーザ端末100は、入力された検索語と得られた訳語とを他のユーザ端末100へ送信する。(ステップS137)。これは上記で取得したアドレスに基づいて行われる。その後、ステップS133に帰還し、次の操作を待機する。一方、ユーザからの操作入力が検索語でない場合(ステップS134のNo)、ユーザ端末100は入力された他の操作に基づいて上記したユーザインタフェースを更新し(ステップS138)、また、この他の操作の情報を他のユーザ端末100へ送信する(ステップS139)。その後、ステップS133に帰還し、次の操作を待機する。
Next, the operation shown in FIG. 8 will be described. When an event occurs as described above, the
次に、図9に示す動作を説明する。上記のようにイベントが発生すると、ユーザ端末100は他のユーザ端末100から検索語及び訳語、又は他の操作情報を受信したか否かを監視する(ステップS141)。検索語及び訳語、又は他の操作情報を受信すると(ステップS141のYes)、ユーザ端末100は、受信した情報が検索語及び訳語であるか否かを判断する(ステップS142)。ステップS142の判断の結果、検索語及び訳語である場合(ステップS142のYes)、ユーザ端末100は受信した検索語及び訳語に基づいて上記したユーザインタフェース、特にユーザAログ表示領域22a,ユーザBログ表示領域22b及び共通言語ログ表示領域22cを更新する(ステップS143)。その後、ステップS141に帰還し、次の受信を待機する。一方、受信した情報が検索語及び訳語でない場合(ステップS142のNo)、ユーザ端末100は受信した他の操作情報に基づいて上記したユーザインタフェースを更新し(ステップS144)、その後、ステップS141に帰還し、次の受信を待機する。
Next, the operation shown in FIG. 9 will be described. When an event occurs as described above, the
尚、図8及び図9に示す動作は、上記した所定のプログラムの終了命令が入力されるまで繰り返し実行される。これにより、ユーザ端末100間で共用できるユーザインタフェースが実現される。
The operations shown in FIGS. 8 and 9 are repeatedly executed until the above-described predetermined program end command is input. Thereby, a user interface that can be shared among the
以上のように構成及び動作することで、本実施例によれば、複数のユーザ端末間でユーザの映像及び音声をライブ中継することができる。また、本実施例によれば、ユーザは相手にとってどの語彙が不明確であったかを知ることができ、更に自分にとってどの語彙が不明確であるかを知らせることができる。すなわち、円滑なコミュニケーションを阻害する要因を相手方と共有することができる。これにより、この要因を抽出し且つ解決することが可能となり、円滑なコミュニケーションの進行が可能となる。 With the configuration and operation as described above, according to the present embodiment, the user's video and audio can be relayed live between a plurality of user terminals. In addition, according to the present embodiment, the user can know which vocabulary was unclear for the other party, and can further notify which vocabulary is unclear for himself. That is, a factor that hinders smooth communication can be shared with the other party. As a result, this factor can be extracted and solved, and smooth communication can proceed.
尚、本実施例では検索機能として電子辞書を例に挙げて説明したが、本発明はこれに限定されず、情報(コンテンツともいう)の検索が可能な種々の情報源を適用することができる。また、本発明では、検索を目的としたユーザインタフェースを例に挙げたが、本発明はこれに限定されず、例えば文章を入力するためのユーザインタフェースやイメージを描画するためのユーザインタフェースなど、種々のユーザインタフェースを適用することができる。すなわち、ユーザが操作可能なユーザインタフェースをネットワーク上の他のユーザ端末と共有することで、本発明が目的とする、コミュニケーションの進行を阻害する要因をユーザ間で共有することが可能となる。 In the present embodiment, the electronic dictionary has been described as an example of the search function. However, the present invention is not limited to this, and various information sources capable of searching for information (also referred to as content) can be applied. . Further, in the present invention, the user interface for the purpose of search is given as an example, but the present invention is not limited to this. For example, there are various user interfaces such as a user interface for inputting a sentence and a user interface for drawing an image. The user interface can be applied. That is, by sharing the user interface that can be operated by the user with other user terminals on the network, it is possible to share the factors that hinder the progress of communication, which is the purpose of the present invention, between users.
次に、本発明の実施例2について図面を用いて詳細に説明する。尚、以下の説明において、実施例1と同様の構成については、同一の符号を付し、その詳細な説明を省略する。また、特記しない構成に関しては実施例1と同様である。 Next, a second embodiment of the present invention will be described in detail with reference to the drawings. In the following description, the same components as those in the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted. Further, the configuration not specifically mentioned is the same as that of the first embodiment.
図10は本実施例による対話支援システム1Aの概略構成を示す図である。図10に示すように、対話支援システム1Aは、ネットワーク20を介して接続されたユーザ端末100a,100bとサーバ200とを有する。ネットワーク20は実施例1と同様である。ユーザ端末100a,100bは実施例1と同様の構成において、実現される機能ブロックに一部の変更を有する。
FIG. 10 is a diagram showing a schematic configuration of a dialogue support system 1A according to the present embodiment. As illustrated in FIG. 10, the dialogue support system 1 </ b> A includes
サーバ200は、CPU(Central Processing Unit)やROM(Read Only Memory)やRAM(Random Access Memory)やハードディスクドライブなどを搭載した情報処理装置であり、一般的なサーバを適用することができる。
The
次に、本実施例によるユーザ端末100a,100bの機能ブロックと、サーバ200の機能ブロックとを図面と共に説明する。尚、ユーザ端末100a,100bの機能ブロックは同様の構成であるため、以下の説明ではこれらをユーザ端末100Aとして説明する。
Next, functional blocks of the
図11はユーザ端末100Aの機能ブロックを示す図である。図11に示すように、ユーザ端末100Aは実施例1によるユーザ端末100の機能ブロックと同様の構成において、検索手段13及び蓄積手段14が要求手段13aに置き換えられている。
FIG. 11 is a diagram showing functional blocks of the
要求手段13aはPC本体101のCPUやネットワークアダプタなどを含んで実現される機能であり、ネットワーク20を介して接続されたサーバ200へ検索を要求し、その結果を受信する。要求手段13aは検索結果として受信した訳語をインタフェース作成手段15に入力すると共に送信手段16に入力する。
The requesting
また、図12はサーバ200の機能ブロックを示す図である。図12に示すように、サーバ200は検索手段13と蓄積手段14とを有する。これらは実施例1(特に図4参照)で示した検索手段13及び蓄積手段14同様である。すなわち、本実施例では電子辞書などの情報源がネットワーク20を介して接続された他の情報処理装置(サーバ200)に設けられており、ユーザ端末100Aがこれに対して検索を要求するように構成されている。
FIG. 12 is a diagram illustrating functional blocks of the
次に、ユーザ端末100Aの動作について図面と共に説明する。ユーザ端末100Aの動作は実施例1によるユーザ端末100の動作と同様であるが、図8に示す動作が変更される。以下、図8の動作と置き換えられる動作を図13と共に説明する。
Next, the operation of the
図13に示すように、イベントが発生すると(図5のステップS104参照)、ユーザ端末100は図3を用いて説明した各ユーザインタフェースを作成し(ステップS231)、これをディスプレイ102上に表示する(ステップS232)。次に、ユーザ端末100Aは、キーボード103又はマウス104を用いた操作入力があるか否かを監視する(ステップS233)。ユーザからの操作入力があると(ステップS233のYes)、ユーザ端末100Aは、入力された操作が検索語であるか否かを判断する(ステップS234)。ステップS234の判断の結果、検索語である場合(ステップS234のYes)、ユーザ端末100Aはこの検索語に基づいた検索をサーバ200に要求し(ステップS235)、これに対して応答された検索結果の受信を待機する(ステップS236)。次に、ユーザ端末100Aはサーバ200から受信した検索結果に含まれる訳語と検索語とに基づいて上記したユーザインタフェース、特にユーザAログ表示領域22a,ユーザBログ表示領域22b及び共通言語ログ表示領域22cを更新する(ステップS237)。また、ユーザ端末100Aは、入力された検索語と受信した訳語とを他のユーザ端末100Aへ送信する。(ステップS238)。これは図5のステップS103で取得したアドレスに基づいて行われる。その後、ステップS233に帰還し、次の操作を待機する。一方、ユーザからの操作入力が検索語でない場合(ステップS234のNo)、ユーザ端末100Aは入力された他の操作に基づいて上記したユーザインタフェースを更新し(ステップS239)、また、この他の操作の内容を他のユーザ端末100Aへ送信する(ステップS240)。その後、ステップS233に帰還し、次の操作を待機する。
As shown in FIG. 13, when an event occurs (see step S104 in FIG. 5), the
尚、図13に示す動作も、上記した所定のプログラムの終了命令が入力されるまで繰り返し実行される。これにより、ユーザ端末100A間で共用できるユーザインタフェースが実現される。
The operation shown in FIG. 13 is also repeatedly executed until the above-described predetermined program end command is input. Thereby, a user interface that can be shared between the
以上のように構成及び動作することで、本実施例によれば、実施例1と同様に、複数のユーザ端末間でユーザの映像及び音声をライブ中継することができる。また、本実施例によれば、実施例1と同様に、ユーザは相手にとってどの語彙が不明確であったかを知ることができ、更に自分にとってどの語彙が不明確であるかを知らせることができる。すなわち、円滑なコミュニケーションを阻害する要因を相手方と共有することができる。これにより、この要因を抽出し且つ解決することが可能となり、円滑なコミュニケーションの進行が可能となる。 With the configuration and operation as described above, according to the present embodiment, the user's video and audio can be relayed live between a plurality of user terminals as in the first embodiment. Further, according to the present embodiment, as in the first embodiment, the user can know which vocabulary was ambiguous for the other party, and can further inform which vocabulary is ambiguous for himself. That is, a factor that hinders smooth communication can be shared with the other party. As a result, this factor can be extracted and solved, and smooth communication can proceed.
尚、本実施例では電子辞書を例に挙げて説明したが、本発明はこれに限定されず、検索機能を備えた種々の情報源を提供することができる。 In the present embodiment, the electronic dictionary has been described as an example. However, the present invention is not limited to this, and various information sources having a search function can be provided.
次に、本発明の実施例3について図面を用いて詳細に説明する。尚、以下の説明において、実施例1又は実施例2と同様の構成については、同一の符号を付し、その詳細な説明を省略する。また、特記しない構成に関しては実施例1又は実施例2と同様である。 Next, Example 3 of the present invention will be described in detail with reference to the drawings. In the following description, the same components as those in the first embodiment or the second embodiment are denoted by the same reference numerals, and detailed description thereof is omitted. Further, the configuration not specifically mentioned is the same as that of the first embodiment or the second embodiment.
図14は本実施例による対話支援システム1Bの概略構成を示す図である。図14に示すように、対話支援システム1Bは、ネットワーク20を介して接続されたユーザ端末100a,100bと、これらとインターネット30を介して接続された検索エンジン310及び情報サイト320とを有する。ネットワーク20は実施例1と同様である。ユーザ端末100a,100bは実施例1と同様の構成において、実現される機能ブロックに一部の変更を有する。また、インターネット30はネットワーク20に含めてもよい。
FIG. 14 is a diagram showing a schematic configuration of a dialogue support system 1B according to the present embodiment. As illustrated in FIG. 14, the dialogue support system 1 </ b> B includes
検索エンジン310は、インターネット30上に存在する検索手段であり、ユーザ端末100a,100bから入力された検索条件に基づき、これに該当する情報サイト320のインターネット30上から検索する。情報サイト320は、各種情報を蓄積した蓄積手段であり、時事ニュースや専門技術解説やその他種々の情報を蓄積している。
The search engine 310 is a search unit that exists on the Internet 30 and searches the Internet 30 of the corresponding
このように本発明は、インターネット上に存在するサイトを情報源とし、これの検索を同じくインターネット上に存在するエンジンで行うように構成することもできる。尚、他の構成は実施例1及び実施例2と同様であるため、ここでは説明を省略する。また、各ユーザ端末100a,100bの機能ブロックは実施例2と同様であるため、ここでは説明を省略する。
As described above, the present invention can be configured such that a site existing on the Internet is used as an information source, and the search is performed by an engine that is also present on the Internet. Since other configurations are the same as those in the first and second embodiments, description thereof is omitted here. In addition, the functional blocks of the
次に、本発明の実施例4について図面を用いて詳細に説明する。尚、以下の説明において、実施例1から実施例3と同様の構成については、同一の符号を付し、その詳細な説明を省略する。また、特記しない構成に関しては実施例1から実施例3の何れかと同様である。但し、以下の説明では、実施例1を引用して説明するが、本実施例は実施例1に限らず、他の実施例に対しても同様に適用することができる。 Next, a fourth embodiment of the present invention will be described in detail with reference to the drawings. In the following description, the same components as those in the first to third embodiments are denoted by the same reference numerals, and detailed description thereof is omitted. Further, the configuration not specifically mentioned is the same as that in any one of the first to third embodiments. However, in the following description, the description will be made with reference to the first embodiment. However, the present embodiment is not limited to the first embodiment, and can be similarly applied to other embodiments.
本実施例による対話支援システムの構成は、実施例1による対話支援システム1(図2参照)と同様である。また、各ユーザ端末100a,100bの構成を実施例1と同様である。但し、ユーザ端末100a,100bの機能ブロックは、実施例1と同様の構成において、実現される機能ブロックに一部の変更を有する。
The configuration of the dialogue support system according to the present embodiment is the same as that of the dialogue support system 1 (see FIG. 2) according to the first embodiment. The configuration of each
ここで、本実施例によるユーザ端末100a,100bの機能ブロックを図面と共に説明する。尚、ユーザ端末100a,100bの機能ブロックは同様の構成であるため、以下の説明ではこれらをユーザ端末100Cとして説明する。
Here, functional blocks of the
図15はユーザ端末100Cの機能ブロックを示す図である。図15に示すように、ユーザ端末100Cは実施例1によるユーザ端末100の機能ブロックと同様の構成において、検索結果を履歴として蓄積するための履歴蓄積手段14cが追加されている。
FIG. 15 is a diagram showing functional blocks of the
履歴蓄積手段14cはPC本体101のハードディスクドライブ又はRAMなどを含んで実現される機能であり、検索結果13に入力された検索語及びこの検索語に対して得られた検索結果を蓄積する。検索手段13は入力手段12から検索語が入力されると、実施例1と同様に、これに基づいて蓄積手段14に蓄積されたコンテンツを検索する。次に検索手段13は、得られた訳語を検索語と共に履歴蓄積手段14cに保存する。これにより、ユーザA(B)の検索履歴が蓄積される。
The
尚、履歴蓄積手段14cに蓄積された履歴は、種々活用することができる。例えば、インタフェース作成手段15が履歴蓄積手段14cに履歴として蓄積された検索語及び訳語を、表示しない、優先して表示する、若しくは非優先して表示するように構成することができる。但し、これに限らず、種々の活用方法がある。
The history stored in the
次に、本発明の実施例5について図面を用いて詳細に説明する。尚、以下の説明において、実施例1から実施例5と同様の構成については、同一の符号を付し、その詳細な説明を省略する。また、特記しない構成に関しては実施例1から実施例5の何れかと同様である。但し、以下の説明では、実施例1を引用して説明するが、本実施例は実施例1に限らず、他の実施例に対しても同様に適用することができる。 Next, a fifth embodiment of the present invention will be described in detail with reference to the drawings. In the following description, the same components as those in the first to fifth embodiments are denoted by the same reference numerals, and detailed description thereof is omitted. Further, the configuration not specifically mentioned is the same as that in any one of the first to fifth embodiments. However, in the following description, the description will be made with reference to the first embodiment. However, the present embodiment is not limited to the first embodiment, and can be similarly applied to other embodiments.
本実施例において、対話支援システム及びユーザ端末100a,100bの構成は実施例1と同様である。また、本実施例によるユーザ端末100a,100bの機能ブロックを図16に示す。尚、ユーザ端末100a,100bの機能ブロックは同様の構成であるため、以下の説明ではこれらをユーザ端末100Dとして説明する。
In this embodiment, the configurations of the dialogue support system and the
図16に示すように、ユーザ端末100Dの機能ブロックは実施例1と同様の構成において、画像処理手段19が追加されている。
As shown in FIG. 16, the functional block of the
画像処理手段19は入力された特定の映像を利用してポインタのようなユーザインタフェースを作成するための手段である。この手段はPC本体101のCPUやグラフィックアクセラレータなどを用いて実現することができる。
The
画像処理手段19には、映像/音声取得手段11で取得された映像と、受信手段17で受信した映像(但し、音声も含む)と、インタフェース作成手段15で作成されたユーザインタフェースとが入力される。画像処理手段19は、映像/音声取得手段11又は受信手段17より入力された映像から、例えばユーザA(又はB)の手やペンなど、特定の映像を切り出す。また、画像処理手段19は、切り出した映像を、映像/音声取得手段11及び受信手段17より入力された映像並びにインタフェース作成手段15から入力されたユーザインタフェースの画像よりなる画面と合成し、これを表示手段18に入力する。これによりディスプレイ102には、図17に示すような画面が表示される。
The
図17に示すように、ディスプレイ102には、実施例1においてディスプレイ102に表示される画面(図3参照)と同様の画面において、ポインタ28aが最前面に表示される。尚、本実施例ではポインタ28aをユーザAの手の映像とする。ポインタ28aはユーザAによる手の移動に連動して画面上を移動する。これにより、ユーザAは画面上における注目すべき箇所をポインタ28aを用いてユーザBに指示することができる。
As shown in FIG. 17, on the
尚、以上のような映像処理は、例えばクロマキー技術やMPEG(Moving Picture Experts Group)−4などの技術を用いて実現することができる。 Note that the video processing as described above can be realized by using techniques such as chroma key technology and MPEG (Moving Picture Experts Group) -4.
上記実施例1から実施例5は本発明を実施するための例にすぎず、本発明はこれらに限定されるものではなく、これらの実施例を種々変形することは本発明の範囲内であり、更に本発明の範囲内において、他の様々な実施例が可能であることは上記記載から自明である。 The above-mentioned Examples 1 to 5 are only examples for carrying out the present invention, and the present invention is not limited to these. Various modifications of these examples are within the scope of the present invention. Furthermore, it is obvious from the above description that various other embodiments are possible within the scope of the present invention.
1、1A、1B 対話支援システム 11 映像/音声取得手段
12 入力手段 13 検索手段
13a 要求手段 14 蓄積手段
14c 履歴蓄積手段 15 インタフェース作成手段
16 送信手段 17 受信手段
18 表示手段 19 画像処理手段
20 ネットワーク 21a ユーザA映像表示領域
21b ユーザB映像表示領域 22a ユーザAログ表示領域
22b ユーザBログ表示領域 22c 共通言語ログ表示領域
23a、23b,23c スクロールバー
24a,24c 検索ボタン 25a ユーザA使用言語入力欄
25b ユーザB使用言語入力欄 25c 共通言語入力欄
26a、26c スクロールボタン 27 辞書切替えボタン
28a ポインタ 30 インターネット
100、100A、100a、100b、100C、100D ユーザ端末
101 PC本体 102 ディスプレイ
103 キーボード 104 マウス
105 カメラ 106 マイク
107 スピーカ 200 サーバ
310 検索エンジン 320 情報サイト
DESCRIPTION OF SYMBOLS 1, 1A, 1B
Claims (8)
前記ユーザインタフェースへの入力情報に基づいて情報を検索する検索手段と、
前記検索手段による検索結果を表示するように前記ユーザインタフェースを更新するインタフェース作成手段と、
前記入力情報及び前記検索結果を前記他の情報処理装置へ送信する送信手段と、
前記他の情報処理装置から前記ユーザインタフェースへの入力情報及び該入力情報に基づいて得られた検索結果を受信する受信手段とを有し、
前記インタフェース作成手段は前記他の情報処理装置から受信した入力情報及び検索結果に基づいて前記ユーザインタフェースを更新することを特徴とする情報処理装置。 An information processing apparatus that has a common user interface with another information processing apparatus connected via a network and realizes an interactive environment between users by exchanging video and audio with the other information processing apparatus. And
Search means for searching for information based on input information to the user interface;
Interface creation means for updating the user interface so as to display search results by the search means;
Transmitting means for transmitting the input information and the search result to the other information processing apparatus;
Receiving means for receiving input information from the other information processing apparatus to the user interface and a search result obtained based on the input information;
The information processing apparatus, wherein the interface creation unit updates the user interface based on input information and search results received from the other information processing apparatus.
前記検索手段は前記入力情報に基づいて前記蓄積手段から情報を検索することを特徴とする請求項1記載の情報処理装置。 Having storage means for storing information;
The information processing apparatus according to claim 1, wherein the retrieval unit retrieves information from the storage unit based on the input information.
前記他の情報処理装置と共通のユーザインタフェースを作成する第1のステップと、
前記ユーザインタフェースへの入力情報に基づいて情報を検索する第2のステップと、
前記第2のステップによる検索結果を表示するように前記ユーザインタフェースを更新する第3のステップと、
前記入力情報及び前記検索結果を前記他の情報処理装置へ送信する第4のステップと、
前記他の情報処理装置から前記ユーザインタフェースへの入力情報及び該入力情報に基づいて得られた検索結果を受信する第5のステップと、
前記第5のステップで受信した入力情報及び検索結果に基づいて前記ユーザインタフェースを更新する第6のステップとを有することを特徴とするコミュニケーション方法。 A communication method for communicating with other users by exchanging video and audio with other information processing devices via a network,
A first step of creating a common user interface with the other information processing apparatus;
A second step of retrieving information based on information input to the user interface;
A third step of updating the user interface to display search results from the second step;
A fourth step of transmitting the input information and the search result to the other information processing apparatus;
A fifth step of receiving input information to the user interface from the other information processing apparatus and a search result obtained based on the input information;
And a sixth step of updating the user interface based on the input information and search results received in the fifth step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003424083A JP2005184583A (en) | 2003-12-22 | 2003-12-22 | Information processing apparatus and communication method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003424083A JP2005184583A (en) | 2003-12-22 | 2003-12-22 | Information processing apparatus and communication method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005184583A true JP2005184583A (en) | 2005-07-07 |
Family
ID=34784366
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003424083A Pending JP2005184583A (en) | 2003-12-22 | 2003-12-22 | Information processing apparatus and communication method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005184583A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011257932A (en) * | 2010-06-08 | 2011-12-22 | Sharp Corp | Content reproduction device, control method of content reproduction device, control program, and storage medium |
US9031849B2 (en) | 2006-09-30 | 2015-05-12 | Huawei Technologies Co., Ltd. | System, method and multipoint control unit for providing multi-language conference |
US9324325B2 (en) | 2013-09-11 | 2016-04-26 | International Business Machines Corporation | Converting data between users during a data exchange session |
-
2003
- 2003-12-22 JP JP2003424083A patent/JP2005184583A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9031849B2 (en) | 2006-09-30 | 2015-05-12 | Huawei Technologies Co., Ltd. | System, method and multipoint control unit for providing multi-language conference |
JP2011257932A (en) * | 2010-06-08 | 2011-12-22 | Sharp Corp | Content reproduction device, control method of content reproduction device, control program, and storage medium |
US9324325B2 (en) | 2013-09-11 | 2016-04-26 | International Business Machines Corporation | Converting data between users during a data exchange session |
US9542946B2 (en) | 2013-09-11 | 2017-01-10 | International Business Machines Corporation | Converting data between users during a data exchange session |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10917369B2 (en) | Information processing apparatus, information processing system, and information processing method | |
US20230161969A1 (en) | Automatically assisting conversations using graph database | |
US9552354B1 (en) | Method and apparatus for cross-lingual communication | |
US9063931B2 (en) | Multiple language translation system | |
JP6942821B2 (en) | Obtaining response information from multiple corpora | |
US7539619B1 (en) | Speech-enabled language translation system and method enabling interactive user supervision of translation and speech recognition accuracy | |
US10504039B2 (en) | Short message classification for video delivery service and normalization | |
US20170187876A1 (en) | Remote automated speech to text including editing in real-time ("raster") systems and methods for using the same | |
JP2008152798A (en) | Pointer initiated instant bilingual annotation on textual information in electronic document | |
JP2002041432A (en) | Chat system, terminal equipment, server device, and medium | |
MX2008010477A (en) | Machine translation in instant messaging applications. | |
US8838451B2 (en) | System, methods and automated technologies for translating words into music and creating music pieces | |
JP2009505284A (en) | Virtual robot communication format customized by endpoint | |
JP2008129081A (en) | Interactive lecture support system | |
KR102104294B1 (en) | Sign language video chatbot application stored on computer-readable storage media | |
WO2000041080A1 (en) | Speech assisting method and device | |
TWI710907B (en) | Multilingual communication system and method for providing multilingual communication | |
CN105955967A (en) | Data processing method and data processing device | |
EP2869546B1 (en) | Method and system for providing access to auxiliary information | |
JP2005184583A (en) | Information processing apparatus and communication method | |
Al-Dosri et al. | Arabic sign language easy communicate ArSLEC | |
KR20110065295A (en) | System and method of user device aware conferencing using networked services | |
WO2022132168A1 (en) | On-device real-time translation of media content on a mobile electronic device | |
TW201306536A (en) | Multi-language recognition and translation screen display system applied to voice over Internet protocol | |
CN110674645B (en) | Information communication method for converting Chinese and English languages and electronic equipment |