JP2005184583A - Information processing apparatus and communication method - Google Patents

Information processing apparatus and communication method Download PDF

Info

Publication number
JP2005184583A
JP2005184583A JP2003424083A JP2003424083A JP2005184583A JP 2005184583 A JP2005184583 A JP 2005184583A JP 2003424083 A JP2003424083 A JP 2003424083A JP 2003424083 A JP2003424083 A JP 2003424083A JP 2005184583 A JP2005184583 A JP 2005184583A
Authority
JP
Japan
Prior art keywords
user
search
processing apparatus
information
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003424083A
Other languages
Japanese (ja)
Inventor
Shoji Sakamoto
彰司 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2003424083A priority Critical patent/JP2005184583A/en
Publication of JP2005184583A publication Critical patent/JP2005184583A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an information processing apparatus and a communication method, which share among users factors that disturb progress of communication. <P>SOLUTION: User terminals 100a, 100b realize interaction environment, and display a user A log display area 22a, a user B log display area 22b, a common language log display area 22c, a user A using language input column 25a, and the common language input column 25c. The user A inputs phrases to be searched in the user A using language input column 25a or in the common language input column 25c. The inputted phrases and their translation are displayed in the user A log display area 22a, the user B log display area 22b, and the common language log display area 22c. The information processing device sends and receives operation information to a user interface so as display contents of the user A log display area 22a, the user B log display area 22b, and the common language log display area 22c, become the same in all user terminals 100a, 100b. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、ネットワークを介して映像及び音声を交換することで対話環境を実現する情報処理装置及びコミュニケーション方法に関する。   The present invention relates to an information processing apparatus and a communication method that realize an interactive environment by exchanging video and audio via a network.

近年、ネットワーク設備の普及により、遠隔地間でのコミュニケーションがより身近なものとなってきている。例えばテレビ会議システムなどがこれである。   In recent years, with the spread of network equipment, communication between remote locations has become more familiar. For example, this is a video conference system.

従来のテレビ会議システムは、それぞれの拠点で取得した映像及び音声を互いに送受信し、再生するように構成されている。しかしながら、ただ単に利用者の様子を互いに交換するだけのシステムでは、伝達する情報が限られているため、目的とした情報を相手に十分に伝えられない場合がある。   A conventional video conference system is configured to mutually transmit and receive video and audio acquired at each site and reproduce them. However, in a system that simply exchanges the state of users with each other, the information to be transmitted is limited, and the target information may not be sufficiently transmitted to the other party.

このような問題を解決する技術としては、例えば以下に示す特許文献1が開示するところの技術が存在する。本従来技術によるシステム構成を図1に示す。   As a technique for solving such a problem, for example, there is a technique disclosed in Patent Document 1 shown below. A system configuration according to the conventional technology is shown in FIG.

図1に示すように、従来のシステム構成はサーバ・クライアント型のシステム構成を有し、ネットワーク20に接続されたクライアント端末910a,910bと、サーバ920及びコンテンツサーバ930とを有する。クライアント端末910a,910bは各ユーザが使用する端末であり、映像や音声を取得するためのカメラやマイクを有する。サーバ920は、クライアント端末910a,910bからそれぞれ送られてくる映像及び音声を他方のクライアント端末910b,910aに送信する。これにより、クライアント端末910a,910b間で映像及び音声がライブ中継される。コンテンツサーバ930は会議や教育などに使用されるマルチメディアコンテンツを蓄積しており、クライアント端末910a,910bからの要求に基づいてこれを配信する。ユーザは他方のクライアント端末から送られてきた映像及び音声と共にマルチメディアコンテンツを用いて、会議を進行したり教育を受けたりする。   As shown in FIG. 1, the conventional system configuration has a server / client type system configuration, and includes client terminals 910 a and 910 b connected to a network 20, a server 920, and a content server 930. The client terminals 910a and 910b are terminals used by each user, and have a camera and a microphone for acquiring video and audio. The server 920 transmits video and audio sent from the client terminals 910a and 910b to the other client terminals 910b and 910a, respectively. As a result, video and audio are relayed live between the client terminals 910a and 910b. The content server 930 stores multimedia content used for meetings and education, and distributes it based on requests from the client terminals 910a and 910b. The user uses the multimedia contents together with the video and audio sent from the other client terminal to proceed with the conference or receive education.

この従来技術は、一方のユーザが持つ情報を他方のユーザに正しく伝えることを目的としている。そこで従来技術では、対象のマルチメディアコンテンツを事前にコンテンツサーバ930へ登録しておき、これを必要に応じて各クライアント端末910a,910bへ配信するように構成されていた。
特開2003−9105号公報
This prior art is intended to correctly convey information held by one user to the other user. Therefore, in the conventional technique, the target multimedia content is registered in advance in the content server 930 and is distributed to each of the client terminals 910a and 910b as necessary.
JP 2003-9105 A

但し、テレビ会議システムを用いた会議の目的は情報の伝達に限ったものではない。例えばブレインストーミング型の会議のように、共同で何らかの目的に到達することを目指す場合も多くある。このような場合、共同行為の過程でのコミュニケーションを円滑に進めるためには、これを阻害する要因を抽出し、これを解決することが重要となる。   However, the purpose of the conference using the video conference system is not limited to the transmission of information. In many cases, for example, brainstorming-type conferences aim to jointly reach some purpose. In such a case, in order to facilitate communication in the process of joint action, it is important to extract a factor that hinders this and solve it.

例えば国を跨いだテレビ会議などでは、参加する全てのユーザが理解できる言語を用いて会議が行われるが、一方のユーザが他方のユーザの言語に堪能でない場合、英語などの共通言語を利用して会話を進める必要がある。このような場合、単語や文章の意味が不明確となり、コミュニケーションの進行に問題が発生して会議を円滑に進行することができないことがある。また、プレゼンテーションや教育の現場などでも、専門用語の意味や時事ニュースなど、聴講者が知識として持つ必要がある情報の不備から、コミュニケーションの進行に問題が発生してしまうことがある。   For example, in a video conference across countries, a conference is conducted using a language that all participating users can understand. If one user is not fluent in the other user's language, a common language such as English is used. It is necessary to proceed with the conversation. In such a case, the meaning of the words and sentences may become unclear, and problems may occur in the progress of communication, making it impossible to smoothly proceed with the conference. Also, in presentations and educational sites, problems may occur in the progress of communication due to the lack of information that listeners should have as knowledge, such as the meaning of technical terms and current news.

このような問題を解決するためには、あるユーザにとって不明確である情報、すなわちコミュニケーションの進行を阻害する要因を他のユーザに知らしめる必要がある。この要因が解れば、ユーザはこれを踏まえて会議や教育やプレゼンテーションなどを進行することが可能となる。   In order to solve such a problem, it is necessary to let other users know information that is unclear for a certain user, that is, a factor that hinders the progress of communication. If this factor is understood, the user can proceed with meetings, education, presentations, etc. based on this factor.

しかしながら、上記したような、事前に登録しておいた情報を配信するだけの従来技術では、このような問題を解決することが不可能であった。   However, it is impossible to solve such a problem with the prior art that only distributes information registered in advance as described above.

そこで本発明は、コミュニケーションの進行を阻害する要因をユーザ間で共有することが可能な情報処理装置及びコミュニケーション方法を提供することを目的とする。   Therefore, an object of the present invention is to provide an information processing apparatus and a communication method that can share a factor that hinders the progress of communication among users.

かかる目的を達成するために、本発明は、請求項1記載のように、ネットワークを介して接続された他の情報処理装置と共通のユーザインタフェースを有し、且つ該他の情報処理装置と映像及び音声を交換することでユーザ間の対話環境を実現する情報処理装置であって、前記ユーザインタフェースへの入力情報に基づいて情報を検索する検索手段と、前記検索手段による検索結果を表示するように前記ユーザインタフェースを更新するインタフェース作成手段と、前記入力情報及び前記検索結果を前記他の情報処理装置へ送信する送信手段と、前記他の情報処理装置から前記ユーザインタフェースへの入力情報及び該入力情報に基づいて得られた検索結果を受信する受信手段とを有し、前記インタフェース作成手段は前記他の情報処理装置から受信した入力情報及び検索結果に基づいて前記ユーザインタフェースを更新するように構成される。他の情報処理装置と共用されるユーザインタフェースを設けることで、このユーザインタフェースに対して入力した内容をユーザ間で共有することが可能となる。従って、このユーザインタフェースに例えばコミュニケーションの進行を阻害する要因を入力することで、ユーザ間で何が進行を阻害する要因であるかを共有することができ、結果として、どうすればこの要因を解決することができるかを容易に導くことが可能となる。また、コミュニケーションを阻害する要因としては、一方のユーザの知識不備であることが多い。そこで、一方のユーザにとって不明確である情報を検索するためのユーザインタフェースを設け、且つこのユーザインタフェースへの操作を他方のユーザへ知らせる構成とすることで、コミュニケーションの進行を阻害する要因、すなわち一方のユーザにとって不明確な情報をユーザ間で容易に共有することができる。更に、不明確な情報を検索することができる構成とすることで、不明確な情報を共有すると同時に、これを明確化することも可能となる。   In order to achieve the above object, the present invention has a user interface common to another information processing apparatus connected via a network and a video image with the other information processing apparatus. And an information processing apparatus that realizes an interactive environment between users by exchanging voices, wherein search means for searching for information based on information input to the user interface, and search results by the search means are displayed. Interface creation means for updating the user interface; transmission means for sending the input information and the search result to the other information processing apparatus; and input information and input from the other information processing apparatus to the user interface. Receiving means for receiving a search result obtained based on information, wherein the interface creating means is the other information processing apparatus. Configured to update the user interface based on the input information and the search results are al received. By providing a user interface that is shared with other information processing apparatuses, it is possible to share contents input to this user interface among users. Therefore, by inputting factors that inhibit the progress of communication into this user interface, for example, it is possible to share what is the factor that inhibits the progress among users, and as a result, how to solve this factor It is possible to easily guide whether or not In addition, as a factor that hinders communication, there is often a lack of knowledge of one user. Therefore, by providing a user interface for searching for information that is unclear to one user and notifying the other user of operations on this user interface, a factor that hinders the progress of communication, that is, It is possible to easily share information that is unclear to other users. Further, by adopting a configuration in which unclear information can be searched, unclear information can be shared and clarified at the same time.

また、請求項1記載の前記情報処理装置は、好ましくは請求項2記載のように、前記ユーザインタフェースが前記入力情報の履歴又は前記検索結果の履歴をリスト化して表示するように構成される。検索した履歴をリスト化して表示することで、各ユーザはコミュニケーションの進行中、何の情報を検索したかを容易に再確認することが可能となる。   Further, the information processing apparatus according to claim 1 is preferably configured such that the user interface lists and displays the history of the input information or the history of the search result as described in claim 2. By displaying the retrieved histories in a list, each user can easily reconfirm what information has been retrieved while the communication is in progress.

また、請求項1記載の前記情報処理装置は、例えば請求項3記載のように、情報を蓄積する蓄積手段を有し、前記検索手段が前記入力情報に基づいて前記蓄積手段から情報を検索するように構成されてもよい。すなわち、検索する情報の情報源は情報処理装置の内部に設けられていてもよい。   Further, the information processing apparatus according to claim 1 has storage means for storing information, for example, according to claim 3, and the search means searches for information from the storage means based on the input information. It may be configured as follows. That is, the information source of the information to be searched may be provided inside the information processing apparatus.

また、請求項3記載の前記情報処理装置は、例えば請求項4記載のように、前記入力情報に対応する訳語を検索する電子辞書であってもよい。ネットワークを介したコミュニケーションが普及するに連れて、国を跨いだコミュニケーションや異文化間のコミュニケーションなど、母国語が異なるユーザ間でコミュニケーションを取る機会が増加する。このような場合、電子辞書を用いることはコミュニケーションの大きな助けとなる。また、この電子辞書を活用するためのユーザインタフェースをユーザ間で共用することは、相手の考えや相手にとって不明確な語彙を理解する上でも、大きな助けとなる。   Further, the information processing apparatus according to claim 3 may be an electronic dictionary that searches for a translation corresponding to the input information, for example, as described in claim 4. As communication through networks becomes widespread, opportunities for communication between users with different native languages such as cross-country communication and cross-cultural communication increase. In such a case, using an electronic dictionary is a great help for communication. Also, sharing the user interface for utilizing this electronic dictionary among users is a great help in understanding the other person's thoughts and vocabulary unclear for the other party.

また、請求項1記載の前記情報処理装置は、例えば請求項5記載のように、前記入力情報に基づいた検索を前記ネットワークを介した他の情報処理装置に要求する要求手段を有して構成されてもよい。すなわち、検索する情報の情報源はネットワークを介した他の情報処理装置に設けられていてもよい。   The information processing apparatus according to claim 1 includes request means for requesting another information processing apparatus via the network to perform a search based on the input information, for example, as in claim 5. May be. That is, the information source of the information to be searched may be provided in another information processing apparatus via the network.

また、請求項1記載の前記情報処理装置は、例えば請求項6記載のように、前記入力情報に基づいた検索を前記ネットワークを介して接続された検索エンジンに要求する要求手段を有して構成されてもよい。すなわち、検索する情報の情報源はネットワーク上の情報サイトであってもよい。この場合、情報処理装置は、ネットワーク上の情報サイトを検索する検索エンジンに検索を要求するように構成される。   Further, the information processing apparatus according to claim 1 includes request means for requesting a search based on the input information from a search engine connected via the network, as in claim 6. May be. That is, the information source of the information to be searched may be an information site on the network. In this case, the information processing apparatus is configured to request a search from a search engine that searches for information sites on the network.

また、請求項1記載の前記情報処理装置は、例えば請求項7記載のように、前記他の情報処理装置とピア・ツー・ピア型のネットワークを介して相互に接続されてもよい。ピア・ツー・ピア型のネットワークを介して情報処理装置間を接続することで、サーバなどを介することがないため、簡単なシステム構成でネットワークを介したコミュニケーションを実現することができる。但し、本発明は、サーバを介するシステム構成、すなわちサーバ・クライアント型のシステム構成を除外するものではない。   In addition, the information processing apparatus according to claim 1 may be connected to the other information processing apparatus via a peer-to-peer network as described in claim 7, for example. By connecting information processing apparatuses via a peer-to-peer network, there is no need for a server or the like, so communication via the network can be realized with a simple system configuration. However, the present invention does not exclude a system configuration via a server, that is, a server / client system configuration.

また、他の本発明は、請求項8記載のように、ネットワークを介して他の情報処理装置と映像及び音声を交換することで他のユーザとコミュニケーションを取るためのコミュニケーション方法であって、前記他の情報処理装置と共通のユーザインタフェースを作成する第1のステップと、前記ユーザインタフェースへの入力情報に基づいて情報を検索する第2のステップと、前記第2のステップによる検索結果を表示するように前記ユーザインタフェースを更新する第3のステップと、前記入力情報及び前記検索結果を前記他の情報処理装置へ送信する第4のステップと、前記他の情報処理装置から前記ユーザインタフェースへの入力情報及び該入力情報に基づいて得られた検索結果を受信する第5のステップと、前記第5のステップで受信した入力情報及び検索結果に基づいて前記ユーザインタフェースを更新する第6のステップとを有して構成される。ユーザインタフェースを作成し、これに対する操作を他の情報処理装置と送受信することで、このユーザインタフェースに対して入力した内容をユーザ間で共有することが可能となる。従って、このユーザインタフェースに例えばコミュニケーションの進行を阻害する要因を入力することで、ユーザ間で何が進行を阻害する要因であるかを共有することができ、結果として、どうすればこの要因を解決することができるかを容易に導くことが可能となる。また、上述したように、コミュニケーションを阻害する要因としては、一方のユーザの知識不備であることが多い。そこで、一方のユーザにとって不明確である情報を検索するためのユーザインタフェースを設け、且つこのユーザインタフェースへの操作を他方のユーザへ知らせる構成とすることで、コミュニケーションの進行を阻害する要因、すなわち一方のユーザにとって不明確な情報をユーザ間で容易に共有することができる。更に、不明確な情報を検索することができる構成とすることで、不明確な情報を共有すると同時に、これを明確化することも可能となる。   According to another aspect of the present invention, there is provided a communication method for communicating with another user by exchanging video and audio with another information processing apparatus via a network. A first step of creating a user interface common to other information processing apparatuses, a second step of searching for information based on information input to the user interface, and a search result of the second step are displayed. A third step of updating the user interface, a fourth step of transmitting the input information and the search result to the other information processing device, and an input from the other information processing device to the user interface A fifth step of receiving information and a search result obtained based on the input information, and receiving in the fifth step And based on the input information and the search results made and a sixth step of updating the user interface. By creating a user interface and transmitting / receiving an operation for this to / from another information processing apparatus, it is possible to share the contents input to this user interface among users. Therefore, by inputting factors that inhibit the progress of communication into this user interface, for example, it is possible to share what is the factor that inhibits the progress among users, and as a result, how to solve this factor It is possible to easily guide whether or not Further, as described above, one factor that hinders communication is a lack of knowledge of one user. Therefore, by providing a user interface for searching for information that is unclear to one user and notifying the other user of operations on this user interface, a factor that hinders the progress of communication, that is, It is possible to easily share information that is unclear to other users. Further, by adopting a configuration in which unclear information can be searched, unclear information can be shared and clarified at the same time.

本発明によれば、コミュニケーションの進行を阻害する要因をユーザ間で共有することが可能となり、結果として、どうすればこの要因を解決することができるかをユーザは容易に導くことが可能となる。   According to the present invention, a factor that hinders the progress of communication can be shared among users, and as a result, the user can easily guide how to solve this factor.

以下、本発明を実施するための最良の形態を図面と共に詳細に説明する。   Hereinafter, the best mode for carrying out the present invention will be described in detail with reference to the drawings.

まず、本発明による実施例1について図面を用いて詳細に説明する。図2は本実施例による対話支援システム1の概略構成を示す図である。尚、本発明によるコミュニケーション方法は、この対話支援システム1を用いて実現される。   First, Embodiment 1 according to the present invention will be described in detail with reference to the drawings. FIG. 2 is a diagram showing a schematic configuration of the dialogue support system 1 according to the present embodiment. Note that the communication method according to the present invention is realized by using the dialogue support system 1.

図2に示すように、対話支援システム1は、ネットワーク20を介して接続されたユーザ端末100a,100bを有する。ネットワーク20は例えばインターネットやLAN(Local Area Network)やWAN(Wide Area Network)などを適用することができる。また、ユーザ端末100a,100bはそれぞれ、JXTA(登録商標)等に代表されるピア・ツー・ピアフレームワーク上のピアとしてネットワーク20上に実装される。すなわち、ユーザ端末100a,100bは相互にピア・ツー・ピア型のネットワークを形成することが可能である。ユーザ端末100a,100bは、この機能を用いてネットワーク20上で各種データを交換することにより、サーバなどを介さずにリアルタイムの対話型コミュニケーションを実現する。   As shown in FIG. 2, the dialogue support system 1 includes user terminals 100 a and 100 b connected via a network 20. As the network 20, for example, the Internet, a LAN (Local Area Network), a WAN (Wide Area Network), or the like can be applied. Each of the user terminals 100a and 100b is mounted on the network 20 as a peer on a peer-to-peer framework represented by JXTA (registered trademark) or the like. That is, the user terminals 100a and 100b can form a peer-to-peer network with each other. The user terminals 100a and 100b use this function to exchange various data on the network 20, thereby realizing real-time interactive communication without using a server or the like.

また、ユーザ端末100aは、CPU(Central Processing Unit)やROM(Read Only Memory)やRAM(Random Access Memory)やハードディスクドライブなどを搭載したPC本体101と、ディスプレイ102,キーボード103及びマウス104などを含むコンソールとを有して構成される。このようなユーザ端末100aには、例えばパーソナルコンピュータ(以下、PCという)などの情報処理装置を適用することが可能である。尚、ユーザ端末100bも同様の構成であるため、以下ではユーザ端末100aに着目して説明する。   The user terminal 100a includes a PC main body 101 on which a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a hard disk drive and the like are mounted, a display 102, a keyboard 103, a mouse 104, and the like. And a console. An information processing apparatus such as a personal computer (hereinafter referred to as a PC) can be applied to the user terminal 100a. Since the user terminal 100b has the same configuration, the following description will focus on the user terminal 100a.

ユーザ端末100aは、上記した構成の他に、カメラ105とマイク106とスピーカ107とを有する。カメラ105は対話に参加するユーザの映像を取得するための構成である。マイク106は対話に参加するユーザからの音声を取得するための構成である。カメラ105及びマイク106で取得された映像及び音声はPC本体101に入力される。PC本体101は入力された映像及び音声を他のユーザ端末(ここではユーザ端末100bとする)へ送信する。換言すれば、カメラ105及びマイク106で取得された映像及び音声は他のユーザ端末と共有される。   The user terminal 100a includes a camera 105, a microphone 106, and a speaker 107 in addition to the configuration described above. The camera 105 has a configuration for acquiring a video of a user who participates in the dialogue. The microphone 106 has a configuration for acquiring audio from a user who participates in the dialogue. The video and audio acquired by the camera 105 and the microphone 106 are input to the PC main body 101. The PC main body 101 transmits the input video and audio to another user terminal (here, the user terminal 100b). In other words, the video and audio acquired by the camera 105 and the microphone 106 are shared with other user terminals.

また、PC本体101は他のユーザ端末100bから受信した映像及び音声をディスプレイ102及びスピーカ107を用いて再生する。このように、ユーザ端末100a,100b間で映像及び音声がライブ中継されるため、ユーザ端末100aのユーザ(これをユーザAとする)とユーザ端末100bのユーザ(これをユーザBとする)とがネットワーク20を介して対話可能となる。尚、ユーザ端末100a,100bは、自己に備えつけられたカメラ105で取得された映像を自己のディスプレイ102に再生してもよい。   Further, the PC main body 101 reproduces the video and audio received from the other user terminal 100 b using the display 102 and the speaker 107. In this way, since video and audio are relayed live between the user terminals 100a and 100b, a user of the user terminal 100a (referred to as user A) and a user of the user terminal 100b (referred to as user B). Dialogue is possible via the network 20. Note that the user terminals 100 a and 100 b may reproduce the video acquired by the camera 105 provided on the user terminal 100 a and 100 b on the display 102 of the user terminal.

ここで、ディスプレイ102に表示される画面の一例を図3に示す。尚、以下の説明では、ユーザAが使用する言語(例えば母国語など、以下これを使用言語という)を日本語とし、ユーザBの使用言語を中国語とし、ユーザA及びユーザBが共通に使用する言語(以下これを共通言語という)を英語とする。また、ユーザ端末100a,100bには日中(中日も含む)及び日英(英日も含む)の電子辞書が組み込まれているものとする。電子辞書とは検索手段として機能するものである。   An example of the screen displayed on the display 102 is shown in FIG. In the following description, the language used by the user A (for example, the native language, hereinafter referred to as the language used) is Japanese, the language used by the user B is Chinese, and the user A and the user B commonly use the language. The language to be used (hereinafter referred to as a common language) is English. In addition, it is assumed that the user terminals 100a and 100b incorporate electronic dictionaries of daytime (including Chinese and Japanese) and Japanese-English (including English and Japanese). The electronic dictionary functions as search means.

図3に示すように、ディスプレイ102には、ユーザ端末100aのカメラ105で取得されたユーザAの映像を表示するためのユーザA映像表示領域21aと、ユーザ端末100bのカメラ105で取得されたユーザBの映像を表示するためのユーザB映像表示領域21bとが表示される。ユーザAは、ユーザB映像表示領域21bに表示された映像及びスピーカ107から出力された音声に基づいてユーザBとの対話を行う。   As shown in FIG. 3, on the display 102, the user A video display area 21a for displaying the video of the user A acquired by the camera 105 of the user terminal 100a and the user acquired by the camera 105 of the user terminal 100b are displayed. A user B video display area 21b for displaying the B video is displayed. User A interacts with user B based on the video displayed in user B video display area 21 b and the audio output from speaker 107.

この他、ユーザ端末100aのディスプレイ102には、各種情報を検索するためにユーザが操作可能なユーザインタフェースとして、ユーザAログ表示領域22aと、ユーザBログ表示領域22bと、共通言語ログ表示領域22cと、ユーザA使用言語入力欄25aと、共通言語入力欄25cとが表示される。   In addition, the display 102 of the user terminal 100a has a user A log display area 22a, a user B log display area 22b, and a common language log display area 22c as user interfaces that can be operated by the user to search for various types of information. Then, the user A language input field 25a and the common language input field 25c are displayed.

ユーザA使用言語入力欄25aは、ユーザAが調べたい語句(以下、検索語という)をユーザAの使用言語(日本語)で入力するための欄である。ユーザAログ表示領域22aは、ユーザAが入力した検索語と、ユーザBが入力した検索語に対する日本語による訳語とが表示される領域である。また、共通言語入力欄25cは、ユーザAが調べたい語句(以下、検索語という)を共通言語(英語)で入力するための欄である。共通言語ログ表示領域22cは、ユーザAが入力した検索語に対する英語による訳語と、ユーザBが入力した検索語に対する英語による訳語とが表示される領域である。また、ユーザBログ表示領域22bは、ユーザBが入力した検索語と、ユーザAが入力した検索語に対する中国語による訳語とが表示される領域である。尚、本説明では、コミュニケーションの進行中にユーザA/Bが入力した検索語と、ユーザA/Bが入力した検索語に対する訳語とをログ(履歴)と呼ぶ。   The user A use language input field 25a is a field for inputting a phrase (hereinafter referred to as a search word) that the user A wants to check in the user A's use language (Japanese). The user A log display area 22a is an area in which a search word input by the user A and a Japanese translation for the search word input by the user B are displayed. The common language input field 25c is a field for inputting a phrase (hereinafter referred to as a search word) that the user A wants to check in a common language (English). The common language log display area 22c is an area in which an English translation for the search word input by the user A and an English translation for the search word input by the user B are displayed. The user B log display area 22b is an area in which a search word input by the user B and a translated word in Chinese for the search word input by the user A are displayed. In this description, a search term input by the user A / B during communication and a translation for the search term input by the user A / B are referred to as a log (history).

上記構成において、ユーザAは、ある日本語の語句に関して英語又は中国語の訳語を調べたい場合、ユーザA使用言語入力欄25aに対象の検索語を入力し、『検索』ボタン24aをクリックする。尚、『検索』ボタン24aは検索の実行指示を入力するためにユーザが操作可能なユーザインタフェースである。   In the above configuration, when the user A wants to look up an English or Chinese translation for a certain Japanese phrase, he / she enters the target search word in the user A language input field 25a and clicks the “search” button 24a. The “search” button 24a is a user interface that can be operated by the user to input a search execution instruction.

『検索』ボタン24aがクリックされると、ユーザA使用言語入力欄25aに入力された検索語は、ユーザAログ表示領域22aに表示される。ユーザAログ表示領域22aはユーザA使用言語入力欄25aに入力された検索語のログを例えばリスト形式で表示する。尚、新たに追加された検索語は例えばリストの最上段又は最下段に表示される。但し、これに限定されず、五十音順やアルファベット順や発音記号順などでリストを表示してもよい。   When the “search” button 24a is clicked, the search term input in the user A use language input field 25a is displayed in the user A log display area 22a. The user A log display area 22a displays the search word log input in the user A language input field 25a in a list format, for example. The newly added search term is displayed at the top or bottom of the list, for example. However, the list is not limited to this, and the list may be displayed in alphabetical order, alphabetical order, or phonetic order.

また、『検索』ボタン24aがクリックされると、入力された検索語に関する英語による訳語が共通言語ログ表示領域22cに表示される。共通言語ログ表示領域22cは訳語のログを例えばリスト形式で表示する。尚、新たに追加された訳語は例えばリストの最上段又は最下段に表示されてもよいが、これに限るものではない。   When the “search” button 24a is clicked, an English translation related to the input search word is displayed in the common language log display area 22c. The common language log display area 22c displays a log of translated words in a list format, for example. The newly added translation may be displayed at the top or bottom of the list, for example, but is not limited thereto.

更に、『検索』ボタン24aがクリックされると、入力された検索語に関する中国語による訳語がユーザBログ表示領域22bに表示される。ユーザBログ表示領域22bは訳語のログを例えばリスト形式で表示する。尚、新たに追加された訳語は例えばリストの最上段又は最下段に表示されてもよいが、これに限るものではない。   Further, when the “search” button 24a is clicked, a translated word in Chinese related to the input search word is displayed in the user B log display area 22b. The user B log display area 22b displays the translated word log in a list format, for example. The newly added translation may be displayed at the top or bottom of the list, for example, but is not limited thereto.

一方、ユーザ端末100bのディスプレイ102には、上記と同様のユーザA映像表示領域21a、ユーザB映像表示領域21b及び各種ユーザインタフェースが表示される。但し、ユーザA使用言語入力欄25a及び『検索』ボタン24aは、ユーザBが検索語をユーザBの使用言語(中国語)で入力するためのユーザB使用言語入力欄及びこれに入力した検索語に基づいた検索を実行指示するための『検索』ボタンに置き換えられる。また、これらの表示位置はユーザBログ表示領域22bの下側である。従って、ユーザ端末100aにおいてユーザBログ表示領域22bの下側に配置された『辞書切替え』ボタン27(これについては後述において説明する)は、ユーザ端末100bにおいてユーザAログ表示領域22aの下側に配置される。   On the other hand, the display 102 of the user terminal 100b displays a user A video display area 21a, a user B video display area 21b, and various user interfaces similar to the above. However, the user A use language input field 25a and the “search” button 24a are a user B use language input field for the user B to input a search word in the user B's use language (Chinese) and a search word input thereto. It is replaced with a “search” button for instructing execution based on the search. These display positions are on the lower side of the user B log display area 22b. Therefore, the “dictionary switching” button 27 (which will be described later) arranged below the user B log display area 22b in the user terminal 100a is displayed below the user A log display area 22a in the user terminal 100b. Be placed.

ユーザBは、ある中国語の語句に関して英語又は日本語の訳語を調べたい場合、ユーザB使用言語入力欄に対象の検索語を入力し、『検索』ボタンをクリックする。『検索』ボタンがクリックされると、ユーザB使用言語入力欄に入力された検索語がユーザBログ表示領域22bに表示される。ユーザBログ表示領域22bは入力された検索語のログを例えばリスト形式で表示する。尚、新たに追加された検索語は例えばリストの最上段又は最下段に表示される。但し、これに限定されず、五十音順やアルファベット順や発音記号順などでリストを表示してもよい。   When user B wants to look up an English or Japanese translation for a certain Chinese phrase, he / she enters the target search word in the user B language input field and clicks the “search” button. When the “Search” button is clicked, the search word input in the user B use language input field is displayed in the user B log display area 22b. The user B log display area 22b displays a log of input search terms in a list format, for example. The newly added search term is displayed at the top or bottom of the list, for example. However, the list is not limited to this, and the list may be displayed in alphabetical order, alphabetical order, or phonetic order.

また、『検索』ボタンがクリックされると、入力された検索語に関する英語による訳語が共通言語ログ表示領域22cに表示される。共通言語ログ表示領域22cは訳語のログを例えばリスト形式で表示する。尚、新たに追加された訳語は例えばリストの最上段又は最下段に表示されてもよいが、これに限るものではない。   When the “search” button is clicked, a translated word in English related to the input search word is displayed in the common language log display area 22c. The common language log display area 22c displays a log of translated words in a list format, for example. The newly added translation may be displayed at the top or bottom of the list, for example, but is not limited thereto.

更に、『検索』ボタンがクリックされると、入力された検索語に関する日本語による訳語がユーザAログ表示領域22aに表示される。ユーザAログ表示領域22aは訳語のログを例えばリスト形式で表示する。尚、新たに追加された訳語は例えばリストの最上段又は最下段に表示されてもよいが、これに限るものではない。   Further, when the “search” button is clicked, a translated word in Japanese relating to the input search word is displayed in the user A log display area 22a. The user A log display area 22a displays a log of translated words in a list format, for example. The newly added translation may be displayed at the top or bottom of the list, for example, but is not limited thereto.

また、ユーザA(Bであってもよい)は、ある英語の語句に関して日本語又は中国語の訳語を調べたい場合、共通言語入力欄25cに対象の検索語を入力し、『検索』ボタン24cをクリックする。尚、『検索』ボタン24cは検索の実行指示を入力するためにユーザが操作可能なユーザインタフェースである。   In addition, when the user A (or B) wants to look up a Japanese or Chinese translation of a certain English word, he / she inputs the target search word in the common language input field 25c and clicks the “search” button 24c. Click. The “search” button 24c is a user interface that can be operated by the user to input a search execution instruction.

『検索』ボタン24cがクリックされると、共通言語入力欄25cに入力された検索語は、共通言語ログ表示領域22cに表示される。共通言語ログ表示領域22cは共通言語入力欄25cに入力された検索語のログを例えばリスト形式で表示する。尚、新たに追加された検索語は例えばリストの最上段又は最下段に表示される。但し、これに限定されず、五十音順やアルファベット順や発音記号順などでリストを表示してもよい。   When the “search” button 24c is clicked, the search word input in the common language input field 25c is displayed in the common language log display area 22c. The common language log display area 22c displays the search word log input in the common language input field 25c in a list format, for example. The newly added search term is displayed at the top or bottom of the list, for example. However, the list is not limited to this, and the list may be displayed in alphabetical order, alphabetical order, or phonetic order.

また、『検索』ボタン24cがクリックされると、入力された検索語に関する日本語による訳語がユーザAログ表示領域22aに表示される。ユーザAログ表示領域22aは訳語のログを例えばリスト形式で表示する。尚、新たに追加された訳語は例えばリストの最上段又は最下段に表示されてもよいが、これに限るものではない。   When the “search” button 24c is clicked, a translated word in Japanese related to the input search word is displayed in the user A log display area 22a. The user A log display area 22a displays a log of translated words in a list format, for example. The newly added translation may be displayed at the top or bottom of the list, for example, but is not limited thereto.

更に、『検索』ボタン24cがクリックされると、入力された検索語に関する中国語による訳語がユーザBログ表示領域22bに表示される。ユーザBログ表示領域22bは訳語のログを例えばリスト形式で表示する。尚、新たに追加された訳語は例えばリストの最上段又は最下段に表示されてもよいが、これに限るものではない。   Further, when the “search” button 24c is clicked, a translated word in Chinese related to the input search word is displayed in the user B log display area 22b. The user B log display area 22b displays the translated word log in a list format, for example. The newly added translation may be displayed at the top or bottom of the list, for example, but is not limited thereto.

尚、上述の検索語と訳語とのログは、ユーザAログ表示領域22a,ユーザBログ表示領域22b及び共通言語ログ表示領域22cにおいて同じリスト上に表示される。   The log of the search word and the translated word is displayed on the same list in the user A log display area 22a, the user B log display area 22b, and the common language log display area 22c.

また、上記したユーザインタフェースのうち、少なくともユーザAログ表示領域22a,ユーザBログ表示領域22b及び共通言語ログ表示領域22cの表示内容は、全てのユーザ端末100a,100bにおいて同一な内容となる。換言すれば、各ユーザ端末は他のユーザ端末と共用のユーザインタフェースを有する。これにより、一方のユーザAにとってどの語彙が不明確であったかを他方のユーザBは知ることができ、更にユーザBは自分にとってどの語彙が不明確であるかをユーザAに知らせることができる。すなわち、円滑なコミュニケーションを阻害する要因を相手方と共有することができる。これにより、この要因を抽出し且つ解決することが可能となり、円滑なコミュニケーションの進行が可能となる。   Of the user interfaces described above, the display contents of at least the user A log display area 22a, the user B log display area 22b, and the common language log display area 22c are the same in all the user terminals 100a and 100b. In other words, each user terminal has a user interface shared with other user terminals. Thereby, the other user B can know which vocabulary is unclear for one user A, and the user B can inform the user A which vocabulary is unclear for himself. That is, a factor that hinders smooth communication can be shared with the other party. As a result, this factor can be extracted and solved, and smooth communication can proceed.

また、ディスプレイ102に表示されたユーザインタフェースの他の構成を以下に説明する。上記したユーザAログ表示領域22a、ユーザBログ表示領域22b及び共通言語ログ表示領域22cに表示されるリストは横の対応を持つ。すなわち、検索語に対応する訳語が当該検索語の横に表示される。これにより、ユーザA及びBは検索語と訳語との対応を容易に認識することが可能となる。但し、1つの検索語に対して複数の訳語が対応する場合が存在する。このような場合には、リストの各列を選択可能とし、選択された検索語又は訳語に対応する訳語又は検索語のみが他の表示領域にリストアップされるように構成してもよい。   Another configuration of the user interface displayed on the display 102 will be described below. The lists displayed in the user A log display area 22a, the user B log display area 22b, and the common language log display area 22c have a horizontal correspondence. That is, the translated word corresponding to the search word is displayed next to the search word. Thereby, the users A and B can easily recognize the correspondence between the search word and the translated word. However, there are cases where a plurality of translated words correspond to one search word. In such a case, each column of the list may be selectable, and only the translation or search word corresponding to the selected search word or translation may be listed in another display area.

また、ディスプレイ102に表示されるユーザインタフェースには、ユーザAログ表示領域22a、ユーザBログ表示領域22b及び共通言語ログ表示領域22cに表示されたリストをスクロールするためのスクロールバー23a,23b及び23cと、スクロールボタン26a及び26cとが含まれる。ユーザは表示領域外のログを参照したい場合、これらのバー及びボタンをマウス104やキーボード103を用いて操作することで、リストの表示領域を移動する。   The user interface displayed on the display 102 includes scroll bars 23a, 23b, and 23c for scrolling the lists displayed in the user A log display area 22a, the user B log display area 22b, and the common language log display area 22c. And scroll buttons 26a and 26c. When the user wants to refer to a log outside the display area, the user operates these bars and buttons using the mouse 104 or the keyboard 103 to move the list display area.

更に、ディスプレイ102には『辞書切替え』ボタン27も表示される。『辞書切替え』ボタン27は電子辞書を切り替えるためにユーザが操作可能なユーザインタフェースである。上記では、検索手段を日中(中日も含む)及び日英(英日も含む)の電子辞書としたが、本発明ではこれに限らず、例えば他言語の電子辞書や専門用語の電子辞書などを適用することができる。そこで、上記のような検索手段を切り替える機能を設けることで、様々な状況に対応することが可能な対話支援システム1が実現できる。   Further, a “dictionary switching” button 27 is also displayed on the display 102. The “dictionary switching” button 27 is a user interface that can be operated by the user to switch the electronic dictionary. In the above description, the search means is an electronic dictionary of daytime (including Chinese and Japanese) and Japanese-English (including English and Japanese). However, the present invention is not limited to this. For example, an electronic dictionary of another language or an electronic dictionary of technical terms Etc. can be applied. Therefore, by providing a function for switching the search means as described above, the dialogue support system 1 that can cope with various situations can be realized.

次に、ユーザ端末100a,100bの機能ブロックを図4と共に説明する。尚、ユーザ端末100a,100bの機能ブロックは同様の構成であるため、以下の説明ではこれらをユーザ端末100として説明する。   Next, functional blocks of the user terminals 100a and 100b will be described with reference to FIG. Since the functional blocks of the user terminals 100a and 100b have the same configuration, they will be described as the user terminal 100 in the following description.

図4に示すように、ユーザ端末100は、映像/音声取得手段11と入力手段12と検索手段13と蓄積手段14とインタフェース作成手段15と送信手段16と受信手段17と表示手段18とを有する。   As shown in FIG. 4, the user terminal 100 includes a video / audio acquisition unit 11, an input unit 12, a search unit 13, a storage unit 14, an interface creation unit 15, a transmission unit 16, a reception unit 17, and a display unit 18. .

映像/音声取得手段11はカメラ105やマイク106を含んで実現される機能であり、ユーザA(B)の映像及び音声を取得する。映像/音声取得手段11は取得した映像を表示手段18に入力すると共に、取得した映像及び音声を送信手段16に入力する。   The video / audio acquisition unit 11 is a function realized by including the camera 105 and the microphone 106, and acquires the video and audio of the user A (B). The video / audio acquisition unit 11 inputs the acquired video to the display unit 18 and inputs the acquired video and audio to the transmission unit 16.

入力手段12はキーボード103やマウス104を含んで実現される機能であり、図3に示すユーザインタフェースに対する各種操作を入力する。入力手段12は、ユーザA(B)使用言語入力欄25aに入力された検索語を検索手段13とインタフェース作成手段15と送信手段16とにそれぞれ入力する。また、入力手段12は入力された他の操作の情報をインタフェース作成手段15に入力する。尚、他の操作とは、例えばリストのスクロールなどである。   The input unit 12 is a function realized by including the keyboard 103 and the mouse 104, and inputs various operations on the user interface shown in FIG. The input unit 12 inputs the search term input in the user A (B) language input field 25a to the search unit 13, the interface creation unit 15, and the transmission unit 16, respectively. Further, the input unit 12 inputs information of other input operations to the interface creation unit 15. The other operation is, for example, scrolling of a list.

検索手段13はPC本体101のCPUなどで実現される機能であり、入力された検索語に基づいて蓄積手段14に蓄積されたコンテンツを検索する。蓄積手段14はPC本体101のハードディスクドライブなどを含んで実現される機能であり、電子辞書などのようなコンテンツとなるデータを蓄積する。上述した電子辞書は検索手段13と蓄積手段14とを含んで実現される機能である。また、検索手段13は検索結果として得られた訳語をインタフェース作成手段15に入力すると共に送信手段16に入力する。   The search means 13 is a function realized by the CPU of the PC main body 101 and searches for the content stored in the storage means 14 based on the input search word. The storage unit 14 is a function realized by including the hard disk drive of the PC main body 101, and stores data serving as contents such as an electronic dictionary. The electronic dictionary described above is a function realized by including the search means 13 and the storage means 14. The search means 13 inputs the translation obtained as a search result to the interface creation means 15 and also to the transmission means 16.

送信手段16はPC本体101のネットワークアダプタなどを含んで実現される機能であり、ネットワーク20を介して他のユーザ端末100へ各種データを送信する。尚、各種データは、映像/音声取得手段11から入力された映像及び音声や、入力手段12から入力された検索語並びに他の操作情報や、検索手段13から入力された訳語などを含む。   The transmission means 16 is a function realized by including the network adapter of the PC main body 101 and transmits various data to other user terminals 100 via the network 20. The various data includes video and audio input from the video / audio acquisition unit 11, a search word input from the input unit 12, other operation information, a translation input from the search unit 13, and the like.

受信手段17はPC本体101のネットワークアダプタなどを含んで実現される機能であり、他のユーザ端末100から送信された各種データ(映像及び音声、検索語及び訳語を含む)をネットワーク20を介して受信する。受信手段17は、受信した映像及び音声を表示手段18に入力する。また、送信手段17は受信した検索語及び訳語並びに他の操作情報をインタフェース作成手段15に入力する。   The receiving means 17 is a function realized by including the network adapter of the PC main body 101 and the like, and receives various data (including video and audio, search words and translated words) transmitted from other user terminals 100 via the network 20. Receive. The receiving unit 17 inputs the received video and audio to the display unit 18. In addition, the transmission unit 17 inputs the received search word, translation, and other operation information to the interface creation unit 15.

インタフェース作成手段15はPC本体101のCPUなどで実現される機能であり、入力された検索語や訳語や他の操作情報などに基づいて図3に示すユーザインタフェースを作成、更新する。インタフェース作成手段15は作成、更新したユーザインタフェースを表示手段18に入力する。   The interface creation unit 15 is a function realized by the CPU of the PC main body 101, and creates and updates the user interface shown in FIG. 3 based on the input search word, translated word, and other operation information. The interface creation unit 15 inputs the created and updated user interface to the display unit 18.

表示手段18はディスプレイ102及びスピーカ107を含んで実現される機能である。表示手段18は映像/音声取得手段11で取得した映像をユーザA映像表示領域21a(図3参照)に表示する。また、表示手段18は受信手段17で受信した映像をユーザB映像表示領域21b(図3参照)に表示すると共に、受信手段17で受信した音声をスピーカ107から音声出力する。更に、表示手段18はインタフェース作成手段15で作成、更新された各種ユーザインタフェースを図3に示すように表示する。   The display means 18 is a function realized by including the display 102 and the speaker 107. The display unit 18 displays the video acquired by the video / audio acquisition unit 11 in the user A video display area 21a (see FIG. 3). The display unit 18 displays the video received by the receiving unit 17 in the user B video display area 21b (see FIG. 3), and outputs the audio received by the receiving unit 17 from the speaker 107 as audio. Further, the display means 18 displays various user interfaces created and updated by the interface creation means 15 as shown in FIG.

以上で説明した各手段は、上記した構成の他に、PC本体101で実行された所定のプログラムにより実現される。このプログラムは例えばPC本体101のハードディスクなどに記録されており、必要に応じて読み出されて実行される。   Each means described above is realized by a predetermined program executed in the PC main body 101 in addition to the above-described configuration. This program is recorded on the hard disk of the PC main body 101, for example, and is read and executed as necessary.

次に、ユーザ端末100の動作について図面と共に説明する。図5から図9はユーザ端末100の動作を示すフローチャートである。   Next, the operation of the user terminal 100 will be described with reference to the drawings. 5 to 9 are flowcharts showing the operation of the user terminal 100.

先ず、図5に示すように、ユーザ端末100は上記所定のプログラムが起動されると、ピア・ツー・ピアのピアとしてネットワーク20上に存在する他のユーザ端末100を検索する(ステップS101)。他のユーザ端末100が存在する場合(ステップS102のYes)、ユーザ端末100は当該他のユーザ端末100のネットワーク20上のアドレスを取得する(ステップS103)。このアドレスは例えばIP(Internet Protocol)アドレスなどである。次に、ユーザ端末100は所定のイベントを発生させる(ステップS104)。その後、ユーザ端末100はステップS101へ帰還し、新たに別のユーザ端末100を検索する。   First, as shown in FIG. 5, when the predetermined program is started, the user terminal 100 searches for another user terminal 100 existing on the network 20 as a peer-to-peer peer (step S101). When another user terminal 100 exists (Yes in step S102), the user terminal 100 acquires an address on the network 20 of the other user terminal 100 (step S103). This address is, for example, an IP (Internet Protocol) address. Next, the user terminal 100 generates a predetermined event (step S104). Thereafter, the user terminal 100 returns to step S101 and searches for another user terminal 100 anew.

上記したイベントの発生は、例えばイベントリスナなどの常駐プロセスにより監視される。イベントの発生を検出すると、ユーザ端末100は図6から図9に示す動作をそれぞれ実行する。尚、これらの動作もPC本体101で実行された所定のプログラムにより実現されるものである。   The occurrence of the event is monitored by a resident process such as an event listener. When the occurrence of an event is detected, the user terminal 100 executes the operations shown in FIGS. These operations are also realized by a predetermined program executed by the PC main body 101.

先ず、図6に示す動作を説明する。上記のようにイベントが発生すると、ユーザ端末100はカメラ105及びマイク106を用いてユーザAの映像及び音声を取得する(ステップS111)。次に、ユーザA映像表示領域21a(図3参照)を作成し(ステップS112)、これに取得したユーザAの映像を表示する(ステップS113)。また、ユーザ端末100はステップS111で取得した映像及び音声を他のユーザ端末100へ送信する(ステップS114)。これは上記で取得したアドレスに基づいて行われる。   First, the operation shown in FIG. 6 will be described. When an event occurs as described above, the user terminal 100 acquires the video and audio of the user A using the camera 105 and the microphone 106 (step S111). Next, the user A video display area 21a (see FIG. 3) is created (step S112), and the acquired video of the user A is displayed (step S113). Further, the user terminal 100 transmits the video and audio acquired in step S111 to another user terminal 100 (step S114). This is done based on the address obtained above.

次に、図7に示す動作を説明する。上記のようにイベントが発生すると、ユーザ端末100は他のユーザ端末100から送信されたユーザBの映像及び音声を受信する(ステップS121)。次に、ユーザB映像表示領域21b(図3参照)を作成し(ステップS122)、これに受信したユーザBの映像を表示する(ステップS123)。また、ユーザ端末100はステップS121で受信した音声をスピーカ107から出力する(ステップS124)。   Next, the operation shown in FIG. 7 will be described. When the event occurs as described above, the user terminal 100 receives the video and audio of the user B transmitted from the other user terminal 100 (step S121). Next, the user B video display area 21b (see FIG. 3) is created (step S122), and the received video of the user B is displayed thereon (step S123). Further, the user terminal 100 outputs the sound received in step S121 from the speaker 107 (step S124).

尚、図6及び図7に示す動作は、上記した所定のプログラムの終了命令が入力されるまで繰り返し実行される。これにより、ユーザ端末100間で映像及び音声がライブ中継される。   The operations shown in FIGS. 6 and 7 are repeatedly executed until the above-described predetermined program end command is input. Thereby, video and audio are relayed live between the user terminals 100.

次に、図8に示す動作を説明する。上記のようにイベントが発生すると、ユーザ端末100は図3を用いて説明した各ユーザインタフェースを作成し(ステップS131)、これをディスプレイ102上に表示する(ステップS132)。次に、ユーザ端末100は、キーボード103又はマウス104を用いた操作入力があるか否かを監視する(ステップS133)。ユーザからの操作入力があると(ステップS133のYes)、ユーザ端末100は、入力された操作が検索語であるか否かを判断する(ステップS134)。ステップS134の判断の結果、検索語である場合(ステップS134のYes)、ユーザ端末100はこの検索語に基づいた検索を実行する(ステップS135)。次に、ユーザ端末100は検索により得られた訳語と検索語とに基づいて上記したユーザインタフェース、特にユーザAログ表示領域22a,ユーザBログ表示領域22b及び共通言語ログ表示領域22cを更新する(ステップS136)。また、ユーザ端末100は、入力された検索語と得られた訳語とを他のユーザ端末100へ送信する。(ステップS137)。これは上記で取得したアドレスに基づいて行われる。その後、ステップS133に帰還し、次の操作を待機する。一方、ユーザからの操作入力が検索語でない場合(ステップS134のNo)、ユーザ端末100は入力された他の操作に基づいて上記したユーザインタフェースを更新し(ステップS138)、また、この他の操作の情報を他のユーザ端末100へ送信する(ステップS139)。その後、ステップS133に帰還し、次の操作を待機する。   Next, the operation shown in FIG. 8 will be described. When an event occurs as described above, the user terminal 100 creates each user interface described with reference to FIG. 3 (step S131) and displays it on the display 102 (step S132). Next, the user terminal 100 monitors whether there is an operation input using the keyboard 103 or the mouse 104 (step S133). When there is an operation input from the user (Yes in step S133), the user terminal 100 determines whether or not the input operation is a search word (step S134). If the result of the determination in step S134 is a search word (Yes in step S134), the user terminal 100 executes a search based on this search word (step S135). Next, the user terminal 100 updates the above-described user interface, in particular, the user A log display area 22a, the user B log display area 22b, and the common language log display area 22c based on the translated word obtained by the search and the search word ( Step S136). In addition, the user terminal 100 transmits the input search word and the obtained translated word to another user terminal 100. (Step S137). This is done based on the address obtained above. Then, it returns to step S133 and waits for the next operation. On the other hand, when the operation input from the user is not a search word (No in step S134), the user terminal 100 updates the above-described user interface based on the other input operation (step S138). Is transmitted to the other user terminal 100 (step S139). Then, it returns to step S133 and waits for the next operation.

次に、図9に示す動作を説明する。上記のようにイベントが発生すると、ユーザ端末100は他のユーザ端末100から検索語及び訳語、又は他の操作情報を受信したか否かを監視する(ステップS141)。検索語及び訳語、又は他の操作情報を受信すると(ステップS141のYes)、ユーザ端末100は、受信した情報が検索語及び訳語であるか否かを判断する(ステップS142)。ステップS142の判断の結果、検索語及び訳語である場合(ステップS142のYes)、ユーザ端末100は受信した検索語及び訳語に基づいて上記したユーザインタフェース、特にユーザAログ表示領域22a,ユーザBログ表示領域22b及び共通言語ログ表示領域22cを更新する(ステップS143)。その後、ステップS141に帰還し、次の受信を待機する。一方、受信した情報が検索語及び訳語でない場合(ステップS142のNo)、ユーザ端末100は受信した他の操作情報に基づいて上記したユーザインタフェースを更新し(ステップS144)、その後、ステップS141に帰還し、次の受信を待機する。   Next, the operation shown in FIG. 9 will be described. When an event occurs as described above, the user terminal 100 monitors whether or not a search word and a translation word or other operation information has been received from another user terminal 100 (step S141). When receiving the search word and the translation word or other operation information (Yes in step S141), the user terminal 100 determines whether or not the received information is the search word and the translation word (step S142). As a result of the determination in step S142, if it is a search word and a translated word (Yes in step S142), the user terminal 100 performs the above-described user interface based on the received search word and translated word, particularly the user A log display area 22a, the user B log. The display area 22b and the common language log display area 22c are updated (step S143). Then, it returns to step S141 and waits for the next reception. On the other hand, when the received information is not the search word and the translated word (No in step S142), the user terminal 100 updates the above-described user interface based on the other received operation information (step S144), and then returns to step S141. And wait for the next reception.

尚、図8及び図9に示す動作は、上記した所定のプログラムの終了命令が入力されるまで繰り返し実行される。これにより、ユーザ端末100間で共用できるユーザインタフェースが実現される。   The operations shown in FIGS. 8 and 9 are repeatedly executed until the above-described predetermined program end command is input. Thereby, a user interface that can be shared among the user terminals 100 is realized.

以上のように構成及び動作することで、本実施例によれば、複数のユーザ端末間でユーザの映像及び音声をライブ中継することができる。また、本実施例によれば、ユーザは相手にとってどの語彙が不明確であったかを知ることができ、更に自分にとってどの語彙が不明確であるかを知らせることができる。すなわち、円滑なコミュニケーションを阻害する要因を相手方と共有することができる。これにより、この要因を抽出し且つ解決することが可能となり、円滑なコミュニケーションの進行が可能となる。   With the configuration and operation as described above, according to the present embodiment, the user's video and audio can be relayed live between a plurality of user terminals. In addition, according to the present embodiment, the user can know which vocabulary was unclear for the other party, and can further notify which vocabulary is unclear for himself. That is, a factor that hinders smooth communication can be shared with the other party. As a result, this factor can be extracted and solved, and smooth communication can proceed.

尚、本実施例では検索機能として電子辞書を例に挙げて説明したが、本発明はこれに限定されず、情報(コンテンツともいう)の検索が可能な種々の情報源を適用することができる。また、本発明では、検索を目的としたユーザインタフェースを例に挙げたが、本発明はこれに限定されず、例えば文章を入力するためのユーザインタフェースやイメージを描画するためのユーザインタフェースなど、種々のユーザインタフェースを適用することができる。すなわち、ユーザが操作可能なユーザインタフェースをネットワーク上の他のユーザ端末と共有することで、本発明が目的とする、コミュニケーションの進行を阻害する要因をユーザ間で共有することが可能となる。   In the present embodiment, the electronic dictionary has been described as an example of the search function. However, the present invention is not limited to this, and various information sources capable of searching for information (also referred to as content) can be applied. . Further, in the present invention, the user interface for the purpose of search is given as an example, but the present invention is not limited to this. For example, there are various user interfaces such as a user interface for inputting a sentence and a user interface for drawing an image. The user interface can be applied. That is, by sharing the user interface that can be operated by the user with other user terminals on the network, it is possible to share the factors that hinder the progress of communication, which is the purpose of the present invention, between users.

次に、本発明の実施例2について図面を用いて詳細に説明する。尚、以下の説明において、実施例1と同様の構成については、同一の符号を付し、その詳細な説明を省略する。また、特記しない構成に関しては実施例1と同様である。   Next, a second embodiment of the present invention will be described in detail with reference to the drawings. In the following description, the same components as those in the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted. Further, the configuration not specifically mentioned is the same as that of the first embodiment.

図10は本実施例による対話支援システム1Aの概略構成を示す図である。図10に示すように、対話支援システム1Aは、ネットワーク20を介して接続されたユーザ端末100a,100bとサーバ200とを有する。ネットワーク20は実施例1と同様である。ユーザ端末100a,100bは実施例1と同様の構成において、実現される機能ブロックに一部の変更を有する。   FIG. 10 is a diagram showing a schematic configuration of a dialogue support system 1A according to the present embodiment. As illustrated in FIG. 10, the dialogue support system 1 </ b> A includes user terminals 100 a and 100 b and a server 200 connected via a network 20. The network 20 is the same as that in the first embodiment. The user terminals 100a and 100b have the same configuration as in the first embodiment, but have some changes in the functional blocks to be realized.

サーバ200は、CPU(Central Processing Unit)やROM(Read Only Memory)やRAM(Random Access Memory)やハードディスクドライブなどを搭載した情報処理装置であり、一般的なサーバを適用することができる。   The server 200 is an information processing apparatus equipped with a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a hard disk drive, and the like, and a general server can be applied.

次に、本実施例によるユーザ端末100a,100bの機能ブロックと、サーバ200の機能ブロックとを図面と共に説明する。尚、ユーザ端末100a,100bの機能ブロックは同様の構成であるため、以下の説明ではこれらをユーザ端末100Aとして説明する。   Next, functional blocks of the user terminals 100a and 100b and functional blocks of the server 200 according to the present embodiment will be described with reference to the drawings. In addition, since the functional blocks of the user terminals 100a and 100b have the same configuration, these will be described as the user terminal 100A in the following description.

図11はユーザ端末100Aの機能ブロックを示す図である。図11に示すように、ユーザ端末100Aは実施例1によるユーザ端末100の機能ブロックと同様の構成において、検索手段13及び蓄積手段14が要求手段13aに置き換えられている。   FIG. 11 is a diagram showing functional blocks of the user terminal 100A. As shown in FIG. 11, the user terminal 100A has the same configuration as the functional block of the user terminal 100 according to the first embodiment, and the search means 13 and the storage means 14 are replaced with request means 13a.

要求手段13aはPC本体101のCPUやネットワークアダプタなどを含んで実現される機能であり、ネットワーク20を介して接続されたサーバ200へ検索を要求し、その結果を受信する。要求手段13aは検索結果として受信した訳語をインタフェース作成手段15に入力すると共に送信手段16に入力する。   The requesting unit 13a is a function realized by including the CPU and network adapter of the PC main body 101, requests the server 200 connected via the network 20, and receives the result. The request unit 13 a inputs the translation received as the search result to the interface creation unit 15 and also to the transmission unit 16.

また、図12はサーバ200の機能ブロックを示す図である。図12に示すように、サーバ200は検索手段13と蓄積手段14とを有する。これらは実施例1(特に図4参照)で示した検索手段13及び蓄積手段14同様である。すなわち、本実施例では電子辞書などの情報源がネットワーク20を介して接続された他の情報処理装置(サーバ200)に設けられており、ユーザ端末100Aがこれに対して検索を要求するように構成されている。   FIG. 12 is a diagram illustrating functional blocks of the server 200. As illustrated in FIG. 12, the server 200 includes a search unit 13 and a storage unit 14. These are the same as the search means 13 and the storage means 14 shown in the first embodiment (see particularly FIG. 4). That is, in this embodiment, an information source such as an electronic dictionary is provided in another information processing apparatus (server 200) connected via the network 20, and the user terminal 100A requests a search for this. It is configured.

次に、ユーザ端末100Aの動作について図面と共に説明する。ユーザ端末100Aの動作は実施例1によるユーザ端末100の動作と同様であるが、図8に示す動作が変更される。以下、図8の動作と置き換えられる動作を図13と共に説明する。   Next, the operation of the user terminal 100A will be described with reference to the drawings. The operation of the user terminal 100A is the same as that of the user terminal 100 according to the first embodiment, but the operation shown in FIG. 8 is changed. Hereinafter, an operation that replaces the operation of FIG. 8 will be described with reference to FIG.

図13に示すように、イベントが発生すると(図5のステップS104参照)、ユーザ端末100は図3を用いて説明した各ユーザインタフェースを作成し(ステップS231)、これをディスプレイ102上に表示する(ステップS232)。次に、ユーザ端末100Aは、キーボード103又はマウス104を用いた操作入力があるか否かを監視する(ステップS233)。ユーザからの操作入力があると(ステップS233のYes)、ユーザ端末100Aは、入力された操作が検索語であるか否かを判断する(ステップS234)。ステップS234の判断の結果、検索語である場合(ステップS234のYes)、ユーザ端末100Aはこの検索語に基づいた検索をサーバ200に要求し(ステップS235)、これに対して応答された検索結果の受信を待機する(ステップS236)。次に、ユーザ端末100Aはサーバ200から受信した検索結果に含まれる訳語と検索語とに基づいて上記したユーザインタフェース、特にユーザAログ表示領域22a,ユーザBログ表示領域22b及び共通言語ログ表示領域22cを更新する(ステップS237)。また、ユーザ端末100Aは、入力された検索語と受信した訳語とを他のユーザ端末100Aへ送信する。(ステップS238)。これは図5のステップS103で取得したアドレスに基づいて行われる。その後、ステップS233に帰還し、次の操作を待機する。一方、ユーザからの操作入力が検索語でない場合(ステップS234のNo)、ユーザ端末100Aは入力された他の操作に基づいて上記したユーザインタフェースを更新し(ステップS239)、また、この他の操作の内容を他のユーザ端末100Aへ送信する(ステップS240)。その後、ステップS233に帰還し、次の操作を待機する。   As shown in FIG. 13, when an event occurs (see step S104 in FIG. 5), the user terminal 100 creates each user interface described with reference to FIG. 3 (step S231) and displays it on the display 102. (Step S232). Next, the user terminal 100A monitors whether or not there is an operation input using the keyboard 103 or the mouse 104 (step S233). When there is an operation input from the user (Yes in step S233), the user terminal 100A determines whether or not the input operation is a search word (step S234). If the result of the determination in step S234 is a search word (Yes in step S234), the user terminal 100A requests the server 200 to search based on this search word (step S235), and the search result responded to this Is waited for (step S236). Next, the user terminal 100A performs the above-described user interface, particularly the user A log display area 22a, the user B log display area 22b, and the common language log display area based on the translation word and the search word included in the search result received from the server 200. 22c is updated (step S237). In addition, the user terminal 100A transmits the input search word and the received translated word to the other user terminal 100A. (Step S238). This is performed based on the address acquired in step S103 of FIG. Thereafter, the process returns to step S233 and waits for the next operation. On the other hand, when the operation input from the user is not a search word (No in step S234), the user terminal 100A updates the above-described user interface based on the other input operation (step S239). Is transmitted to the other user terminal 100A (step S240). Thereafter, the process returns to step S233 and waits for the next operation.

尚、図13に示す動作も、上記した所定のプログラムの終了命令が入力されるまで繰り返し実行される。これにより、ユーザ端末100A間で共用できるユーザインタフェースが実現される。   The operation shown in FIG. 13 is also repeatedly executed until the above-described predetermined program end command is input. Thereby, a user interface that can be shared between the user terminals 100A is realized.

以上のように構成及び動作することで、本実施例によれば、実施例1と同様に、複数のユーザ端末間でユーザの映像及び音声をライブ中継することができる。また、本実施例によれば、実施例1と同様に、ユーザは相手にとってどの語彙が不明確であったかを知ることができ、更に自分にとってどの語彙が不明確であるかを知らせることができる。すなわち、円滑なコミュニケーションを阻害する要因を相手方と共有することができる。これにより、この要因を抽出し且つ解決することが可能となり、円滑なコミュニケーションの進行が可能となる。   With the configuration and operation as described above, according to the present embodiment, the user's video and audio can be relayed live between a plurality of user terminals as in the first embodiment. Further, according to the present embodiment, as in the first embodiment, the user can know which vocabulary was ambiguous for the other party, and can further inform which vocabulary is ambiguous for himself. That is, a factor that hinders smooth communication can be shared with the other party. As a result, this factor can be extracted and solved, and smooth communication can proceed.

尚、本実施例では電子辞書を例に挙げて説明したが、本発明はこれに限定されず、検索機能を備えた種々の情報源を提供することができる。   In the present embodiment, the electronic dictionary has been described as an example. However, the present invention is not limited to this, and various information sources having a search function can be provided.

次に、本発明の実施例3について図面を用いて詳細に説明する。尚、以下の説明において、実施例1又は実施例2と同様の構成については、同一の符号を付し、その詳細な説明を省略する。また、特記しない構成に関しては実施例1又は実施例2と同様である。   Next, Example 3 of the present invention will be described in detail with reference to the drawings. In the following description, the same components as those in the first embodiment or the second embodiment are denoted by the same reference numerals, and detailed description thereof is omitted. Further, the configuration not specifically mentioned is the same as that of the first embodiment or the second embodiment.

図14は本実施例による対話支援システム1Bの概略構成を示す図である。図14に示すように、対話支援システム1Bは、ネットワーク20を介して接続されたユーザ端末100a,100bと、これらとインターネット30を介して接続された検索エンジン310及び情報サイト320とを有する。ネットワーク20は実施例1と同様である。ユーザ端末100a,100bは実施例1と同様の構成において、実現される機能ブロックに一部の変更を有する。また、インターネット30はネットワーク20に含めてもよい。   FIG. 14 is a diagram showing a schematic configuration of a dialogue support system 1B according to the present embodiment. As illustrated in FIG. 14, the dialogue support system 1 </ b> B includes user terminals 100 a and 100 b connected via a network 20, and a search engine 310 and an information site 320 connected thereto via the Internet 30. The network 20 is the same as that in the first embodiment. The user terminals 100a and 100b have the same configuration as in the first embodiment, but have some changes in the functional blocks to be realized. Further, the Internet 30 may be included in the network 20.

検索エンジン310は、インターネット30上に存在する検索手段であり、ユーザ端末100a,100bから入力された検索条件に基づき、これに該当する情報サイト320のインターネット30上から検索する。情報サイト320は、各種情報を蓄積した蓄積手段であり、時事ニュースや専門技術解説やその他種々の情報を蓄積している。   The search engine 310 is a search unit that exists on the Internet 30 and searches the Internet 30 of the corresponding information site 320 based on the search conditions input from the user terminals 100a and 100b. The information site 320 is a storage means that stores various information, and stores current news, technical explanations, and other various information.

このように本発明は、インターネット上に存在するサイトを情報源とし、これの検索を同じくインターネット上に存在するエンジンで行うように構成することもできる。尚、他の構成は実施例1及び実施例2と同様であるため、ここでは説明を省略する。また、各ユーザ端末100a,100bの機能ブロックは実施例2と同様であるため、ここでは説明を省略する。   As described above, the present invention can be configured such that a site existing on the Internet is used as an information source, and the search is performed by an engine that is also present on the Internet. Since other configurations are the same as those in the first and second embodiments, description thereof is omitted here. In addition, the functional blocks of the user terminals 100a and 100b are the same as those in the second embodiment, and a description thereof will be omitted here.

次に、本発明の実施例4について図面を用いて詳細に説明する。尚、以下の説明において、実施例1から実施例3と同様の構成については、同一の符号を付し、その詳細な説明を省略する。また、特記しない構成に関しては実施例1から実施例3の何れかと同様である。但し、以下の説明では、実施例1を引用して説明するが、本実施例は実施例1に限らず、他の実施例に対しても同様に適用することができる。   Next, a fourth embodiment of the present invention will be described in detail with reference to the drawings. In the following description, the same components as those in the first to third embodiments are denoted by the same reference numerals, and detailed description thereof is omitted. Further, the configuration not specifically mentioned is the same as that in any one of the first to third embodiments. However, in the following description, the description will be made with reference to the first embodiment. However, the present embodiment is not limited to the first embodiment, and can be similarly applied to other embodiments.

本実施例による対話支援システムの構成は、実施例1による対話支援システム1(図2参照)と同様である。また、各ユーザ端末100a,100bの構成を実施例1と同様である。但し、ユーザ端末100a,100bの機能ブロックは、実施例1と同様の構成において、実現される機能ブロックに一部の変更を有する。   The configuration of the dialogue support system according to the present embodiment is the same as that of the dialogue support system 1 (see FIG. 2) according to the first embodiment. The configuration of each user terminal 100a, 100b is the same as that of the first embodiment. However, the functional blocks of the user terminals 100a and 100b have some changes to the functional blocks realized in the same configuration as in the first embodiment.

ここで、本実施例によるユーザ端末100a,100bの機能ブロックを図面と共に説明する。尚、ユーザ端末100a,100bの機能ブロックは同様の構成であるため、以下の説明ではこれらをユーザ端末100Cとして説明する。   Here, functional blocks of the user terminals 100a and 100b according to the present embodiment will be described with reference to the drawings. In addition, since the functional blocks of the user terminals 100a and 100b have the same configuration, these will be described as the user terminal 100C in the following description.

図15はユーザ端末100Cの機能ブロックを示す図である。図15に示すように、ユーザ端末100Cは実施例1によるユーザ端末100の機能ブロックと同様の構成において、検索結果を履歴として蓄積するための履歴蓄積手段14cが追加されている。   FIG. 15 is a diagram showing functional blocks of the user terminal 100C. As illustrated in FIG. 15, the user terminal 100 </ b> C has the same configuration as the functional block of the user terminal 100 according to the first embodiment, and a history storage unit 14 c for storing search results as a history is added.

履歴蓄積手段14cはPC本体101のハードディスクドライブ又はRAMなどを含んで実現される機能であり、検索結果13に入力された検索語及びこの検索語に対して得られた検索結果を蓄積する。検索手段13は入力手段12から検索語が入力されると、実施例1と同様に、これに基づいて蓄積手段14に蓄積されたコンテンツを検索する。次に検索手段13は、得られた訳語を検索語と共に履歴蓄積手段14cに保存する。これにより、ユーザA(B)の検索履歴が蓄積される。   The history storage unit 14c is a function realized by including the hard disk drive or RAM of the PC main body 101, and stores the search word input to the search result 13 and the search result obtained for this search word. When a search word is input from the input unit 12, the search unit 13 searches the content stored in the storage unit 14 based on this, as in the first embodiment. Next, the search means 13 stores the obtained translated word together with the search word in the history storage means 14c. Thereby, the search history of the user A (B) is accumulated.

尚、履歴蓄積手段14cに蓄積された履歴は、種々活用することができる。例えば、インタフェース作成手段15が履歴蓄積手段14cに履歴として蓄積された検索語及び訳語を、表示しない、優先して表示する、若しくは非優先して表示するように構成することができる。但し、これに限らず、種々の活用方法がある。   The history stored in the history storage unit 14c can be used in various ways. For example, the interface creation unit 15 may be configured not to display, preferentially display, or display non-prioritized search words and translations stored as history in the history storage unit 14c. However, not limited to this, there are various utilization methods.

次に、本発明の実施例5について図面を用いて詳細に説明する。尚、以下の説明において、実施例1から実施例5と同様の構成については、同一の符号を付し、その詳細な説明を省略する。また、特記しない構成に関しては実施例1から実施例5の何れかと同様である。但し、以下の説明では、実施例1を引用して説明するが、本実施例は実施例1に限らず、他の実施例に対しても同様に適用することができる。   Next, a fifth embodiment of the present invention will be described in detail with reference to the drawings. In the following description, the same components as those in the first to fifth embodiments are denoted by the same reference numerals, and detailed description thereof is omitted. Further, the configuration not specifically mentioned is the same as that in any one of the first to fifth embodiments. However, in the following description, the description will be made with reference to the first embodiment. However, the present embodiment is not limited to the first embodiment, and can be similarly applied to other embodiments.

本実施例において、対話支援システム及びユーザ端末100a,100bの構成は実施例1と同様である。また、本実施例によるユーザ端末100a,100bの機能ブロックを図16に示す。尚、ユーザ端末100a,100bの機能ブロックは同様の構成であるため、以下の説明ではこれらをユーザ端末100Dとして説明する。   In this embodiment, the configurations of the dialogue support system and the user terminals 100a and 100b are the same as those in the first embodiment. FIG. 16 shows functional blocks of the user terminals 100a and 100b according to the present embodiment. In addition, since the functional blocks of the user terminals 100a and 100b have the same configuration, these will be described as the user terminal 100D in the following description.

図16に示すように、ユーザ端末100Dの機能ブロックは実施例1と同様の構成において、画像処理手段19が追加されている。   As shown in FIG. 16, the functional block of the user terminal 100D has the same configuration as that of the first embodiment, and an image processing means 19 is added.

画像処理手段19は入力された特定の映像を利用してポインタのようなユーザインタフェースを作成するための手段である。この手段はPC本体101のCPUやグラフィックアクセラレータなどを用いて実現することができる。   The image processing unit 19 is a unit for creating a user interface such as a pointer using the input specific video. This means can be realized by using a CPU or a graphic accelerator of the PC main body 101.

画像処理手段19には、映像/音声取得手段11で取得された映像と、受信手段17で受信した映像(但し、音声も含む)と、インタフェース作成手段15で作成されたユーザインタフェースとが入力される。画像処理手段19は、映像/音声取得手段11又は受信手段17より入力された映像から、例えばユーザA(又はB)の手やペンなど、特定の映像を切り出す。また、画像処理手段19は、切り出した映像を、映像/音声取得手段11及び受信手段17より入力された映像並びにインタフェース作成手段15から入力されたユーザインタフェースの画像よりなる画面と合成し、これを表示手段18に入力する。これによりディスプレイ102には、図17に示すような画面が表示される。   The image processing unit 19 receives the video acquired by the video / audio acquisition unit 11, the video received by the reception unit 17 (including audio), and the user interface generated by the interface generation unit 15. The The image processing unit 19 cuts out a specific video such as a hand or a pen of the user A (or B) from the video input from the video / audio acquisition unit 11 or the reception unit 17. The image processing unit 19 combines the cut-out video with a screen composed of the video input from the video / audio acquisition unit 11 and the reception unit 17 and the user interface image input from the interface creation unit 15. Input to the display means 18. As a result, a screen as shown in FIG. 17 is displayed on the display 102.

図17に示すように、ディスプレイ102には、実施例1においてディスプレイ102に表示される画面(図3参照)と同様の画面において、ポインタ28aが最前面に表示される。尚、本実施例ではポインタ28aをユーザAの手の映像とする。ポインタ28aはユーザAによる手の移動に連動して画面上を移動する。これにより、ユーザAは画面上における注目すべき箇所をポインタ28aを用いてユーザBに指示することができる。   As shown in FIG. 17, on the display 102, the pointer 28a is displayed in the foreground on the same screen as that displayed on the display 102 in the first embodiment (see FIG. 3). In this embodiment, the pointer 28a is an image of the hand of the user A. The pointer 28a moves on the screen in conjunction with the movement of the hand by the user A. As a result, the user A can instruct the user B to use the pointer 28a on a point of interest on the screen.

尚、以上のような映像処理は、例えばクロマキー技術やMPEG(Moving Picture Experts Group)−4などの技術を用いて実現することができる。   Note that the video processing as described above can be realized by using techniques such as chroma key technology and MPEG (Moving Picture Experts Group) -4.

上記実施例1から実施例5は本発明を実施するための例にすぎず、本発明はこれらに限定されるものではなく、これらの実施例を種々変形することは本発明の範囲内であり、更に本発明の範囲内において、他の様々な実施例が可能であることは上記記載から自明である。   The above-mentioned Examples 1 to 5 are only examples for carrying out the present invention, and the present invention is not limited to these. Various modifications of these examples are within the scope of the present invention. Furthermore, it is obvious from the above description that various other embodiments are possible within the scope of the present invention.

従来技術によるシステムの構成を示す図である。It is a figure which shows the structure of the system by a prior art. 本発明の実施例1による対話支援システム1の概略構成を示す図である。It is a figure which shows schematic structure of the dialogue assistance system 1 by Example 1 of this invention. 本発明の実施例1においてディスプレイ102に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on the display in Example 1 of this invention. 本発明の実施例1によるユーザ端末100の機能ブロックを示す図である。It is a figure which shows the functional block of the user terminal 100 by Example 1 of this invention. 本発明の実施例1におけるユーザ端末100の動作を示すフローチャートである(1)。It is a flowchart which shows operation | movement of the user terminal 100 in Example 1 of this invention (1). 本発明の実施例1におけるユーザ端末100の動作を示すフローチャートである(2)。It is a flowchart which shows operation | movement of the user terminal 100 in Example 1 of this invention (2). 本発明の実施例1におけるユーザ端末100の動作を示すフローチャートである(3)。It is a flowchart which shows the operation | movement of the user terminal 100 in Example 1 of this invention (3). 本発明の実施例1におけるユーザ端末100の動作を示すフローチャートである(4)。It is a flowchart which shows operation | movement of the user terminal 100 in Example 1 of this invention (4). 本発明の実施例1におけるユーザ端末100の動作を示すフローチャートである(5)。It is a flowchart which shows operation | movement of the user terminal 100 in Example 1 of this invention (5). 本発明の実施例2による対話支援システム1Aの概略構成を示す図である。It is a figure which shows schematic structure of the dialog assistance system 1A by Example 2 of this invention. 本発明の実施例2によるユーザ端末100Aの機能ブロックを示す図である。It is a figure which shows the functional block of 100 A of user terminals by Example 2 of this invention. 本発明の実施例2によるサーバ200の機能ブロックを示す図である。It is a figure which shows the functional block of the server 200 by Example 2 of this invention. 本発明の実施例2におけるユーザ端末100Aの動作を示すフローチャートである。It is a flowchart which shows operation | movement of 100 A of user terminals in Example 2 of this invention. 本発明の実施例3による対話支援システム1Bの概略構成を示す図である。It is a figure which shows schematic structure of the dialog assistance system 1B by Example 3 of this invention. 本発明の実施例4によるユーザ端末100Cの機能ブロックを示す図である。It is a figure which shows the functional block of 100 C of user terminals by Example 4 of this invention. 本発明の実施例5によるユーザ端末100Dの機能ブロックを示す図である。It is a figure which shows the functional block of user terminal 100D by Example 5 of this invention. 本発明の実施例5においてディスプレイ102に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on the display in Example 5 of this invention.

符号の説明Explanation of symbols

1、1A、1B 対話支援システム 11 映像/音声取得手段
12 入力手段 13 検索手段
13a 要求手段 14 蓄積手段
14c 履歴蓄積手段 15 インタフェース作成手段
16 送信手段 17 受信手段
18 表示手段 19 画像処理手段
20 ネットワーク 21a ユーザA映像表示領域
21b ユーザB映像表示領域 22a ユーザAログ表示領域
22b ユーザBログ表示領域 22c 共通言語ログ表示領域
23a、23b,23c スクロールバー
24a,24c 検索ボタン 25a ユーザA使用言語入力欄
25b ユーザB使用言語入力欄 25c 共通言語入力欄
26a、26c スクロールボタン 27 辞書切替えボタン
28a ポインタ 30 インターネット
100、100A、100a、100b、100C、100D ユーザ端末
101 PC本体 102 ディスプレイ
103 キーボード 104 マウス
105 カメラ 106 マイク
107 スピーカ 200 サーバ
310 検索エンジン 320 情報サイト
DESCRIPTION OF SYMBOLS 1, 1A, 1B Dialogue support system 11 Video / audio acquisition means 12 Input means 13 Search means 13a Request means 14 Storage means 14c History storage means 15 Interface creation means 16 Transmission means 17 Reception means 18 Display means 19 Image processing means 20 Network 21a User A video display area 21b User B video display area 22a User A log display area 22b User B log display area 22c Common language log display area 23a, 23b, 23c Scroll bar 24a, 24c Search button 25a User A use language input field 25b User B Language input field 25c Common language input field 26a, 26c Scroll button 27 Dictionary switching button 28a Pointer 30 Internet 100, 100A, 100a, 100b, 100C, 100D User terminal 01 PC main body 102 Display 103 Keyboard 104 Mouse 105 camera 106 microphone 107 speaker 200 server 310 search engine 320 information site

Claims (8)

ネットワークを介して接続された他の情報処理装置と共通のユーザインタフェースを有し、且つ該他の情報処理装置と映像及び音声を交換することでユーザ間の対話環境を実現する情報処理装置であって、
前記ユーザインタフェースへの入力情報に基づいて情報を検索する検索手段と、
前記検索手段による検索結果を表示するように前記ユーザインタフェースを更新するインタフェース作成手段と、
前記入力情報及び前記検索結果を前記他の情報処理装置へ送信する送信手段と、
前記他の情報処理装置から前記ユーザインタフェースへの入力情報及び該入力情報に基づいて得られた検索結果を受信する受信手段とを有し、
前記インタフェース作成手段は前記他の情報処理装置から受信した入力情報及び検索結果に基づいて前記ユーザインタフェースを更新することを特徴とする情報処理装置。
An information processing apparatus that has a common user interface with another information processing apparatus connected via a network and realizes an interactive environment between users by exchanging video and audio with the other information processing apparatus. And
Search means for searching for information based on input information to the user interface;
Interface creation means for updating the user interface so as to display search results by the search means;
Transmitting means for transmitting the input information and the search result to the other information processing apparatus;
Receiving means for receiving input information from the other information processing apparatus to the user interface and a search result obtained based on the input information;
The information processing apparatus, wherein the interface creation unit updates the user interface based on input information and search results received from the other information processing apparatus.
前記ユーザインタフェースは前記入力情報の履歴又は前記検索結果の履歴をリスト化して表示することを特徴とする請求項1記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the user interface displays a list of the history of the input information or the history of the search results. 情報を蓄積する蓄積手段を有し、
前記検索手段は前記入力情報に基づいて前記蓄積手段から情報を検索することを特徴とする請求項1記載の情報処理装置。
Having storage means for storing information;
The information processing apparatus according to claim 1, wherein the retrieval unit retrieves information from the storage unit based on the input information.
前記検索手段及び前記蓄積手段は前記入力情報に対応する訳語を検索する電子辞書であることを特徴とする請求項3記載の情報処理装置。   4. The information processing apparatus according to claim 3, wherein the search unit and the storage unit are electronic dictionaries that search for a translation corresponding to the input information. 前記入力情報に基づいた検索を前記ネットワークを介した他の情報処理装置に要求する要求手段を有することを特徴とする請求項1記載の情報処理装置。   The information processing apparatus according to claim 1, further comprising request means for requesting a search based on the input information to another information processing apparatus via the network. 前記入力情報に基づいた検索を前記ネットワークを介して接続された検索エンジンに要求する要求手段を有することを特徴とする請求項1記載の情報処理装置。   The information processing apparatus according to claim 1, further comprising request means for requesting a search based on the input information to a search engine connected via the network. 前記他の情報処理装置とピア・ツー・ピア型のネットワークを介して相互に接続されることを特徴とする請求項1記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the information processing apparatus is connected to the other information processing apparatus via a peer-to-peer network. ネットワークを介して他の情報処理装置と映像及び音声を交換することで他のユーザとコミュニケーションを取るためのコミュニケーション方法であって、
前記他の情報処理装置と共通のユーザインタフェースを作成する第1のステップと、
前記ユーザインタフェースへの入力情報に基づいて情報を検索する第2のステップと、
前記第2のステップによる検索結果を表示するように前記ユーザインタフェースを更新する第3のステップと、
前記入力情報及び前記検索結果を前記他の情報処理装置へ送信する第4のステップと、
前記他の情報処理装置から前記ユーザインタフェースへの入力情報及び該入力情報に基づいて得られた検索結果を受信する第5のステップと、
前記第5のステップで受信した入力情報及び検索結果に基づいて前記ユーザインタフェースを更新する第6のステップとを有することを特徴とするコミュニケーション方法。
A communication method for communicating with other users by exchanging video and audio with other information processing devices via a network,
A first step of creating a common user interface with the other information processing apparatus;
A second step of retrieving information based on information input to the user interface;
A third step of updating the user interface to display search results from the second step;
A fourth step of transmitting the input information and the search result to the other information processing apparatus;
A fifth step of receiving input information to the user interface from the other information processing apparatus and a search result obtained based on the input information;
And a sixth step of updating the user interface based on the input information and search results received in the fifth step.
JP2003424083A 2003-12-22 2003-12-22 Information processing apparatus and communication method Pending JP2005184583A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003424083A JP2005184583A (en) 2003-12-22 2003-12-22 Information processing apparatus and communication method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003424083A JP2005184583A (en) 2003-12-22 2003-12-22 Information processing apparatus and communication method

Publications (1)

Publication Number Publication Date
JP2005184583A true JP2005184583A (en) 2005-07-07

Family

ID=34784366

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003424083A Pending JP2005184583A (en) 2003-12-22 2003-12-22 Information processing apparatus and communication method

Country Status (1)

Country Link
JP (1) JP2005184583A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011257932A (en) * 2010-06-08 2011-12-22 Sharp Corp Content reproduction device, control method of content reproduction device, control program, and storage medium
US9031849B2 (en) 2006-09-30 2015-05-12 Huawei Technologies Co., Ltd. System, method and multipoint control unit for providing multi-language conference
US9324325B2 (en) 2013-09-11 2016-04-26 International Business Machines Corporation Converting data between users during a data exchange session

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9031849B2 (en) 2006-09-30 2015-05-12 Huawei Technologies Co., Ltd. System, method and multipoint control unit for providing multi-language conference
JP2011257932A (en) * 2010-06-08 2011-12-22 Sharp Corp Content reproduction device, control method of content reproduction device, control program, and storage medium
US9324325B2 (en) 2013-09-11 2016-04-26 International Business Machines Corporation Converting data between users during a data exchange session
US9542946B2 (en) 2013-09-11 2017-01-10 International Business Machines Corporation Converting data between users during a data exchange session

Similar Documents

Publication Publication Date Title
US10917369B2 (en) Information processing apparatus, information processing system, and information processing method
US20230161969A1 (en) Automatically assisting conversations using graph database
US9552354B1 (en) Method and apparatus for cross-lingual communication
US9063931B2 (en) Multiple language translation system
JP6942821B2 (en) Obtaining response information from multiple corpora
US7539619B1 (en) Speech-enabled language translation system and method enabling interactive user supervision of translation and speech recognition accuracy
US10504039B2 (en) Short message classification for video delivery service and normalization
US20170187876A1 (en) Remote automated speech to text including editing in real-time (&#34;raster&#34;) systems and methods for using the same
JP2008152798A (en) Pointer initiated instant bilingual annotation on textual information in electronic document
JP2002041432A (en) Chat system, terminal equipment, server device, and medium
MX2008010477A (en) Machine translation in instant messaging applications.
US8838451B2 (en) System, methods and automated technologies for translating words into music and creating music pieces
JP2009505284A (en) Virtual robot communication format customized by endpoint
JP2008129081A (en) Interactive lecture support system
KR102104294B1 (en) Sign language video chatbot application stored on computer-readable storage media
WO2000041080A1 (en) Speech assisting method and device
TWI710907B (en) Multilingual communication system and method for providing multilingual communication
CN105955967A (en) Data processing method and data processing device
EP2869546B1 (en) Method and system for providing access to auxiliary information
JP2005184583A (en) Information processing apparatus and communication method
Al-Dosri et al. Arabic sign language easy communicate ArSLEC
KR20110065295A (en) System and method of user device aware conferencing using networked services
WO2022132168A1 (en) On-device real-time translation of media content on a mobile electronic device
TW201306536A (en) Multi-language recognition and translation screen display system applied to voice over Internet protocol
CN110674645B (en) Information communication method for converting Chinese and English languages and electronic equipment