JP2018182406A - Information processing device, system, and control method of information processing device - Google Patents

Information processing device, system, and control method of information processing device Download PDF

Info

Publication number
JP2018182406A
JP2018182406A JP2017075012A JP2017075012A JP2018182406A JP 2018182406 A JP2018182406 A JP 2018182406A JP 2017075012 A JP2017075012 A JP 2017075012A JP 2017075012 A JP2017075012 A JP 2017075012A JP 2018182406 A JP2018182406 A JP 2018182406A
Authority
JP
Japan
Prior art keywords
voice
network
terminal
conversation
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017075012A
Other languages
Japanese (ja)
Inventor
弘樹 美濃羽
Hiroki Minowa
弘樹 美濃羽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2017075012A priority Critical patent/JP2018182406A/en
Publication of JP2018182406A publication Critical patent/JP2018182406A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information processing device, a system, and a control method of the information processing device that allow a user who is not directly joining a conversation to hear the conversation between other users and fortuitously obtain information.SOLUTION: An information processing device 100 connected with a network 200 includes: a microphone 111; a speaker 112; a network connection unit 116; a transmission unit 117 for transmitting a voice packet obtained by packetizing voice collected by the microphone 111 to the network 200; a receiving unit 118 for receiving a voice packet transmitted by another terminal from the network 200; a voice analyzing unit 119 for analyzing the received voice packet; and a control unit 110 for controlling an operation state of the speaker 112 on the basis of an analysis result of the voice packet.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置、システム、および情報処理装置の制御方法に関する。   The present invention relates to an information processing apparatus, a system, and a control method of the information processing apparatus.

特定の相手とネットワークを介して相互に音声情報や映像情報を送受信できるシステムが開示されている(例えば、特許文献1参照)。特許文献1に記載のシステムでは、会議端末で接続されたユーザー同士の間で、相互に音声情報や映像情報の送受信を行う。また、このシステムを3名以上のユーザーで常時接続すれば、会話に直接参加しないユーザーも含めて物理的に同じ空間(例えばオフィスなど)にいるのと同様なコミュニケーションを取ることも可能である。   There is disclosed a system capable of mutually transmitting and receiving audio information and video information via a specific party and a network (see, for example, Patent Document 1). In the system described in Patent Document 1, audio information and video information are mutually transmitted / received between users connected by the conference terminal. Also, if this system is always connected by three or more users, it is possible to have the same communication as physically in the same space (for example, an office) including users who do not directly participate in the conversation.

特開2006−229416号公報JP, 2006-229416, A

他者同士の会話から偶発的に情報を得るために、特許文献1に記載のシステムを常時接続した場合、本来は耳に入れたくない他者同士の不要な会話や雑音を遮断することができないので集中力を欠きやすいという課題がある。   When the system described in Patent Document 1 is always connected in order to accidentally obtain information from conversations between other people, it is not possible to block unnecessary conversations and noises between the other people that you do not want to hear in the first place Therefore, there is a problem that it is easy to lose concentration.

本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態または適用例として実現することが可能である。   The present invention has been made to solve at least a part of the above-described problems, and can be realized as the following modes or application examples.

[適用例1]本適用例に係る情報処理装置は、ネットワークに接続される情報処理装置であって、マイクと、スピーカーと、ネットワーク接続部と、前記マイクが集音した音声をパケット化した音声パケットを前記ネットワークに送信する送信部と、他端末から送信された音声パケットを前記ネットワークから受信する受信部と、前記受信した音声パケットを解析する音声解析部と、前記音声パケットの解析結果に基づいて、前記スピーカーの動作状態を制御する制御部と、を備えることを特徴とする。   Application Example 1 An information processing apparatus according to this application example is an information processing apparatus connected to a network, and is a voice obtained by packetizing voice collected by a microphone, a speaker, a network connection unit, and the microphone. A transmitting unit that transmits a packet to the network, a receiving unit that receives an audio packet transmitted from another terminal from the network, an audio analysis unit that analyzes the received audio packet, and an analysis result of the audio packet And a control unit that controls an operation state of the speaker.

本適用例の構成によれば、自端末において、受信部が他端末から受信した音声パケットを音声解析部が解析した結果に基づいて、制御部が自端末のスピーカーの動作状態を制御する。したがって、受信した音声パケットの解析結果に応じて、自端末のスピーカーを動作状態(オン)にして他のユーザーの話を聞くことが可能となる。これにより、会話に直接的に参加していないユーザーが、他のユーザー同士の会話を傍聴して偶発的に情報を得ることが可能となる。   According to the configuration of this application example, in the own terminal, the control unit controls the operation state of the speaker of the own terminal based on the result that the voice analysis unit analyzes the voice packet received by the receiving unit from the other terminal. Therefore, according to the analysis result of the received voice packet, it is possible to turn on the speaker of the own terminal and listen to the talk of other users. This enables users who are not directly involved in a conversation to listen to other users' conversations and get information on an incidental basis.

[適用例2]上記適用例に係る情報処理装置であって、前記制御部は、前記解析結果が自端末への呼び出し要求である場合に、前記マイクと前記スピーカーとを動作状態とすることが好ましい。   Application Example 2 In the information processing apparatus according to the application example, the control unit may set the microphone and the speaker in an operation state when the analysis result is a call request to the own terminal. preferable.

本適用例の構成によれば、音声パケットの解析結果が自端末への呼び出し要求である場合に、制御部がマイクとスピーカーとを動作状態(オン)とする。したがって、他のユーザーから呼び出しがあった場合に、呼び出しを受けたユーザーが手動で操作しなくても、相手の話を聞くことや相手に話しかけることができる。   According to the configuration of this application example, when the analysis result of the voice packet is a call request to the own terminal, the control unit brings the microphone and the speaker into the operation state (on). Therefore, when another user receives a call, the called user can listen to or talk to the other person without manual operation.

[適用例3]上記適用例に係る情報処理装置であって、前記制御部は、前記解析結果が自端末への呼び出し要求ではなく、かつ、前記音声パケットが自端末が受信許可を与えている他端末から送信されたものである場合に、前記スピーカーを動作状態とすることが好ましい。   Application Example 3 In the information processing apparatus according to the application example described above, the control unit does not request the analysis result to be a call request to the own terminal, and the voice packet is permitted to be received by the own terminal It is preferable to put the speaker in an operating state when it is transmitted from another terminal.

本適用例の構成によれば、音声パケットの解析結果が自端末への呼び出し要求ではなくても、自端末が受信許可を与えている他端末から音声パケットが送信されたものである場合に、制御部がスピーカーを動作状態(オン)とする。したがって、ユーザーが話を聞きたい(フォローしたい)と思うフォロー対象者に対して予め受信許可を与えておくことで、呼び出しを受けていないユーザーであっても、フォロー対象者が他のユーザーと会話を始めたことがわかる。そして、その相手の会話を聞くことができる。   According to the configuration of this application example, even if the analysis result of the voice packet is not the call request to the own terminal, if the voice packet is transmitted from another terminal whose own terminal has given reception permission, The control unit turns on the speaker. Therefore, by giving permission to receive the follow target person that the user wants to listen to (follow) the reception target, the follow target person talks with other users even if the user is not called I understand that I started. And I can hear the conversation of the other party.

[適用例4]上記適用例に係る情報処理装置であって、前記ネットワークには、複数の特定のユーザーが接続しており、前記送信部は、前記特定のユーザー全員に対し音声パケットを送信することが好ましい。   Application Example 4 In the information processing apparatus according to the application example described above, a plurality of specific users are connected to the network, and the transmission unit transmits an audio packet to all the specific users. Is preferred.

本適用例の構成によれば、ネットワークに接続している特定のユーザー全員に対し音声パケットが送信されるので、ネットワークに接続している特定のユーザーは誰でも音声パケットを受信できる。すなわち、会話に直接的に参加していないユーザーが、他のユーザー同士の会話を傍聴して偶発的に情報を得ることや、その会話に途中から参加することが可能となる。   According to the configuration of this application example, since the voice packet is transmitted to all specific users connected to the network, any specific user connected to the network can receive the voice packet. That is, a user who is not directly participating in a conversation can listen to conversations between other users and get information on an occasional basis, or participate in the conversation from the middle.

[適用例5]上記適用例に係る情報処理装置であって、カメラと表示部とをさらに備え、前記送信部は、前記カメラが撮影した映像をパケット化した映像パケットを前記ネットワークに送信し、前記受信部は、他端末から送信された映像パケットを前記ネットワークから受信し、前記制御部は、前記音声パケットの解析結果に基づいて、前記カメラと前記表示部との動作状態を制御することが好ましい。   Application Example 5 According to the application example described above, the information processing apparatus further includes a camera and a display unit, and the transmission unit transmits, to the network, an image packet obtained by packetizing an image captured by the camera. The receiving unit receives a video packet transmitted from another terminal from the network, and the control unit controls an operation state of the camera and the display unit based on an analysis result of the audio packet. preferable.

本適用例の構成によれば、映像パケットとともに受信した音声パケットの解析結果が自端末への呼び出し要求である場合や、自端末への呼び出し要求でなくてもフォロー対象者から送信された音声パケットである場合に、自端末の表示部を動作状態(オン)にして受信した映像パケットに基づく映像を見ることや、自端末のカメラを動作状態(オン)にして他のユーザーに映像を送信することが可能となる。これにより、音声情報だけでなく映像情報も用いたコミュニケーションが可能となる。   According to the configuration of this application example, the voice packet transmitted from the person to be followed even if the analysis result of the voice packet received together with the video packet is a call request to the own terminal or not a call request to the own terminal If the display unit of the own terminal is in the operating state (on) to view the video based on the received video packet, or the camera of the own terminal is in the operating state (on) to transmit the video to another user It becomes possible. This enables communication using not only audio information but also video information.

[適用例6]本適用例に係るシステムは、複数の端末とサーバーとがネットワークで接続されているシステムであって、前記端末は、マイクと、スピーカーと、ネットワーク接続部と、前記マイクが集音した音声をパケット化した音声パケットを前記ネットワークに送信する送信部と、前記音声パケットと前記サーバーが送信したコマンドとを前記ネットワークから受信する受信部と、前記受信したコマンドに基づいて、前記スピーカーの動作状態を制御する制御部と、を備え、前記サーバーは、ネットワーク接続部と、前記端末が送信した音声パケットを前記ネットワークから受信するサーバー受信部と、前記受信した音声パケットを解析する音声解析部と、前記音声解析部が解析した結果に基づくコマンドを前記ネットワークに送信するサーバー送信部と、を備えることを特徴とする。   Application Example 6 A system according to this application example is a system in which a plurality of terminals and a server are connected by a network, and the terminals include a microphone, a speaker, a network connection unit, and the microphones are collected. A speaker for transmitting a voice packet obtained by packetizing the voiced sound to the network, a receiver for receiving the voice packet and the command sent by the server from the network, and the speaker based on the received command Control unit configured to control the operation state of the network, the server includes a network connection unit, a server reception unit for receiving an audio packet transmitted from the terminal from the network, and an audio analysis for analyzing the received audio packet And a command based on the result analyzed by the voice analysis unit to the network Characterized in that it comprises a Ba transmitting unit.

本適用例の構成によれば、サーバーでは、端末から送信されサーバー受信部がネットワークから受信した音声パケットを音声解析部が解析した結果に基づいて、サーバー送信部が音声パケットで呼び出されたユーザーの端末や、音声パケットの送信者をフォロー対象者とするユーザーの端末に、コマンドを送信する。呼び出されたユーザーの端末や音声パケットの送信者をフォロー対象者とするユーザーの端末では、他端末から送信された音声パケットとサーバーから送信されたコマンドとを受信部が受信し、制御部がコマンドに基づいて、スピーカーの動作状態を制御する。したがって、サーバーによる音声パケットの解析結果に応じて、自端末のスピーカーを動作状態にして他のユーザーの話を聞くことが可能となる。これにより、複数の端末とサーバーとがネットワークで接続されたシステムで、会話に直接的に参加していないユーザーが、他のユーザー同士の会話から偶発的に情報を得ることが可能となる。   According to the configuration of this application example, in the server, based on the result of the speech analysis unit analyzing the speech packet transmitted from the terminal and received by the server reception unit from the network, the server transmission unit is called by the speech packet. The command is transmitted to the terminal or the terminal of the user whose transmission target is the voice packet sender. In the terminal of the called user or the terminal of the user whose sender is the sender of the voice packet, the receiver receives the voice packet transmitted from the other terminal and the command transmitted from the server, and the controller transmits the command Control the operating state of the speaker based on. Therefore, according to the analysis result of the voice packet by the server, it becomes possible to activate the speaker of the own terminal and listen to the talk of other users. Thus, in a system in which a plurality of terminals and a server are connected by a network, users who do not directly participate in a conversation can accidentally obtain information from conversations between other users.

[適用例7]本適用例に係る情報処理装置の制御方法は、マイクとスピーカーとを有し、ネットワークから音声パケットを受信し、前記マイクが集音した音声をパケット化した音声パケットを前記ネットワークに送信する情報処理装置の制御方法であって、前記音声パケットを解析するステップと、前記解析した結果に基づいて、前記スピーカーの動作状態を制御するステップと、を有することを特徴とする。   [Application Example 7] A control method of an information processing apparatus according to this application example includes a microphone and a speaker, receives an audio packet from a network, and packetizes an audio packet obtained by packetizing voice collected by the microphone. And controlling the operation state of the speaker on the basis of the analysis result.

本適用例に係る制御方法によれば、ネットワークから受信した音声パケットを解析するステップで解析した結果に基づいて、情報処理装置のスピーカーの動作状態を制御するステップを有する。したがって、音声パケットの解析結果に応じて、端末のスピーカーを動作状態にしてユーザーが他のユーザーの話を聞くことが可能となる。これにより、会話に直接的に参加していないユーザーが、他のユーザー同士の会話を傍聴して偶発的に情報を得ることが可能となる。   The control method according to this application example includes the step of controlling the operation state of the speaker of the information processing apparatus based on the analysis result in the step of analyzing the voice packet received from the network. Therefore, according to the analysis result of the voice packet, it becomes possible for the user to listen to the other user by activating the speaker of the terminal. This enables users who are not directly involved in a conversation to listen to other users' conversations and get information on an incidental basis.

第1の実施形態に係る情報処理装置の概略構成を示すブロック図。FIG. 1 is a block diagram showing a schematic configuration of an information processing apparatus according to a first embodiment. 第1の実施形態に係る情報処理装置の接続例を示す図。FIG. 2 is a view showing an example of connection of the information processing apparatus according to the first embodiment. 第1の実施形態に係る情報処理装置を使用するユーザーの動作とその実行方法とを従来の実行方法と比較する表。The table | surface which compares the operation | movement of the user who uses the information processing apparatus which concerns on 1st Embodiment, and its execution method with the conventional execution method. ユーザー同士の間における受信許可または受信拒否の設定例を示す表。A table showing a setting example of reception permission or reception rejection between users. 図4に示す設定において会話で誰の声が聞こえるかを示す表。FIG. 5 is a table showing who can hear voice in a conversation in the configuration shown in FIG. 4; 第1の実施形態に係る情報処理装置の制御方法を説明するフローチャート。3 is a flowchart illustrating a control method of the information processing apparatus according to the first embodiment. 第2の実施形態に係るシステムの概略構成を示す図。The figure which shows schematic structure of the system which concerns on 2nd Embodiment. 第2の実施形態に係るサーバーの概略構成を示すブロック図。FIG. 8 is a block diagram showing a schematic configuration of a server according to a second embodiment.

以下、本発明を具体化した実施形態について図面を参照して説明する。なお、以下に説明する実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings. Note that the embodiments described below do not unduly limit the contents of the present invention described in the claims. Further, not all of the configurations described in the embodiments are necessarily essential configuration requirements of the present invention.

(第1の実施形態)
<情報処理装置の構成>
まず、第1の実施形態に係る情報処理装置の構成を、図1および図2を参照して説明する。図1は、第1の実施形態に係る情報処理装置の概略構成を示すブロック図である。図2は、第1の実施形態に係る情報処理装置の接続例を示す図である。
First Embodiment
<Configuration of Information Processing Device>
First, the configuration of the information processing apparatus according to the first embodiment will be described with reference to FIGS. 1 and 2. FIG. 1 is a block diagram showing a schematic configuration of the information processing apparatus according to the first embodiment. FIG. 2 is a diagram showing an example of connection of the information processing apparatus according to the first embodiment.

図1に示すように、第1の実施形態に係る情報処理装置100は、制御部110と、マイク111と、スピーカー112と、カメラ113と、表示部114と、記憶部115と、ネットワーク接続部116と、送信部117と、受信部118と、音声解析部119とを備えている。   As shown in FIG. 1, the information processing apparatus 100 according to the first embodiment includes a control unit 110, a microphone 111, a speaker 112, a camera 113, a display unit 114, a storage unit 115, and a network connection unit. And a transmitting unit 117, a receiving unit 118, and a voice analysis unit 119.

図2に示すように、情報処理装置100は、ネットワーク200を介して互いに接続されるユーザー用の端末装置(以下では、単に端末とも表記する)である。情報処理装置100は、例えば、一人で勤務する複数のリモートオフィス(自宅を含む)の間でユーザー同士が音声情報と映像情報とを用いてコミュニケーションを行うことを可能にする。図2に示す例では、A,B,C,Dの4人のユーザー用の端末として、4つの情報処理装置100が、ネットワーク200を介して互いに接続されている。なお、ユーザーの数と情報処理装置100の数とは、図2に示す例に限定されない。   As shown in FIG. 2, the information processing apparatus 100 is a user terminal device (hereinafter, also simply referred to as a terminal) connected to each other via the network 200. The information processing apparatus 100 enables, for example, users to communicate with each other by using audio information and video information between a plurality of remote offices (including homes) who work alone. In the example illustrated in FIG. 2, four information processing apparatuses 100 are connected to one another via a network 200 as terminals for four users A, B, C, and D. The number of users and the number of information processing apparatuses 100 are not limited to the example shown in FIG.

例えば、ユーザーAをユーザー自身(以下では、自分とも表記する)とした場合、ユーザーA用の端末である情報処理装置100を単に自端末と表記する。また、他のユーザー(以下では、他者とも表記する)B,C,D用の端末である情報処理装置100を単に他端末と表記する。   For example, when the user A is the user himself (hereinafter also referred to as self), the information processing apparatus 100 which is a terminal for the user A is simply described as the own terminal. Further, the information processing apparatus 100 which is a terminal for another user (hereinafter also referred to as another person) B, C, D is simply described as another terminal.

本実施形態に係る情報処理装置100は、リモートアクセス環境において互いに接続される複数のユーザーA,B,C,Dの中で、会話に直接的に参加しているユーザー同士で情報交換を行うことが可能であるだけでなく、他者同士の会話を直接的に参加していないユーザーが傍聴し情報を得ることが可能である。   The information processing apparatus 100 according to the present embodiment exchanges information among users directly participating in a conversation among a plurality of users A, B, C, and D connected to each other in a remote access environment. Not only is it possible, but it is possible for a user who is not directly involved in the conversation between the other to listen and obtain information.

図1に戻り、情報処理装置100が備える各部を説明する。制御部110は、情報処理装置100が備える各部の動作を制御する。制御部110は、CPU、ROM、RAMなど(図示しない)を備えている。制御部110は、例えば、ROMに記憶された制御プログラムをRAMに展開し、そのRAMに展開された制御プログラムをCPUが実行することで制御部110として動作する。なお、制御部110のCPUが実行する制御プログラムが、ネットワーク接続部116、送信部117、受信部118、音声解析部119の少なくともいずれかの機能を含む構成としてもよい。   Returning to FIG. 1, each unit included in the information processing apparatus 100 will be described. The control unit 110 controls the operation of each unit included in the information processing apparatus 100. The control unit 110 includes a CPU, a ROM, a RAM, and the like (not shown). The control unit 110 operates, for example, the control program stored in the ROM in the RAM, and the CPU executes the control program expanded in the RAM to operate as the control unit 110. The control program executed by the CPU of the control unit 110 may include at least one of the functions of the network connection unit 116, the transmission unit 117, the reception unit 118, and the voice analysis unit 119.

マイク111は、情報処理装置100を操作するユーザー自身が発する音声を集音し音声信号に変換する。本実施形態では、マイク111は、通常状態では非動作状態(以下では、オフと表記する)に設定されている。ここでいう「通常状態」とは、情報処理装置100がネットワーク200に接続されているが、ユーザー同士で会話が行われていない状態を指す。会話を開始するため他者に話しかける際には、ユーザー自身が手動でマイク111を動作状態(以下では、オンと表記する)に設定する。制御部110は、マイク111が集音し変換したユーザーの音声信号をパケット化する。   The microphone 111 collects the sound emitted by the user who operates the information processing apparatus 100 and converts the sound into an audio signal. In the present embodiment, the microphone 111 is set to a non-operation state (hereinafter referred to as “off”) in a normal state. Here, the “normal state” refers to a state in which the information processing apparatus 100 is connected to the network 200 but the users are not in conversation. When talking to another person to start a conversation, the user manually sets the microphone 111 to an operating state (hereinafter referred to as "on"). The control unit 110 packetizes the voice signal of the user collected and converted by the microphone 111.

制御部110は、音声解析部119による音声パケット(パケット化された音声信号)の解析結果に基づいて、マイク111の動作状態を制御する。より具体的には、他端末から受信した音声パケットが音声解析部119により自分への呼び出しであると判断された場合に、制御部110はマイク111をオンにする。会話が終了してから、すなわち、自端末からの音声パケットの送信、および、他端末からの音声パケットの受信がなくなってから所定の時間が経過した後、制御部110はマイク111をオフにする。所定の時間は、適宜設定される。   The control unit 110 controls the operation state of the microphone 111 based on the analysis result of the voice packet (voice signal converted into a packet) by the voice analysis unit 119. More specifically, when the voice analysis unit 119 determines that the voice packet received from the other terminal is a call to itself, the control unit 110 turns on the microphone 111. After a conversation is over, that is, after a predetermined time has passed since transmission of a voice packet from the own terminal and reception of a voice packet from another terminal has not been completed, the control unit 110 turns the microphone 111 off. . The predetermined time is appropriately set.

スピーカー112は、受信した音声パケットを制御部110が変換した音声信号に基づいて、発信者の音声を再生する。本実施形態では、スピーカー112は、通常状態ではオフになっている。制御部110は、音声解析部119による音声パケットの解析結果に基づいてスピーカー112の動作状態を制御する。より具体的には、他端末から受信した音声パケットが音声解析部119により自分への呼び出しであると判断された場合に、制御部110はスピーカー112をオンにする。これにより、ユーザーは自端末で他者の音声を聞くことができる。   The speaker 112 reproduces the voice of the caller based on the voice signal obtained by the control unit 110 converting the received voice packet. In the present embodiment, the speaker 112 is off in the normal state. The control unit 110 controls the operation state of the speaker 112 based on the analysis result of the voice packet by the voice analysis unit 119. More specifically, when the voice analysis unit 119 determines that the voice packet received from the other terminal is a call to itself, the control unit 110 turns on the speaker 112. Thus, the user can listen to the other person's voice at his own terminal.

また、他端末から受信した音声パケットが音声解析部119により自分への呼び出しではないと判断された場合であって、音声パケットが、自端末が受信許可を設定している他端末から送信されたものである場合に、制御部110はスピーカー112をオンにする。ネットワーク200を流れる音声パケットの一部(例えばヘッダー)には、そのパケットを発信した端末(ユーザー)を識別可能な識別情報が記載されている。音声解析部119は、受信した音声パケットの識別情報により送信元を特定することができる。なお、受信許可の設定については後述する。会話が終了してから、すなわち、他端末から音声パケットを受信しなくなってから所定の時間が経過した後、もしくは、音声解析部119が会話の終了を特定可能なフレーズが発せられたことを検知した場合、制御部110はスピーカー112をオフにする。   Also, in the case where the voice analysis unit 119 determines that the voice packet received from the other terminal is not a call to itself, the voice packet is transmitted from the other terminal for which the own terminal has set reception permission. If so, the controller 110 turns on the speaker 112. In a part (for example, a header) of a voice packet flowing through the network 200, identification information capable of identifying a terminal (user) who has sent the packet is described. The voice analysis unit 119 can specify the transmission source by the identification information of the received voice packet. The setting of reception permission will be described later. The voice analysis unit 119 detects that a phrase that can specify the end of the conversation has been issued after the conversation has ended, that is, after a predetermined time has elapsed since the voice packet was not received from another terminal. If so, the control unit 110 turns the speaker 112 off.

情報処理装置100は、マイク111が集音した音声信号やスピーカー112に出力される音声信号から人の声の帯域以外の周波数を遮断するフィルターを備えていることが好ましい。このようなフィルターを備えていれば、マイク111が集音した音声信号やスピーカー112に出力される音声信号から人の声以外の不要な音(例えば、雑音等)を除去して、会話における人の声を聞き取り易くすることができる。   The information processing apparatus 100 preferably includes a filter that cuts off frequencies other than the human voice band from the audio signal collected by the microphone 111 and the audio signal output to the speaker 112. If such a filter is provided, unnecessary sound (for example, noise and the like) other than human voice is removed from the audio signal collected by the microphone 111 and the audio signal output to the speaker 112, and the person in the conversation is Can be made easy to hear.

カメラ113は、ユーザーの映像を撮影し映像信号に変換する。本実施形態では、カメラ113は、通常状態ではオフになっている。他者に自分の映像を見せたい場合に、ユーザー自身が手動でカメラ113をオンにする。制御部110は、カメラ113が撮影したユーザーの映像信号をパケット化する。   The camera 113 captures an image of the user and converts it into an image signal. In the present embodiment, the camera 113 is off in the normal state. The user manually turns on the camera 113 when he / she wants to show his / her video to others. The control unit 110 packetizes the video signal of the user captured by the camera 113.

表示部114は、他端末から受信した映像パケット(パケット化された映像信号)を制御部110が変換した映像信号に基づいて、発信者の映像を表示する。本実施形態では、表示部114は、通常状態ではオフになっている。他端末から音声パケットとともに映像パケットを受信した場合であって、その音声パケットが音声解析部119により自分への呼び出しであると判断された場合に、制御部110は表示部114をオンにする。これにより、ユーザーは自端末で他者の映像を見ることができる。   The display unit 114 displays the video of the sender on the basis of the video signal obtained by the control unit 110 converting the video packet (video signal converted into a packet) received from the other terminal. In the present embodiment, the display unit 114 is off in the normal state. When the video packet is received from the other terminal together with the voice packet, and the voice analysis unit 119 determines that the voice packet is a call to itself, the control unit 110 turns on the display unit 114. Thus, the user can view the other person's video on his own terminal.

また、他端末から受信した音声パケットが音声解析部119により自分への呼び出しではないと判断された場合であって、音声パケットが自端末が受信許可を設定している他端末から送信されたものである場合に、制御部110は表示部114をオンにする。   Also, in the case where the voice analysis unit 119 determines that the voice packet received from the other terminal is not a call to itself, the voice packet is transmitted from the other terminal for which the own terminal has set reception permission. , The control unit 110 turns on the display unit 114.

記憶部115には、ネットワーク200(図2参照)を介した同一のリモートアクセス環境において互いに接続される複数のユーザー(図2に示すA,B,C,D)として登録されたユーザー(以下では、登録ユーザーとも表記する)に関する情報が記憶される。記憶部115は、例えば、EEPROM(Electrically Erasable Programmable Read-Only Memory)などの不揮発性メモリーで構成される。制御部110が備えるROMが、記憶部115の機能を兼ねる構成としてもよい。   In the storage unit 115, users (hereinafter referred to as users registered as a plurality of users (A, B, C, D shown in FIG. 2) connected to each other in the same remote access environment via the network 200 (see FIG. 2) , And registered user) is stored. The storage unit 115 is configured by, for example, a non-volatile memory such as an EEPROM (Electrically Erasable Programmable Read-Only Memory). The ROM included in the control unit 110 may double as the function of the storage unit 115.

記憶部115に記憶する登録ユーザーに関する情報としては、例えば、登録ユーザーの名前、ID、IPアドレス、所属するグループ名等があげられる。自端末が他端末から音声パケットを受信した際には、制御部110は、記憶部115に記憶された登録ユーザーに関する情報に基づいて音声パケットを送信したユーザーを特定する。   Examples of the information on the registered user stored in the storage unit 115 include the name of the registered user, the ID, the IP address, the group name to which the user belongs, and the like. When the own terminal receives a voice packet from another terminal, control unit 110 specifies the user who has sent the voice packet based on the information on the registered user stored in storage unit 115.

本実施形態では、登録ユーザーに関する情報において、登録ユーザーのうちそのユーザーが会話している相手が誰であるかに関わらず自分が話を聞きたい(フォローしたい)と思うユーザー(以下では、フォロー対象者と表記する)を指定できる。登録ユーザーに関する情報においてフォロー対象者に指定されたユーザーの端末に対しては、自端末への受信許可が設定される。また、フォローしたいと思わないユーザー(以下では、非フォロー対象者と表記する)に指定されたユーザーの端末に対しては、自端末への受信拒否が設定される。   In the present embodiment, a user who wants to hear (follow) the user regardless of who the registered user is in conversation with in the information on the registered user (follow target) Can be specified). For the terminal of the user designated as the person to be followed in the information on the registered user, the reception permission to the own terminal is set. Also, for the terminal of the user designated as the user who does not want to follow (in the following, referred to as a non-following target person), the reception refusal to the own terminal is set.

フォロー対象者および非フォロー対象者は、各自で適宜設定すればよい。フォロー対象者とするメンバーの例としては、例えば、自分の業務と関連が深い業務の担当者、専門知識や有用な情報が豊富な人等があげられる。非フォロー対象者とするメンバーの例としては、例えば、自分の業務と関連が薄い業務の担当者や話が長くなりがちな人等があげられる。   Persons to be followed and persons not to be followed may be set as appropriate. Examples of members to be followed include, for example, persons in charge of operations closely related to their own operations, and persons with a wealth of specialized knowledge and useful information. Examples of non-followers are, for example, people in charge of work that are not related to their own work, and people who tend to talk for a long time.

このように、フォロー対象者を指定して予め自端末への受信許可を与えておくことにより、自分がフォロー対象者から呼び出しを受けていない場合であっても、フォロー対象者の会話を聞く(傍聴する)ことができる。これにより、自分が会話に直接的に参加していなくても、自分の業務と関係する話題や関心のある話題に対して聞き耳を立てたり、必要に応じてその会話に参加したりすることができる。   In this way, by specifying the person to be followed and giving reception permission to the own terminal beforehand, even if the user is not receiving a call from the person to be followed, he / she hears the conversation of the person to be followed ( Can listen). In this way, even if you are not directly involved in a conversation, you may be able to listen to a topic related to your work or a topic of interest, or participate in that conversation as needed. it can.

ネットワーク接続部116は、情報処理装置100をネットワーク200に接続する。ネットワーク接続部116によりネットワーク200に接続することで、登録されたユーザーの端末同士がネットワーク200を介して互いに接続される。   The network connection unit 116 connects the information processing apparatus 100 to the network 200. By connecting to the network 200 by the network connection unit 116, terminals of registered users are connected to each other via the network 200.

送信部117は、マイク111が集音した自分の音声パケットや、カメラ113が撮影した自分の映像パケットを自端末からネットワーク200に送信する。音声パケットおよび映像パケットは、ネットワーク200を介して接続されているすべての他端末に対して、マルチキャストで送信される。また、送信される音声パケットおよび映像パケットのヘッダーには、自端末のIDが記載されている。受信部118は、他端末から送信された音声パケットと映像パケットとをネットワーク200から受信する。   The transmitting unit 117 transmits, from the own terminal, the voice packet collected by the microphone 111 and the video packet captured by the camera 113 to the network 200. Audio packets and video packets are transmitted by multicast to all other terminals connected via the network 200. Further, the ID of the own terminal is described in the header of the audio packet and the video packet to be transmitted. The receiving unit 118 receives an audio packet and a video packet transmitted from another terminal from the network 200.

音声解析部119は、受信部118が他端末から受信した音声パケットを解析する。より具体的には、音声解析部119は、音声認識技術を用いて、呼び出されたユーザーの名前を特定する。制御部110は、音声解析部119が特定したユーザーの名前に基づいて、他端末から受信した音声パケットが自端末に対する呼び出しであるか否かを判断する。   The voice analysis unit 119 analyzes the voice packet received by the reception unit 118 from another terminal. More specifically, the speech analysis unit 119 uses speech recognition technology to identify the name of the called user. Based on the user's name specified by voice analysis unit 119, control unit 110 determines whether the voice packet received from the other terminal is a call to the own terminal or not.

ここで、相手に呼びかける際には相手の名前で呼び出すが、会話の中でもユーザーの名前が発せられる場合があり得る。そこで、音声解析部119が音声パケットを解析する際に、単に会話に名前が登場するだけの場合と、呼び出しである場合とを識別できるように、他者を呼び出す際の呼びかけのルールを決めておくことが望ましい。呼びかけのルールとしては、例えば、呼び出す相手の名前をAさんとした場合に、「こんにちは、Aさん」、「Aさん、聞こえますか」等、呼び出しと特定できるように適宜設定すればよい。また、呼び出し用のニックネームを用いるようにしてもよいし、予め登録されたグループ名を用いて複数のユーザーを同時に呼び出すようにしてもよい。   Here, when calling the other party, the other party's name is called, but the user's name may be issued during the conversation. Therefore, when analyzing the voice packet, the voice analysis unit 119 determines the calling rule for calling the other person so that the case where the name only appears in the conversation and the case where it is the call can be distinguished. Is desirable. The call for the rule, for example, in the case where the name of the person to call the A's, "Hello, Mr. A", "Mr. A, hear you either," etc., may be appropriately set so as to be able to identify and call. Also, a nickname for calling may be used, or a plurality of users may be simultaneously called using a group name registered in advance.

上述した情報処理装置100は、例えば、パーソナルコンピューターや携帯端末機器等の電子機器を用いて実現できる。なお、カメラ113および表示部114は、必須の構成要素ではない。しかしながら、カメラ113および表示部114を備えていると、音声情報だけでなく映像情報も用いてコミュニケーションを行えるので、より充実した情報交換が可能となる。パーソナルコンピューターや携帯端末機器のディスプレイが表示部114を兼ねる構成としてもよい。   The information processing apparatus 100 described above can be realized, for example, using an electronic device such as a personal computer or a portable terminal device. The camera 113 and the display unit 114 are not essential components. However, when the camera 113 and the display unit 114 are provided, communication can be performed using not only the audio information but also the video information, so that more thorough information exchange is possible. The display of a personal computer or a portable terminal device may double as the display unit 114.

<ユーザーの動作と実行方法>
次に、第1の実施形態に係る情報処理装置100を使用するユーザーの動作とその実行方法とについて、従来の方法と比較して説明する。図3は、第1の実施形態に係る情報処理装置を使用するユーザーの動作とその実行方法とを従来の実行方法と比較する表である。従来の方法の例として、リモートアクセス環境でユーザー同士が常時接続されている場合(比較例1)と、ユーザーが同一のオフィス内で勤務している場合(比較例2)とをあげている。
<User behavior and execution method>
Next, an operation of a user who uses the information processing apparatus 100 according to the first embodiment and a method of executing the same will be described in comparison with a conventional method. FIG. 3 is a table comparing the operation of the user using the information processing apparatus according to the first embodiment and the execution method thereof with the conventional execution method. As an example of the conventional method, a case where users are always connected in a remote access environment (Comparative Example 1) and a case where users work in the same office (Comparative Example 2) are given.

[1.誰かに話しかける]
自分からユーザーの誰かに話しかける場合、本実施形態では、マイク111を手動でオンにして話をしたい相手(他のユーザー全員が対象であってもよい)に声をかける。例えば、上述した「こんにちは、Aさん」、「Aさん、聞こえますか」というように、話をしたい相手を指名して呼び出す。比較例1の場合は、常時接続状態であるので、話をしたい相手を指名して声をかければよい。比較例2の場合は、相手も同じ場所にいるので、相手に近付くか相手の方を向いて声をかければよい。
[1. Talk to someone]
When speaking to one of the users from the user, in the present embodiment, the microphone 111 is manually turned on to speak to the person who wants to speak (may be all other users). For example, the above-described "Hello, Mr. A", such as "A-san, can you hear me", call to appoint the person you want to talk. In the case of Comparative Example 1, since it is always in the connected state, it is sufficient to designate the person you want to talk to and make a voice. In the case of Comparative Example 2, since the other party is also in the same place, it is sufficient to approach the other party or face the other party and make a voice.

[2.誰かからの話しかけに応答する]
誰かが話しかけた相手が自分である場合、呼び出しの音声パケットを受信することで、自端末のスピーカー112とマイク111とが自動でオンになる。そのため、スピーカー112からの音声で自分が呼び出されたことがわかる。そして、マイク111で話しかけた相手に対して返事をすることで応答し、会話を行うことができる。比較例1および比較例2の場合も、返事をすることで応答すればよい。
[2. Respond to someone's talk]
If the other party who is speaking is someone, the speaker 112 and the microphone 111 of the own terminal are automatically turned on by receiving the voice packet of the call. Therefore, it can be known that the user has been called by the sound from the speaker 112. Then, by replying to the person who spoke with the microphone 111, it is possible to answer and talk. Also in the case of Comparative Example 1 and Comparative Example 2, the response may be made by replying.

[3.誰かからの話しかけに応答しない]
誰かが話しかけた相手が自分であっても応答できない場合や応答したくない(応答を拒否する)場合は、返事をしない。すなわち、自端末から音声パケットを送信しない。自分への呼び出しに対応して一旦スピーカー112とマイク111とが自動でオンになっても、会話(音声パケットの送受信)が無い状態で所定の時間が経過すると、スピーカー112とマイク111とが自動でオフになる。比較例1および比較例2の場合も同様に、返事をしないことで応答を拒否できる。しかしながら、実際の場においては、業務の上での呼びかけに対しては相手に関わらず応答することが好ましいことはいうまでもない。
[3. I do not respond to someone talking
If someone you talk to can not answer you or you do not want to respond (reject the response), do not reply. That is, no voice packet is transmitted from the own terminal. Even if the speaker 112 and the microphone 111 are automatically turned on in response to a call to oneself, the speaker 112 and the microphone 111 are automatically turned on when a predetermined time elapses without conversation (transmission and reception of audio packets). Turn off at. Similarly, in the case of Comparative Example 1 and Comparative Example 2, the response can be rejected by not replying. However, it is needless to say that in actual situations, it is preferable to respond to business calls regardless of the other party.

[4.誰かと話し続ける]
上記の2で話しかけに応答した相手と話し続ける場合は、そのまま話を続ければよい。会話(音声パケットの送受信)が継続されている間は、スピーカー112とマイク111とがオンになった状態が維持されるので、相手の話を聞きつつ応答することができる。比較例1および比較例2の場合も同様に、そのまま話を続ければよい。
[4. Keep talking with someone]
If you want to keep talking with the person who responded to the talk in 2 above, just keep talking. Since the state in which the speaker 112 and the microphone 111 are turned on is maintained while the conversation (transmission and reception of voice packets) is continued, it is possible to answer while listening to the other party. Similarly, in the case of Comparative Example 1 and Comparative Example 2, the speech may be continued.

[5.誰かとの話を終える]
誰かとの話を終える場合は、話を止めればよい。会話(音声パケットの送受信)が終わってから所定の時間が経過すると、スピーカー112とマイク111とが自動でオフになる。比較例1および比較例2の場合も同様に、話を止めればよい。
[5. Finish talking with someone]
If you want to finish talking with someone, just stop talking. The speaker 112 and the microphone 111 are automatically turned off when a predetermined time elapses after the conversation (transmission and reception of voice packets) is finished. Similarly, in the case of Comparative Example 1 and Comparative Example 2, the talk may be stopped.

[6.誰かの話を傍聴する]
本実施形態では、フォロー対象者の端末に対して予め受信許可を設定しておくことで、上記の1でフォロー対象者が自分以外の誰かと会話している場合であっても、スピーカー112が自動でオンになる。そのため、ユーザー(自分)が何もしなくても、フォローしたい人の会話を傍聴でき、例えば、自分の業務と関係する話題や関心のある話題に対して聞き耳を立てることができる。必要であれば、自分が上記の1の動作を行うことで、傍聴していた会話に参加することもできる。比較例1および比較例2の場合も、その場所に居続ければ、他者同士の会話を聞くことができ、その会話に参加することもできる。
[6. Listen to someone's story]
In the present embodiment, the reception permission is set in advance for the terminal of the person to be followed, so that the speaker 112 can communicate with anyone other than the person to be followed in 1 above. It turns on automatically. Therefore, even if the user (self) does nothing, he can listen to the conversation of the person he / she wants to follow, and, for example, can listen to a topic related to his / her work or a topic of interest. If necessary, you can participate in the conversation you have been hearing by performing the above-mentioned 1 action. Also in the case of Comparative Example 1 and Comparative Example 2, if staying in the place, it is possible to hear the conversation between the others, and to participate in the conversation.

[7.不要な音声を遮断する]
本実施形態では、非フォロー対象者の端末に対して予め受信拒否を設定しておくことで、上記の1で非フォロー対象者が自分以外の誰かと会話している場合には、その音声パケットを受信してもスピーカー112は自動でオンにならないので、その人の声は聞こえない。なお、上記の6でフォロー対象者の会話を傍聴する際に、フォロー対象者が話しかけた相手が非フォロー対象者である場合には、フォロー対象者の話だけが聞こえることとなる。比較例1および比較例2の場合は、その場所に居れば、誰と誰が話しているかに関わらず(聞きたくなくても)会話が聞こえてしまう。したがって、その会話を聞きたくない場合には、その場から離れるか、あるいは、耳栓をする等の遮音処置をとる必要がある。本実施形態では、フォロー対象者の会話だけを選択的に聞くことができる点が比較例と異なる。
[7. Block unwanted voices]
In the present embodiment, by setting reception refusal in advance for the non-following person's terminal, when the non-following person talks with someone other than himself at 1 above, the voice packet Since the speaker 112 is not automatically turned on even when receiving the message, the person's voice can not be heard. In addition, when listening to the conversation of the person to be followed in 6 above, if the person whom the person to be followed speaks is the person not to be followed, only the story of the person to be followed can be heard. In the case of Comparative Example 1 and Comparative Example 2, if the user is at the location, the conversation can be heard regardless of who is talking with him (even if he does not want to hear it). Therefore, if you do not want to hear the conversation, it is necessary to take a noise isolation treatment such as leaving the place or putting an earplug. The present embodiment is different from the comparative example in that only the conversation of the person to be followed can be selectively heard.

ここで、上記の6,7において、他者同士の会話においてフォロー対象者(受信許可を設定)と非フォロー対象者(受信拒否を設定)とでどのように声が聞こえるかについて、具体例をあげて説明する。以下では、音声パケットを発信するユーザーを「発信者」と表記し、発信者から発信された音声パケットを受信するユーザーを「受信者」と表記する。受信者が発信者からの呼びかけに応答すれば、その受信者は音声パケットを発信する発信者となる。受信者のうち、会話に参加しないが会話を聞くユーザーを「傍聴者」と表記する。   Here, in 6 and 7 above, specific examples will be given as to how voices can be heard by the person to be followed (set the reception permission) and the person not to follow (set the reception rejection) in the conversation between the others. I will explain it. In the following, a user who originates a voice packet is referred to as a "sender", and a user who receives a voice packet originated from a sender is referred to as a "recipient". If the recipient responds to the call from the originator, that recipient becomes the originator who originates the voice packet. Among the recipients, a user who does not participate in the conversation but listens to the conversation is referred to as a "hearing person".

図4は、ユーザー同士の間における受信許可または受信拒否の設定例を示す表である。図5は、図4に示す設定において会話で誰の声が聞こえるかを示す表である。図4において、ユーザーは図2に示すA,B,C,Dの4人のユーザーとする。列見出しには受信者が示され、行見出しには発信者が示されている。   FIG. 4 is a table showing a setting example of reception permission or reception rejection between users. FIG. 5 is a table showing who voices can be heard in a conversation in the configuration shown in FIG. In FIG. 4, the user is four users A, B, C, and D shown in FIG. The column headings indicate recipients and the row headings indicate callers.

図4に示す設定例では、例えば、受信者がAである場合、受信者Aは、発信者B,Cに対してフォロー対象者として受信許可を設定するが、発信者Dに対して非フォロー対象者として受信拒否を設定する。受信者Bは、発信者A,C,Dに対してフォロー対象者として受信許可を設定する。受信者Cは、発信者Aに対して非フォロー対象者として受信拒否を設定するが、発信者B,Dに対してフォロー対象者として受信許可を設定する。受信者Dは、発信者A,B,Cに対してフォロー対象者として受信許可を設定する。   In the setting example shown in FIG. 4, for example, when the receiver is A, the receiver A sets the reception permission for the callers B and C as a follow target person, but does not follow the caller D. Set rejection as a target person. The receiver B sets the reception permission for the senders A, C, and D as a follow target person. Although the receiver C sets reception refusal to the sender A as a non-following target, the receiver C sets reception permission to the senders B and D as a following target. The receiver D sets the reception permission for the senders A, B, and C as a follow target person.

図5において、列見出しには傍聴者(受信者)が示され、行見出しには会話における発信者の組み合わせが示されている。例えば、ユーザーAは、会話の組み合わせがA:B、A:C、A:Dの場合は、自身が発信者である。会話の組み合わせがB:C、B:D、C:Dの場合は、Aは傍聴者である。傍聴者Aは、B:Cの会話では両者に対して受信許可を設定しているので両者の声が聞こえる。また、傍聴者Aは、Dに対して受信拒否を設定しているので、B:Dの会話ではBの声だけが聞こえ、C:Dの会話ではCの声だけが聞こえる。   In FIG. 5, the column headings indicate listeners (receivers) and the row headings indicate combinations of callers in the conversation. For example, when the combination of conversations is A: B, A: C, A: D, the user A is the caller. When the combination of speech is B: C, B: D, C: D, A is a listener. The listener A can hear both voices because the reception permission is set for both in the B: C conversation. In addition, since the listener A sets the reception refusal for D, only the voice of B can be heard in the conversation of B: D, and only the voice of C can be heard in the conversation of C: D.

傍聴者Bは、A,C,Dに対して受信許可を設定しているので、A:Cの会話、A:Dの会話、およびC:Dの会話のいずれの場合も両者の声が聞こえる。傍聴者Cは、Aに対して受信拒否を設定しているので、A:Bの会話ではBの声だけが聞こえ、A:Dの会話ではDの声だけが聞こえる。また傍聴者Cは、B:Dの会話では両者に対して受信許可を設定しているので両者の声が聞こえる。傍聴者Dは、A,B,Cに対して受信許可を設定しているので、A:Bの会話、A:Cの会話、およびB:Cの会話のいずれの場合も両者の声が聞こえる。   The listener B sets the reception permission for A, C, and D, so both of the A: C conversation, the A: D conversation, and the C: D conversation can hear both voices. . Since the listener C sets the reception refusal with respect to A, only the voice of B can be heard in the conversation of A: B, and only the voice of D can be heard in the conversation of A: D. Also, in the B: D conversation, the listener C has set reception permission for both parties, so both voices can be heard. The listener D sets the reception permission for A, B, and C. Therefore, in both cases of the A: B conversation, the A: C conversation, and the B: C conversation, the both voices can be heard. .

なお、図5では、会話がユーザー4人のうち1:1で行われる場合のみを示しているが、会話が3人以上のユーザーで行われる場合についても、傍聴者は、受信許可を設定している発信者の声を聞くことができる。   Although FIG. 5 shows only the case where the conversation is conducted at 1: 1 among the four users, the listener sets the reception permission even when the conversation is conducted by three or more users. Can hear the voice of the caller.

このように、本実施形態では、自分が直接的に参加していない会話について、会話に参加している人がフォロー対象者であるか否かによって、話が聞こえるようにするか否かを選択できる。そのため、例えば、フォロー対象者が会話を始めたらその会話に聞き耳を立てることで、その会話から偶発的に必要な情報を得ることや、その会話に途中から参加することが可能となる。一方、非フォロー対象者の会話は聞こえないので、自分の作業に集中して取り組むことが可能となる。すなわち、図3の比較例1および比較例2では聞きたくない人の会話も含め周りの声が終始聞こえるのに対して、本実施形態では聞きたい人の会話だけを選択的に聞くことができる。なお、特許文献1に記載のシステムでは、TV電話機能付き携帯電話端末で通話を行うユーザー同士のみでの会話となるため、第3者がその会話を聞くことはできない。   As described above, in the present embodiment, it is selected whether or not to speak depending on whether or not the person participating in the conversation is the person to be followed regarding the conversation in which the user is not directly participating. it can. Therefore, for example, when the person to be followed starts a conversation, by listening to the conversation, it becomes possible to obtain necessary information from the conversation incidentally and to participate in the conversation halfway. On the other hand, since the conversations of the non-followers can not be heard, it is possible to concentrate on their own work. That is, in Comparative Example 1 and Comparative Example 2 of FIG. 3, while the surrounding voice including the conversation of the person who does not want to hear can hear all the time, in the present embodiment, only the conversation of the person who wants to hear can be selectively heard. . In the system described in Patent Document 1, the third party can not hear the conversation because the conversation is only between the users who make a call on the mobile phone terminal with the video telephone function.

<情報処理装置の制御方法>
次に、第1の実施形態に係る情報処理装置100の制御方法を、図6を参照して説明する。図6は、第1の実施形態に係る情報処理装置の制御方法を説明するフローチャートである。
<Control Method of Information Processing Device>
Next, a control method of the information processing apparatus 100 according to the first embodiment will be described with reference to FIG. FIG. 6 is a flowchart for explaining the control method of the information processing apparatus according to the first embodiment.

上述したように、各ユーザーの端末(情報処理装置100)は、ネットワーク接続部116(図1参照)により、ネットワーク200に接続されている(図2参照)。そして、会話が行なわれていない通常状態において、各ユーザーの端末では、マイク111、スピーカー112、カメラ113、および表示部114(図1参照)がオフに設定されている。本実施形態では、自宅を含むリモートオフィスにユーザーが一人で勤務する形態を想定している。したがって、リモートオフィス内にプライベートな環境や音声等が混在する場合があり得るため、ユーザーの音声や映像を、通常状態では発信せず会話が必要な場合にのみ発信することとしている。   As described above, the terminal (information processing apparatus 100) of each user is connected to the network 200 by the network connection unit 116 (see FIG. 1) (see FIG. 2). Then, in a normal state in which a conversation is not being performed, the microphone 111, the speaker 112, the camera 113, and the display unit 114 (see FIG. 1) are set to be off in the terminal of each user. In this embodiment, it is assumed that the user works alone at a remote office including a home. Therefore, since there may be cases where a remote environment, voice and the like are mixed in the remote office, the voice and video of the user are not sent in the normal state, but only when a conversation is necessary.

図6には、会話を開始してから会話が終了するまでの間にユーザーの端末で行われる処理が示されている。会話は、ユーザーの誰か(発信者)が会話をしたい相手(受信者)の呼び出しを行うことで開始される。ここでは、他者が発信者であり、自分が受信者である場合を例に取り説明する。図6において、ステップS01からステップS03までの各ステップは発信者(他者)の端末の動作であり、ステップS04からステップS13までのステップは受信者(自分)の端末の動作である。   FIG. 6 shows the processing performed at the user's terminal between the start of the conversation and the end of the conversation. A conversation is started when someone (the originator) of the user calls the other party (the recipient) who wants to have a conversation. Here, the case where the other person is the sender and the user is the receiver will be described as an example. In FIG. 6, each step from step S01 to step S03 is the operation of the terminal of the sender (other), and the step from step S04 to step S13 is the operation of the terminal of the receiver (self).

まず、会話を開始するため、発信者自身が手動で端末のマイク111をオンに設定して(ステップS01)、相手の受信者に対して呼び出しを行う。マイク111は、発信者の音声を集音する。ステップS02では、制御部110は、マイク111が集音し変換した発信者の音声信号をパケット化する。そして、ステップS03で、制御部110がパケット化した音声パケットを送信部117がネットワーク200に送信する。音声パケットは、ネットワーク200に接続されたユーザー全員(受信者)の端末に送信される。   First, in order to start a conversation, the sender manually sets the microphone 111 of the terminal to ON (step S01), and makes a call to the receiver of the other party. The microphone 111 collects the voice of the caller. In step S02, the control unit 110 packetizes the voice signal of the sender collected and converted by the microphone 111. Then, in step S03, the transmission unit 117 transmits the voice packet packetized by the control unit 110 to the network 200. The voice packet is transmitted to the terminals of all users (receivers) connected to the network 200.

ステップS04では、発信者の端末から送信された音声パケットを、受信者(自分)の端末の受信部118がネットワーク200から受信する。ステップS05は、受信した音声パケットを解析するステップである。ステップS05では、音声解析部119が、音声認識技術を用いて、発信者から呼び出されたユーザーの名前を特定する。そして、続くステップS06で、端末のユーザーである自分に対する呼び出しであるか否かを判断する。   In step S04, the receiving unit 118 of the terminal of the receiver (self) receives the voice packet transmitted from the terminal of the sender from the network 200. Step S05 is a step of analyzing the received voice packet. In step S05, the speech analysis unit 119 specifies the name of the user called from the caller using speech recognition technology. Then, in the subsequent step S06, it is determined whether or not the call is for the user who is the terminal user.

ステップS06で自分に対する呼び出しであると判断された場合(ステップS06:YES)、発信者がフォロー対象者であるか否かに関わらず、制御部110は処理をステップS08およびステップS11に進める。ステップS08では、制御部110はスピーカー112をオンにする。ステップS11では、制御部110はマイク111をオンにする。したがって、ステップS06は、ステップS05の音声パケットを解析するステップで解析した結果に基づいて、マイク111とスピーカー112との動作状態を制御するステップである。   If it is determined in step S06 that it is a call to itself (step S06: YES), the control unit 110 advances the process to step S08 and step S11 regardless of whether the sender is a follow target person. At step S08, control unit 110 turns on speaker 112. In step S11, the control unit 110 turns on the microphone 111. Therefore, step S06 is a step of controlling the operation state of the microphone 111 and the speaker 112 based on the result of analysis in the step of analyzing the voice packet in step S05.

ステップS06で音声パケットの解析結果が自分への呼び出し要求であると判断されると、マイク111とスピーカー112とが自動でオンになるので、受信者(自分)は、手動で操作しなくても、スピーカー112により発信者の声を聞くとともに、マイク111により発信者に対して自分の音声(音声パケット)を発信して相手に話しかけることができる。すなわち、特段の接続操作を行わなくても、発信者が呼びかけることにより、呼びかけられた受信者との間で会話を開始することができる。   If it is determined in step S06 that the analysis result of the voice packet is a call request for itself, the microphone 111 and the speaker 112 are automatically turned on, so the receiver (self) does not have to operate it manually. The speaker 112 can hear the voice of the caller and the microphone 111 can transmit his / her voice (voice packet) to the caller and talk to the other party. That is, even if the special connection operation is not performed, the caller can initiate a conversation with the called recipient by calling.

なお、受信者は、発信者に対して応答することで、自分も音声パケットを送信する発信者となる。ステップS08およびステップS11でマイク111とスピーカー112とがオンになり会話が続いている間は、発信者の端末と自分の端末との間で、ネットワーク200を介して音声パケットの送受信が行われる。そして、自分を呼び出した発信者から自端末が受信した音声パケットは、発信者がフォロー対象者であるか否かに関わらず、音声信号に変換されスピーカー112で再生される。   Note that the receiver responds to the sender and thereby becomes a sender who transmits the voice packet. While the microphone 111 and the speaker 112 are turned on in steps S08 and S11 and the conversation continues, transmission and reception of voice packets are performed between the caller terminal and the own terminal via the network 200. Then, the voice packet received by the own terminal from the caller who called the user is converted into a voice signal and reproduced by the speaker 112 regardless of whether the sender is a follow target person or not.

ステップS09およびステップS12では、制御部110は、会話が終了したか否かを判断する。自分と呼びかけた相手との会話が終了すれば、自分の端末において、発信者の端末からの音声パケットの受信と、発信者の端末への音声パケットの送信とがともに行われなくなる。したがって、最後に音声パケットの受信または送信が行われた時点から、音声パケットの送受信が無い状態で所定の時間が経過した場合に、会話が終了したと判断される。   In steps S09 and S12, control unit 110 determines whether the conversation has ended. When the conversation between the calling party and the called party ends, both of the receiving of the voice packet from the calling party's terminal and the sending of the voice packet to the calling party's terminal are not performed at the own terminal. Therefore, it is determined that the conversation is ended when a predetermined time has passed without voice packet transmission / reception since the voice packet was received or transmitted last.

音声パケットの送受信が無い状態で所定の時間が経過し、ステップS09で会話が終了したと判断された場合(ステップS09:YES)、制御部110は処理をステップS10に進める。ステップS10では、制御部110はスピーカー112をオフにする。ステップS09で会話が終了していないと判断された場合(ステップS09:NO)は、制御部110はそのままの状態でステップS09に処理を戻す。   If it is determined in step S09 that the conversation has ended (step S09: YES), control unit 110 advances the process to step S10. In step S10, the control unit 110 turns off the speaker 112. If it is determined in step S09 that the conversation has not ended (step S09: NO), the control unit 110 returns the process to step S09 as it is.

なお、後述するが、ステップS07からステップS08に進んだ場合には、受信者(自分)は傍聴者であるので、発信者からの音声パケットの受信のみとなる。したがって、この場合、ステップS09では、音声パケットの受信が無い状態で所定の時間が経過した場合に、会話が終了したと判断される。   Although described later, when the process proceeds from step S07 to step S08, since the receiver (self) is a listener, only the reception of the voice packet from the sender is performed. Therefore, in this case, in step S09, it is determined that the conversation has ended when a predetermined time has elapsed without receiving a voice packet.

ステップS12では、ステップS06からステップS11に進んだことで、発信者と自分とが会話をしているので、音声パケットの送信と受信とがともに無い状態で所定の時間が経過した場合に、会話が終了したと判断される。ステップS12で会話が終了したと判断された場合(ステップS12:YES)、制御部110は処理をステップS13に進める。ステップS13では、制御部110はマイク111をオフにする。ステップS12で会話が終了していないと判断された場合(ステップS12:NO)は、そのままの状態でステップS12に処理を戻す。   In step S12, the process proceeds from step S06 to step S11, and since the caller and the user are in a conversation, the conversation occurs when a predetermined time has elapsed without transmission and reception of voice packets. Is judged to have ended. If it is determined in step S12 that the conversation has ended (step S12: YES), control unit 110 advances the process to step S13. In step S13, the control unit 110 turns off the microphone 111. If it is determined in step S12 that the conversation has not ended (step S12: NO), the process returns to step S12 as it is.

会話が終了して、ステップS10でスピーカー112がオフになり、ステップS13でマイク111がオフになることで、会話に関わる各ステップの処理が終了し、発信者の端末と受信者の端末とが通常状態に戻る。   When the conversation ends, the speaker 112 is turned off in step S10, and the microphone 111 is turned off in step S13, the processing of each step related to the conversation is ended, and the caller terminal and the receiver terminal Return to normal condition.

ステップS06に戻り、ステップS06で自分に対する呼び出しではないと判断された場合(ステップS06:NO)、制御部110は処理をステップS07に移行する。ステップS07では、制御部110は、音声パケットを発信した発信者がフォロー対象者であるか否か、すなわち受信者の端末で受信許可が設定された対象者であるか否かを判断する。ステップS07の判断は、例えば、発信者のIDやIPアドレス等に基づいて行われる。   Returning to step S06, if it is determined in step S06 that it is not a call to itself (step S06: NO), control unit 110 transfers the process to step S07. In step S07, control unit 110 determines whether the sender who has sent the voice packet is a follow target person, that is, whether the receiver terminal is a target person for which reception permission is set. The determination in step S07 is performed based on, for example, the ID or IP address of the sender.

ステップS07で、音声パケットを発信した発信者がフォロー対象者であると判断された場合(ステップS07:YES)、すなわち、音声パケットが自端末への呼び出し要求ではなく、かつ、自端末が受信許可を与えている他端末から送信されたものである場合に、制御部110は、処理をステップS08に進め、ステップS08でスピーカー112をオンにする。   If it is determined in step S07 that the caller who sent the voice packet is the person to be followed (step S07: YES), that is, the voice packet is not a call request to the own terminal, and the own terminal is permitted to receive When the control unit 110 transmits the process to step S08, the control unit 110 turns on the speaker 112 in step S08.

したがって、フォロー対象者に対して予め受信許可を与えておけば、自分が呼び出しを受けていない場合であっても、特段の接続操作を行うことなくフォロー対象者が会話を始めたことがわかりそのフォロー対象者の会話を聞くことができる。この場合、受信者(自分)は、会話に参加しない傍聴者であるが、これにより、例えば、自分の業務と関係する話題や関心のある話題に対して聞き耳を立てることができる。   Therefore, if the follow target person is given permission to receive in advance, it is understood that the follow target person has started conversation without performing a special connection operation even if he / she has not received a call. You can listen to the conversations of the person being followed. In this case, the recipient (self) is a listener who does not participate in the conversation, but this allows, for example, listening to a topic related to his / her work or a topic of interest.

ここで、他端末から受信する音声パケットには、会話を開始する際の呼び出しの他に、既に会話が開始されてから送信された音声パケットも含まれる。そして、既に会話が開始されてから送信された音声パケットには、会話を呼びかけた発信者から送信された音声パケットと、その会話の相手から送信された音声パケットとが含まれる。会話が続いている間は、会話に参加している複数のユーザーから音声パケットが交互に(時にはほぼ同期して)発信される。   Here, the voice packet received from the other terminal includes the voice packet transmitted after the conversation has already been started, in addition to the call for starting the conversation. Then, the voice packet transmitted after the conversation has already started includes the voice packet transmitted from the calling party who called for the conversation and the voice packet transmitted from the other party of the conversation. While the conversation continues, voice packets are emitted alternately (sometimes almost synchronously) from multiple users participating in the conversation.

そのため、ステップS06で自分に対する呼び出しではないと判断された場合(ステップS06:NO)には、受信した音声パケットが、自分以外の相手に会話を呼びかけた発信者から送信されたものである場合と、発信者が呼びかけた相手から送信されたものである場合とが含まれる。したがって、非フォロー対象者がフォロー対象者に呼びかけて会話を行っている場合にも、両者の端末から音声パケットを受信する。   Therefore, if it is determined in step S06 that the received voice packet is not a call to oneself (step S06: NO), the received voice packet is one transmitted from a caller who has called a conversation to a party other than oneself. , The case where it is what was sent from the person whom the originator called. Therefore, even when the non-follow target person calls the follow target person and talks, the voice packet is received from both terminals.

ステップS07では、上記のいずれの場合であっても、音声パケットを発信した発信者がフォロー対象者であるか否かを判断する。発信者の少なくとも一人がフォロー対象者であれば、制御部110は、処理をステップS08に進めスピーカー112をオンにする。   In step S07, in any of the above cases, it is determined whether the sender who has sent the voice packet is a person to be followed. If at least one of the senders is a person to be followed, the control unit 110 advances the process to step S08 and turns on the speaker 112.

ここで、発信者の一方がフォロー対象者であり他方が非フォロー対象者である場合は、制御部110は、フォロー対象者から送信された音声パケットのみをスピーカー112で再生する。したがって、図5を参照して説明したように、自分が呼び出されていない会話において、会話がフォロー対象者同士で行われている場合は両者の声が聞こえ、会話が非フォロー対象者とフォロー対象者とで行われている場合はフォロー対象者の声のみが聞こえる。   Here, when one of the senders is a follow target person and the other is a non-follow target person, the control unit 110 reproduces only the voice packet transmitted from the follow target person using the speaker 112. Therefore, as described with reference to FIG. 5, in a conversation in which oneself is not called, if a conversation is being performed between persons to be followed, both voices can be heard, and a person to be followed in conversation is not to be followed and If it is done with a person, only the voice of the person being followed can be heard.

ステップS07からステップS08に進んだ場合、受信者(自分)は傍聴者であるので、会話に参加しているフォロー対象のユーザーからの音声パケットの受信が無い状態で所定の時間が経過した場合に、ステップS09で会話が終了したと判断される。ステップS09で会話が終了したと判断されると(ステップS09:YES)、制御部110は処理をステップS10に進めてスピーカー112をオフにする。これにより、会話の傍聴に関する処理が終了する。   When the process proceeds from step S07 to step S08, since the receiver (self) is a hearing person, a predetermined time has elapsed without receiving a voice packet from the user who is the subject of follow who is participating in the conversation. At step S09, it is determined that the conversation has ended. If it is determined in step S09 that the conversation has ended (step S09: YES), control unit 110 advances the process to step S10 to turn off speaker 112. Thus, the process regarding hearing of the conversation ends.

なお、ステップS07からステップS08に進んで他者同士の会話を傍聴している際に、自分もその会話に参加したい場合は、マイク111をオンに設定して(ステップS01)、自分も参加する旨の呼びかけをすればよい。   It should be noted that, while proceeding from step S07 to step S08 to listen to another person's conversation, if you also want to participate in the conversation, set the microphone 111 to ON (step S01), and you also participate You may call for the effect.

ステップS07で、音声パケットを発信した発信者がフォロー対象者ではない(非フォロー対象者である)と判断された場合(ステップS07:NO)は、会話を呼びかけた人も呼びかけられた人も自分のフォロー対象者ではないことになるので、スピーカー112とマイク111とはオフのままで音声パケット受信に伴う処理が終了する。このように、非フォロー対象者同士の会話は聞こえないので、不要な音声が無い環境で自分の作業に集中することが可能となる。   If it is determined in step S07 that the caller who sent the voice packet is not the person to be followed (the person not to be followed) (step S07: NO), both the person who has called for the conversation and the person who has been called also himself Since the speaker 112 and the microphone 111 remain off, the processing associated with the voice packet reception is ended. As described above, since the conversation between the non-following persons can not be heard, it is possible to concentrate on one's work in an environment where there is no unnecessary voice.

以上の説明では、カメラ113および表示部114について述べなかったが、マイク111をオン/オフするステップでカメラ113もオン/オフし、スピーカー112をオン/オフするステップで表示部114もオン/オフするようにしてもよい。これにより、音声パケットとともに映像パケットを端末間で送受信することができる。ただし、リモートオフィス内にプライベートな環境が混在すること等、状況により映像を公開したくない場合がある。したがって、カメラ113は、いずれのステップにおいても自動でオンにはならず、ユーザーの判断により手動でオンにすることとしてもよい。   Although the camera 113 and the display unit 114 have not been described above, the camera 113 is also turned on / off in the step of turning on / off the microphone 111 and the display unit 114 is also turned on / off in the step of turning on / off the speaker 112. You may do it. Thereby, the video packet can be transmitted and received between the terminals together with the audio packet. However, there may be cases where you do not want to release the video depending on the situation, such as when there is a mixture of private environments in the remote office. Therefore, the camera 113 may not be turned on automatically at any step, and may be turned on manually at the discretion of the user.

第1の実施形態に係る情報処理装置100の構成および情報処理装置の制御方法によれば、以下の効果が得られる。   According to the configuration of the information processing apparatus 100 and the control method of the information processing apparatus in the first embodiment, the following effects can be obtained.

(1)自端末において、受信部118が他端末から受信した音声パケットを音声解析部119が解析した結果に基づいて、制御部110が自端末のマイク111とスピーカー112との動作状態を制御する。したがって、音声パケットの解析結果に応じて、自端末のスピーカー112を動作状態(オン)にして他のユーザーの話を聞くことができる。また、自端末のマイク111を動作状態(オン)にして音声パケットを送信し他のユーザーに話しかけてもよい。これにより、情報処理装置100がネットワーク200に接続されたユーザー同士で会話を行うことができる。そして、情報処理装置100がネットワーク200に接続されていれば、会話に直接的に参加していないユーザーが、他のユーザー同士の会話を傍聴して偶発的に情報を得ることや、その会話に途中から参加することが可能となる。   (1) In the own terminal, the control unit 110 controls the operation state of the microphone 111 and the speaker 112 of the own terminal based on the result of the speech analysis unit 119 analyzing the voice packet received by the receiving unit 118 from the other terminal. . Therefore, according to the analysis result of the voice packet, the speaker 112 of the own terminal can be operated (turned on) to hear the other user's talk. Alternatively, the microphone 111 of the own terminal may be activated (turned on) to transmit an audio packet and talk to another user. Thus, the users connected to the network 200 can talk with each other. Then, if the information processing apparatus 100 is connected to the network 200, users who are not directly involved in the conversation can listen to the conversations between other users and get information on an incidental basis, or in the conversation It is possible to participate from the middle.

(2)音声パケットの解析結果が自端末への呼び出し要求である場合に、制御部110がマイク111とスピーカー112とを動作状態(オン)とする。したがって、他のユーザーから呼び出しがあった場合に、呼び出しを受けたユーザーが手動で操作しなくても、相手の話を聞くことや相手に話しかけることができる。   (2) When the analysis result of the voice packet is a call request to the own terminal, the control unit 110 brings the microphone 111 and the speaker 112 into an operation state (on). Therefore, when another user receives a call, the called user can listen to or talk to the other person without manual operation.

(3)音声パケットの解析結果が自端末への呼び出し要求ではなくても、自端末が受信許可を与えている他端末から音声パケットが送信されたものである場合に、制御部110がスピーカー112を動作状態(オン)とする。したがって、ユーザーが話を聞きたい(フォローしたい)と思うフォロー対象者に対して予め受信許可を与えておくことで、呼び出しを受けていないユーザーであっても、フォロー対象者が他のユーザーと会話を始めたことがわかる。そして、その相手の会話を聞くことができる。   (3) Even if the analysis result of the voice packet is not a call request to the own terminal, the control unit 110 controls the speaker 112 when the voice packet is transmitted from another terminal whose own terminal has given reception permission. Is turned on (on). Therefore, by giving permission to receive the follow target person that the user wants to listen to (follow) the reception target, the follow target person talks with other users even if the user is not called I understand that I started. And I can hear the conversation of the other party.

(4)映像パケットとともに受信した音声パケットの解析結果が自端末への呼び出し要求である場合や、自端末への呼び出し要求でなくてもフォロー対象者から送信された音声パケットである場合に、自端末の表示部114を動作状態(オン)にして受信した映像パケットに基づく映像を見ることや、自端末のカメラ113を動作状態(オン)にして他のユーザーに映像を送信することが可能となる。これにより、音声情報だけでなく映像情報も用いたコミュニケーションが可能となる。   (4) If the analysis result of the audio packet received together with the video packet is a call request to the own terminal, or if it is an audio packet transmitted from the person to be followed even if it is not a call request to the own terminal, It is possible to view a video based on the received video packet by setting the display unit 114 of the terminal to the operating state (on), and to transmit a video to another user by setting the camera 113 of the own terminal to the operating state (on) Become. This enables communication using not only audio information but also video information.

(5)情報処理装置の制御方法は、ネットワーク200から受信した音声パケットを解析するステップで解析した結果に基づいて、情報処理装置100のマイク111とスピーカー112との動作状態を制御するステップを有する。したがって、音声パケットの解析結果に応じて、端末のスピーカー112を動作状態にしてユーザーが他のユーザーの話を聞くことや、端末のマイク111を動作状態にしてユーザーが他のユーザーに話しかけることが可能となる。これにより、会話に直接的に参加していないユーザーが、他のユーザー同士の会話を傍聴して偶発的に情報を得ることや、その会話に途中から参加することが可能となる。   (5) The control method of the information processing device has the step of controlling the operation state of the microphone 111 and the speaker 112 of the information processing device 100 based on the result of analysis in the step of analyzing the voice packet received from the network 200 . Therefore, depending on the analysis result of the voice packet, the user may activate the speaker 112 of the terminal to listen to the other user, or the user may activate the microphone 111 of the terminal to talk to the other user. It becomes possible. This enables a user who is not directly involved in a conversation to listen to conversations between other users and get information on an occasional basis, or to participate in the conversation from the middle.

(第2の実施形態)
第2の実施形態では、第1の実施形態に対して、複数の端末とサーバーとがネットワークで接続されたシステムである点が異なる。ここでは、第2の実施形態に係るシステムの構成について、第1の実施形態との差異を説明する。
Second Embodiment
The second embodiment differs from the first embodiment in that it is a system in which a plurality of terminals and servers are connected by a network. Here, the difference from the first embodiment will be described in the configuration of the system according to the second embodiment.

<システムの構成>
第2の実施形態に係るシステムの構成を、図7および図8を参照して説明する。図7は、第2の実施形態に係るシステムの概略構成を示す図である。図7に示すように、第2の実施形態に係るシステム500は、ユーザー用の端末である複数の情報処理装置100と、サーバー300と、データベース400とが、ネットワーク200を介して互いに接続されている。以下では、情報処理装置100を単に端末とも表記する。
<System configuration>
The configuration of a system according to the second embodiment will be described with reference to FIGS. 7 and 8. FIG. 7 is a diagram showing a schematic configuration of a system according to the second embodiment. As shown in FIG. 7, in the system 500 according to the second embodiment, a plurality of information processing apparatuses 100 which are terminals for users, a server 300, and a database 400 are mutually connected via the network 200. There is. Hereinafter, the information processing apparatus 100 is also simply referred to as a terminal.

図8は、第2の実施形態に係るサーバーの概略構成を示すブロック図である。図8に示すように、第2の実施形態に係るサーバー300は、制御部310と、ネットワーク接続部311と、音声解析部312と、サーバー受信部313と、サーバー送信部314とを備えている。   FIG. 8 is a block diagram showing a schematic configuration of a server according to the second embodiment. As shown in FIG. 8, the server 300 according to the second embodiment includes a control unit 310, a network connection unit 311, a voice analysis unit 312, a server reception unit 313, and a server transmission unit 314. .

制御部310は、サーバー300が備える各部の動作を制御する。制御部310は、CPU、ROM、RAMなど(図示しない)を備えている。ネットワーク接続部311は、サーバー300をネットワーク200に接続する。サーバー受信部313は、ネットワーク200を介して各端末から送信された音声パケットを受信する。なお、各端末から送信された音声パケットは、ネットワーク200を介して他端末も受信する。   The control unit 310 controls the operation of each unit provided in the server 300. The control unit 310 includes a CPU, a ROM, a RAM, and the like (not shown). The network connection unit 311 connects the server 300 to the network 200. The server reception unit 313 receives voice packets transmitted from each terminal via the network 200. The voice packet transmitted from each terminal is also received by other terminals via the network 200.

音声解析部312は、サーバー受信部313が各端末から受信した音声パケットを解析し、音声認識技術を用いて、呼び出されたユーザーの名前を特定する。したがって、第2の実施形態では、サーバー300の音声解析部312が図6のステップS05の処理を実行する。   The speech analysis unit 312 analyzes the speech packet received from each terminal by the server reception unit 313, and specifies the name of the called user using speech recognition technology. Therefore, in the second embodiment, the voice analysis unit 312 of the server 300 executes the process of step S05 of FIG.

制御部310は、音声パケットを発信した端末のユーザーを特定する。そして、制御部310は、音声解析部312の解析結果に基づいて、呼び出されたユーザーの端末に対するコマンドを生成する。このコマンドは、呼び出されたユーザーの端末に対して、例えば、図6に示すステップS08でスピーカー112をオンにする処理を実行させるコマンドや、ステップS11でマイク111をオンにする処理を実行させるコマンドを含む。   Control unit 310 identifies the user of the terminal that has originated the voice packet. Then, based on the analysis result of the speech analysis unit 312, the control unit 310 generates a command for the terminal of the called user. This command causes the terminal of the called user to execute, for example, a command for turning on the speaker 112 in step S08 shown in FIG. 6 or a command for turning on the microphone 111 in step S11. including.

サーバー送信部314は、制御部310が生成したコマンドを、呼び出されたユーザーの端末を指定して、ネットワーク200に送信する。呼び出されたユーザーの端末は、サーバー300から受信したコマンドに基づいて、スピーカー112やマイク111をオンにする処理を実行する。したがって、第2の実施形態では、サーバー300の制御部310が図6のステップS06の処理を実行する。   The server transmission unit 314 transmits the command generated by the control unit 310 to the network 200 by designating the terminal of the called user. The terminal of the called user executes processing to turn on the speaker 112 and the microphone 111 based on the command received from the server 300. Therefore, in the second embodiment, the control unit 310 of the server 300 executes the process of step S06 in FIG.

データベース400は、記憶部で構成される。データベース400には、ネットワーク200を介して互いに接続される登録ユーザーに関する情報(例えば、登録ユーザーの名前、ID、IPアドレス、所属するグループ名等)が記憶されている。また、データベース400には、登録ユーザー同士の間のフォロー関係(受信許可または受信拒否の設定)のテーブルが記憶されている。登録ユーザーに関する情報や登録ユーザー同士の間のフォロー関係のテーブルは、ユーザーが各自の端末を操作することにより更新することができる。   The database 400 is configured of a storage unit. The database 400 stores information (for example, registered user's name, ID, IP address, belonging group name, etc.) about registered users mutually connected via the network 200. In addition, in the database 400, a table of follow relationships (setting of reception permission or reception rejection) between registered users is stored. The information on registered users and the table of follow relationships between registered users can be updated by the user operating his or her terminal.

制御部310は、データベース400の登録ユーザーに関する情報を参照して、各端末から受信した音声パケットがどのユーザーの端末から送信されたものであるかを判断する。さらに、制御部310は、データベース400の登録ユーザー同士の間のフォロー関係のテーブルを参照して、音声パケットを送信したユーザーをフォロー対象者としているユーザーを特定する。   The control unit 310 refers to the information on the registered user of the database 400, and determines which user's terminal the voice packet received from each terminal has been transmitted from. Furthermore, the control unit 310 refers to the table of the follow relationship between the registered users of the database 400, and identifies the user who has made the user who transmitted the voice packet the follow target person.

そして、制御部310は、音声パケットを受信したユーザーの端末に対して、そのユーザーのフォロー対象者から送信された音声パケットをスピーカー112で再生させるコマンドを生成する。サーバー送信部314は、制御部310が生成したこのコマンドを、ネットワーク200を介してユーザーの端末に送信する。したがって、第2の実施形態では、サーバー300の制御部310が図6のステップS07の処理を実行する。   Then, the control unit 310 generates, for the terminal of the user who has received the voice packet, a command to cause the speaker 112 to reproduce the voice packet transmitted from the person to be followed by the user. The server transmission unit 314 transmits this command generated by the control unit 310 to the terminal of the user via the network 200. Therefore, in the second embodiment, the control unit 310 of the server 300 executes the process of step S07 in FIG.

また、制御部310は、会話が行われている場合にその会話に参加しているユーザー同士の間で行われる音声パケットの送受信状況から、その会話が終了したか否かを判断する。この判断結果に基づいて、制御部310は、ユーザーの端末に対して、例えば、図6に示すステップS10でスピーカー112をオフにするコマンドや、ステップS13でマイク111をオフにするコマンドを生成する。したがって、第2の実施形態では、サーバー300の制御部310が図6のステップS09およびステップS12の処理を実行する。   Further, the control unit 310 determines whether or not the conversation has ended from the transmission / reception status of voice packets performed between the users participating in the conversation when the conversation is being performed. Based on the determination result, the control unit 310 generates, for example, a command to turn off the speaker 112 in step S10 shown in FIG. 6 or a command to turn off the microphone 111 in step S13. . Therefore, in the second embodiment, the control unit 310 of the server 300 executes the processing of step S09 and step S12 of FIG.

このように、第2の実施形態に係るシステム500では、第1の実施形態に係る情報処理装置100の音声解析部119の機能をサーバー300の音声解析部312が実行する。そのため、情報処理装置100の音声解析部119を省略できる。そして、情報処理装置100の制御部110の機能の要部をサーバー300の制御部310が実行する。例えば、各端末は、上記ステップにおいてサーバー300から送信されるコマンドに基づいて、マイク111とスピーカー112との動作状態の制御等の個別の制御を行えばよい。そのため、情報処理装置100の制御部110を簡易な構成にできる。   Thus, in the system 500 according to the second embodiment, the voice analysis unit 312 of the server 300 executes the function of the voice analysis unit 119 of the information processing apparatus 100 according to the first embodiment. Therefore, the voice analysis unit 119 of the information processing apparatus 100 can be omitted. Then, the control unit 310 of the server 300 executes the main part of the function of the control unit 110 of the information processing apparatus 100. For example, each terminal may perform individual control such as control of the operation state of the microphone 111 and the speaker 112 based on the command transmitted from the server 300 in the above steps. Therefore, the control unit 110 of the information processing apparatus 100 can be configured simply.

したがって、第2の実施形態では、第1の実施形態と比べて各端末(情報処理装置100)を簡易な構成の装置とすることができる。また、第2の実施形態では、登録ユーザーに関する情報やユーザー同士の間のフォロー関係のテーブルがデータベース400に記憶されるので、これらの情報を一元管理することができる。なお、データベース400の機能をサーバー300が兼ね備える構成としてもよい。   Therefore, in the second embodiment, each terminal (the information processing apparatus 100) can be configured as a device having a simple configuration as compared with the first embodiment. Further, in the second embodiment, since information related to registered users and a table of follow relationships between users are stored in the database 400, such information can be centrally managed. The server 300 may have the function of the database 400.

第2の実施形態に係るシステム500の構成によれば、以下の効果が得られる。   According to the configuration of the system 500 of the second embodiment, the following effects can be obtained.

(1)サーバー300では、端末から送信されサーバー受信部313がネットワーク200から受信した音声パケットを音声解析部312が解析した結果に基づいて、サーバー送信部314が音声パケットで呼び出されたユーザーの端末や、音声パケットの送信者をフォロー対象者とするユーザーの端末に、コマンドを送信する。呼び出されたユーザーの端末や音声パケットの送信者をフォロー対象者とするユーザーの端末では、他端末から送信された音声パケットとサーバー300から送信されたコマンドとを受信部118が受信し、制御部110がコマンドに基づいて、マイク111とスピーカー112との動作状態を制御する。したがって、サーバー300による音声パケットの解析結果に応じて、自端末のスピーカー112を動作状態にして他のユーザーの話を聞くことや、自端末のマイク111を動作状態にして音声パケットを送信し他のユーザーに話しかけることが可能となる。これにより、複数の端末とサーバー300とがネットワーク200で接続されたシステム500で、会話に直接的に参加していないユーザーが、他のユーザー同士の会話から偶発的に情報を得ることや、その会話に途中から参加することが可能となる。   (1) In the server 300, based on the result of the voice analysis unit 312 analyzing the voice packet transmitted from the terminal and received by the server reception unit 313 from the network 200, the server transmission unit 314 uses the voice packet to call the user's terminal. Or send a command to the terminal of the user whose target is the sender of the voice packet. In the terminal of the called user or the terminal of the user whose sender is the voice packet sender, the receiving unit 118 receives the voice packet transmitted from the other terminal and the command transmitted from the server 300, and the control unit Reference numeral 110 controls the operation state of the microphone 111 and the speaker 112 based on the command. Therefore, according to the analysis result of the voice packet by the server 300, the speaker 112 of the own terminal is operated to listen to the other user's talk, and the microphone 111 of the own terminal is operated to transmit the voice packet It is possible to talk to the users of Thus, in the system 500 in which a plurality of terminals and the server 300 are connected by the network 200, a user who is not directly participating in a conversation may accidentally obtain information from a conversation between other users, It becomes possible to participate in the conversation from the middle.

上記実施形態は、あくまでも本発明の一態様を示すものであり、本発明の範囲内で任意に変形および応用が可能である。変形例としては、例えば、以下のようなものが考えられる。   The above embodiment merely shows one aspect of the present invention, and any modification and application can be made within the scope of the present invention. As a modification, for example, the following can be considered.

(変形例1)
上記実施形態では、一人で勤務する複数のリモートオフィス(自宅を含む)の間でユーザー同士がネットワークを介して接続されている構成例を示して説明したが、本発明はこのような構成に限定されない。例えば、複数のユーザーが勤務するメインオフィスと複数のリモートオフィスとがネットワークを介して接続された構成であってもよい。このような構成の場合に、メインオフィスにおける複数のユーザー同士の会話音声が常時発信され、各リモートオフィスで聞くことができることとしてもよい。また、メインオフィスにおける映像が常時発信され、各リモートオフィスで見られることとしてもよい。このようにすれば、各リモートオフィスに勤務するユーザーが、疑似的にメインオフィスにいるような感覚で作業を行うことができる。
(Modification 1)
In the above embodiment, the configuration example in which users are connected via a network between a plurality of remote offices (including homes) who work alone is described, but the present invention is limited to such a configuration. I will not. For example, the configuration may be such that a main office where a plurality of users work and a plurality of remote offices are connected via a network. In such a configuration, conversational voices of a plurality of users in the main office may be constantly transmitted and may be heard at each remote office. Also, the video in the main office may be transmitted constantly and viewed in each remote office. In this way, it is possible for the users working at each remote office to work as if they were virtually at the main office.

(変形例2)
第2の実施形態では、各端末から送信された音声パケットの送信者が受信者にとってフォロー対象者であるか否かに関わらず、その音声パケットが他端末にも送信されることとしたが、本発明はこのような構成に限定されない。各端末から送信された音声パケットはまずサーバー300に送信され、音声パケットを送信した発信者から呼び出されたユーザー、および、音声パケットを送信した発信者をフォロー対象者としているユーザーを特定した上で、そのユーザー(受信者)に対してコマンドとともに音声パケットを送信することとしてもよい。
(Modification 2)
In the second embodiment, the voice packet is transmitted to the other terminal regardless of whether the sender of the voice packet transmitted from each terminal is a follow target person for the receiver. The present invention is not limited to such a configuration. The voice packet sent from each terminal is first sent to the server 300, and the user who has been called by the sender who sent the voice packet and the user whose target person is the sender who sent the voice packet are identified. The voice packet may be transmitted to the user (recipient) along with the command.

(変形例3)
上記実施形態では、自分に対する呼びかけでなく、かつ、発信者がフォロー対象者でない場合にはスピーカー112がオフのままであり、呼びかけに応答して会話を行う際やフォロー対象者の会話を傍聴する際にスピーカー112が自動でオンになることとしていたが、本発明はこのような構成に限定されない。自分に対する呼びかけでなく、かつ、発信者がフォロー対象者でない場合には、スピーカー112がオンとなるが音量が小さく設定され、呼びかけに応答して会話を行う際やフォロー対象者の会話を傍聴する際にスピーカー112の音量が自動で適正化される構成としてもよい。また、通常状態において、スピーカー112がオンで音量が小さく設定され、受信する音声パケットのすべてが小音量で聞こえる構成としてもよい。
(Modification 3)
In the above embodiment, when the caller is not a call and the caller is not the person to be followed, the speaker 112 remains off, and when speaking in response to the call, the conversation of the person to be followed is listened to Although the speaker 112 is automatically turned on at the time, the present invention is not limited to such a configuration. The speaker 112 is turned on but the volume is set to a low level when the caller is not a call to the caller and the caller is not a follow target person, and when listening to a conversation in response to the call or listening to the follow target person's conversation At this time, the volume of the speaker 112 may be automatically optimized. In addition, in the normal state, the speaker 112 may be turned on and the volume may be set to be small, and all the received audio packets may be heard at a small volume.

(変形例4)
上記実施形態では、自分が参加していない会話においては、誰が会話を呼びかけたかに関わらず、フォロー対象者の声は聞こえ、非フォロー対象者の声は聞こえないこととしたが、本発明はこのような構成に限定されない。フォロー対象者が会話を呼びかけた場合には、相手が非フォロー対象者であってもその声が聞こえることとしてもよい。また、非フォロー対象者が会話を呼びかけた場合には、相手がフォロー対象者であっても両者の声が聞こえないこととしてもよい。
(Modification 4)
In the above embodiment, in a conversation in which oneself does not participate, the voice of the person to be followed can be heard and the voice of the person not to be followed can not be heard regardless of who called for the conversation. It is not limited to such a configuration. When the follow target person calls for a conversation, the voice may be heard even if the other party is a non-follow target person. In addition, when the non-following person calls for a conversation, even if the other person is the following person, both voices may not be heard.

(変形例5)
上記実施形態では、自分が参加していない会話において、フォロー対象者が会話に参加していればスピーカー112がオンになりその声が聞こえることとしたが、本発明はこのような構成に限定されない。ステップS06で自分に対する呼び出しではないと判断された場合(ステップS06:NO)には、フォロー対象者の会話が音声認識によってテキスト化され、スピーカー112がオンにならないようにしてもよい。このようにすれば、自分が参加していない会話の内容を、音声ではなくテキストで確認することができる。また、テキスト化された会話の内容を、ログとして保存しておけば、会話が終了した後でユーザーの都合の良いときにフォロー対象者の会話の内容を確認することができる。音声とテキストとを併用することとしてもよい。
(Modification 5)
Although in the above embodiment the speaker 112 is turned on and the voice can be heard if the person to be followed participates in the conversation in the conversation in which the user is not participating, the present invention is not limited to such a configuration . If it is determined in step S06 that it is not a call to the user (step S06: NO), the conversation of the person to be followed may be textified by speech recognition, and the speaker 112 may not be turned on. In this way, it is possible to confirm the contents of conversations in which you have not participated by text instead of speech. In addition, if the contents of the text conversation are saved as a log, it is possible to confirm the contents of the follow person's conversation at the convenience of the user after the conversation is over. Voice and text may be used together.

(変形例6)
上記実施形態におけるスピーカー112として、ステレオスピーカーや複数の指向性スピーカーを用いて、自分に対してスピーカーから聞こえる声の位置(方向)をユーザー(A,B,C,D)毎に異ならせるようにしてもよい。このようにすれば、会話に参加している際や会話を傍聴している際に、声の位置(方向)に基づいて誰が話しているかを認識することができる。
(Modification 6)
As the speaker 112 in the above embodiment, a stereo speaker or a plurality of directional speakers are used so that the position (direction) of the voice heard from the speaker relative to oneself is made different for each user (A, B, C, D). May be In this way, when participating in a conversation or watching a conversation, it is possible to recognize who is speaking based on the position (direction) of the voice.

(変形例7)
上記実施形態では、誰かとの話を終える場合は話を止めればよいとしたが、本発明はこのような構成に限定されない。話を止めてから所定の時間が経過するのを待つ代わりに、音声解析部119が音声パケットを解析して話を止めるためのルールを決めておけばよい。例えば、「抜けます」、「切ります」等のことばを適宜設定すればよい。
(Modification 7)
In the embodiment described above, it is sufficient to stop the talk when ending the talk with someone, but the present invention is not limited to such a configuration. Instead of waiting for a predetermined time to elapse after stopping the speech, the speech analysis unit 119 may analyze the speech packet to determine a rule for stopping the speech. For example, words such as "I will drop" and "I will cut" may be set as appropriate.

100…情報処理装置、110…制御部、111…マイク、112…スピーカー、113…カメラ、114…表示部、116,311…ネットワーク接続部、117…送信部、118…受信部、119…音声解析部、200…ネットワーク、300…サーバー、312…音声解析部、313…サーバー受信部、314…サーバー送信部、500…システム。   DESCRIPTION OF SYMBOLS 100 ... Information processing apparatus, 110 ... Control part, 111 ... Microphone, 112 ... Speaker, 113 ... Camera, 114 ... Display part, 116, 311 ... Network connection part, 117 ... Transmission part, 118 ... Reception part, 119 ... Sound analysis Part, 200 ... network, 300 ... server, 312 ... voice analysis unit, 313 ... server reception unit, 314 ... server transmission unit, 500 ... system.

Claims (7)

ネットワークに接続される情報処理装置であって、
マイクと、
スピーカーと、
ネットワーク接続部と、
前記マイクが集音した音声をパケット化した音声パケットを前記ネットワークに送信する送信部と、
他端末から送信された音声パケットを前記ネットワークから受信する受信部と、
前記受信した音声パケットを解析する音声解析部と、
前記音声パケットの解析結果に基づいて、前記スピーカーの動作状態を制御する制御部と、
を備えることを特徴とする情報処理装置。
An information processing apparatus connected to a network,
Mike and
With a speaker,
A network connection,
A transmitter configured to transmit, to the network, a voice packet obtained by packetizing voice collected by the microphone;
A receiving unit for receiving from the network voice packets transmitted from another terminal;
A voice analysis unit that analyzes the received voice packet;
A control unit that controls an operation state of the speaker based on an analysis result of the voice packet;
An information processing apparatus comprising:
前記制御部は、前記解析結果が自端末への呼び出し要求である場合に、前記マイクと前記スピーカーとを動作状態とすることを特徴とする請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the control unit causes the microphone and the speaker to be in an operation state when the analysis result is a call request to the own terminal. 前記制御部は、前記解析結果が自端末への呼び出し要求ではなく、かつ、前記音声パケットが自端末が受信許可を与えている他端末から送信されたものである場合に、前記スピーカーを動作状態とすることを特徴とする請求項1に記載の情報処理装置。   The control unit operates the speaker when the analysis result is not a call request to the own terminal, and the voice packet is transmitted from another terminal that the own terminal has given reception permission to. The information processing apparatus according to claim 1, wherein: 前記ネットワークには、複数の特定のユーザーが接続しており、
前記送信部は、前記特定のユーザー全員に対し音声パケットを送信することを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
Several specific users are connected to the network,
The information processing apparatus according to any one of claims 1 to 3, wherein the transmission unit transmits an audio packet to all the specific users.
カメラと表示部とをさらに備え、
前記送信部は、前記カメラが撮影した映像をパケット化した映像パケットを前記ネットワークに送信し、
前記受信部は、他端末から送信された映像パケットを前記ネットワークから受信し、
前記制御部は、前記音声パケットの解析結果に基づいて、前記カメラと前記表示部との動作状態を制御することを特徴とする請求項1乃至4のいずれか一項に記載の情報処理装置。
It further has a camera and a display unit,
The transmission unit transmits, to the network, a video packet obtained by packetizing a video captured by the camera.
The reception unit receives a video packet transmitted from another terminal from the network,
The information processing apparatus according to any one of claims 1 to 4, wherein the control unit controls operation states of the camera and the display unit based on an analysis result of the voice packet.
複数の端末とサーバーとがネットワークで接続されているシステムであって、
前記端末は、
マイクと、
スピーカーと、
ネットワーク接続部と、
前記マイクが集音した音声をパケット化した音声パケットを前記ネットワークに送信する送信部と、
前記音声パケットと前記サーバーが送信したコマンドとを前記ネットワークから受信する受信部と、
前記受信したコマンドに基づいて、前記スピーカーの動作状態を制御する制御部と、を備え、
前記サーバーは、
ネットワーク接続部と、
前記端末が送信した音声パケットを前記ネットワークから受信するサーバー受信部と、
前記受信した音声パケットを解析する音声解析部と、
前記音声解析部が解析した結果に基づくコマンドを前記ネットワークに送信するサーバー送信部と、
を備えることを特徴とするシステム。
A system in which multiple terminals and servers are connected by a network,
The terminal is
Mike and
With a speaker,
A network connection,
A transmitter configured to transmit, to the network, a voice packet obtained by packetizing voice collected by the microphone;
A receiver for receiving from the network the voice packet and the command sent by the server;
A control unit configured to control an operation state of the speaker based on the received command;
The server is
A network connection,
A server reception unit for receiving from the network voice packets transmitted by the terminal;
A voice analysis unit that analyzes the received voice packet;
A server transmission unit that transmits a command based on a result analyzed by the voice analysis unit to the network;
A system comprising:
マイクとスピーカーとを有し、ネットワークから音声パケットを受信し、前記マイクが集音した音声をパケット化した音声パケットを前記ネットワークに送信する情報処理装置の制御方法であって、
前記音声パケットを解析するステップと、
前記解析した結果に基づいて、前記スピーカーの動作状態を制御するステップと、
を有することを特徴とする情報処理装置の制御方法。
A control method of an information processing apparatus, comprising a microphone and a speaker, receiving an audio packet from a network, and transmitting to the network an audio packet obtained by packetizing voice collected by the microphone.
Analyzing the voice packet;
Controlling the operating state of the speaker based on the analysis result;
And controlling the information processing apparatus.
JP2017075012A 2017-04-05 2017-04-05 Information processing device, system, and control method of information processing device Pending JP2018182406A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017075012A JP2018182406A (en) 2017-04-05 2017-04-05 Information processing device, system, and control method of information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017075012A JP2018182406A (en) 2017-04-05 2017-04-05 Information processing device, system, and control method of information processing device

Publications (1)

Publication Number Publication Date
JP2018182406A true JP2018182406A (en) 2018-11-15

Family

ID=64276145

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017075012A Pending JP2018182406A (en) 2017-04-05 2017-04-05 Information processing device, system, and control method of information processing device

Country Status (1)

Country Link
JP (1) JP2018182406A (en)

Similar Documents

Publication Publication Date Title
US8243631B2 (en) Detecting devices in overlapping audio space
US8311196B2 (en) Automatic mute detection
US7180997B2 (en) Method and system for improving the intelligibility of a moderator during a multiparty communication session
US20210051188A1 (en) Instant communications system having established communication channels between communication devices
US7433716B2 (en) Communication apparatus
US7539486B2 (en) Wireless teleconferencing system
US20220321631A1 (en) Instant communications system having established communication channels between communication devices
US9094524B2 (en) Enhancing conferencing user experience via components
US20050271194A1 (en) Conference phone and network client
US9516476B2 (en) Teleconferencing system, method of communication, computer program product and master communication device
WO2015172435A1 (en) Method and server for ordered speaking in teleconference
JP5526134B2 (en) Conversation detection in peripheral telephone technology systems.
JP2006101048A (en) Ptt communication system, portable terminal device, and conversation start method used for them and program thereof
US20090310762A1 (en) System and method for instant voice-activated communications using advanced telephones and data networks
JP2009536497A (en) Method and apparatus for virtual conferencing
WO2012175964A2 (en) Multi-party teleconference methods and systems
JP2006140542A (en) Multipoint speech system, voice volume adjustment unit, mobile terminal and voice volume adjustment method used for them, and program therefor
JP2018182406A (en) Information processing device, system, and control method of information processing device
US10218854B2 (en) Sound modification for close proximity shared communications path devices
EP3907978B1 (en) Computer-implemented method of controlling a plurality of communication devices and communication system
US12015655B2 (en) Method and system for handling a teleconference
JP2023154228A (en) communication system
JP2022092765A (en) Voice chat terminal and control method thereof
JP2006222585A (en) Conference telephone system and conference telephone method
WO2003094383A1 (en) Wireless conferencing system

Legal Events

Date Code Title Description
RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20180910

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190402