JP2009141469A - Voice terminal and communication system - Google Patents

Voice terminal and communication system Download PDF

Info

Publication number
JP2009141469A
JP2009141469A JP2007313340A JP2007313340A JP2009141469A JP 2009141469 A JP2009141469 A JP 2009141469A JP 2007313340 A JP2007313340 A JP 2007313340A JP 2007313340 A JP2007313340 A JP 2007313340A JP 2009141469 A JP2009141469 A JP 2009141469A
Authority
JP
Japan
Prior art keywords
voice
terminal
unit
terminals
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007313340A
Other languages
Japanese (ja)
Inventor
Takashi Katayama
崇 片山
Hitoshi Sumiyoshi
仁 住吉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2007313340A priority Critical patent/JP2009141469A/en
Publication of JP2009141469A publication Critical patent/JP2009141469A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a voice terminal capable of recognizing the positional relation between itself and another terminal in communication with the other terminal. <P>SOLUTION: The voice terminal 10a for synthesizing voices received from the outside and outputting the synthesized voices is provided with: an acquiring section 102 for acquiring present position information; a receiving section 107 for receiving communication data including the voices recorded with the other voice terminal and the present position information of the other voice terminal; a calculation section 108 for obtaining the positional relation between the voice terminal 10a and each of the other voice terminals 10b-10d on the basis of the present position and the position of each of the other voice terminals 10b-10d; an adjusting section 109 for adjusting the voices recorded with the other voice terminals on the basis of the positional relation; and a playback section 110 for playing back the adjusted voices. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、他の端末との通話において他の端末との位置関係を把握することができる音声端末及び音声端末を利用する通話システムに関する。   The present invention relates to a voice terminal capable of grasping a positional relationship with another terminal in a call with another terminal and a call system using the voice terminal.

現在、様々なネットワークと音声端末(通話端末)を用いた通話システムの実現が盛んになっている。このような音声端末では、他の音声端末との距離や方向等の位置関係を把握することが困難であり、可聴性に問題があることもあった。   At present, realization of a call system using various networks and voice terminals (call terminals) has become popular. In such a voice terminal, it is difficult to grasp the positional relationship such as distance and direction with other voice terminals, and there is a problem in audibility.

例えば、複数の音声端末間で同時に通話を行う場合、各音声端末は、ユーザの発する音声をマイクを介して録音し、他の音声端末に送信する。また、各音声端末は、通話中である他の音声端末から受信する音声を合成し、合成した音声をスピーカを介して再生している。このとき、各音声端末では他の音声端末から受信した音声を単に合成して再生しており、通話中の他の音声端末との位置関係が不明であった。   For example, when a telephone call is simultaneously made between a plurality of voice terminals, each voice terminal records the voice uttered by the user via a microphone and transmits it to another voice terminal. Each voice terminal synthesizes voice received from another voice terminal in a call and plays the synthesized voice through a speaker. At this time, each voice terminal simply synthesizes and reproduces the voice received from the other voice terminal, and the positional relationship with the other voice terminal during the call is unknown.

複数の音声を合成して再生する際、位置情報や動作情報に基づいて音声を空間的に合成し、対話効率を向上させる技術もある(例えば、特許文献1参照)。   When synthesizing and reproducing a plurality of voices, there is a technique for spatially synthesizing voices based on position information and motion information to improve dialogue efficiency (for example, see Patent Document 1).

一方、従来用いられている複数の音声端末で同時に通話を実現する通話システムでは、他の音声端末との位置情報等は考慮されておらず、他の音声端末から受信する全ての音声を受信した音声レベルに応じて合成し、再生している。したがって、近くの音声端末から受信する音声と、遠くの音声端末から受信する音声との音声レベルは調整されておらず、各音声端末から再生される音声を聞くユーザは、スピーカから再生される音声から他の音声端末の位置を把握することができない。すなわち、各音声端末を利用するユーザは、音声端末を介した通話で他のユーザから現在位置を教えられない限り、通話する他のユーザとの位置関係を把握することができない。
特開平9−90963号公報
On the other hand, in a call system that realizes a call simultaneously with a plurality of voice terminals that have been used in the past, position information with other voice terminals is not considered, and all voices received from other voice terminals are received. It is synthesized and played according to the audio level. Therefore, the sound level of the sound received from the nearby sound terminal and the sound received from the distant sound terminal is not adjusted, and the user who listens to the sound played from each sound terminal is not able to play the sound played from the speaker. The position of the other voice terminal cannot be grasped. In other words, a user who uses each voice terminal cannot grasp the positional relationship with other users who are talking unless other users are informed of the current position through a call via the voice terminal.
Japanese Patent Laid-Open No. 9-90963

上述したように、従来の複数の音声端末間で通話を実現する通話システムでは、他の音声端末との位置関係を把握するためには、各ユーザ同士で通話の中で連絡し合う必要があった。   As described above, in a conventional call system that realizes a call between a plurality of voice terminals, in order to grasp the positional relationship with other voice terminals, each user needs to communicate with each other during the call. It was.

一方、通話中の限られた時間内で他のユーザと位置関係を連絡し合うとすれば、必要な内容を連絡するための会話時間が制限される。特に、通話システムで同時に通話する音声端末が多くなるほど位置関係の把握は困難になる。また、移動型の音声端末を利用するユーザは、音声端末で通話中に移動することもあり、移動過程の全ての位置を他の端末との会話によって連絡することは、ますます困難であった。   On the other hand, if the positional relationship is communicated with other users within a limited time during a call, the conversation time for communicating necessary contents is limited. In particular, as the number of voice terminals simultaneously calling in the call system increases, it becomes difficult to grasp the positional relationship. In addition, users using mobile voice terminals may move during a call on a voice terminal, and it has become increasingly difficult to communicate all positions in the movement process through conversations with other terminals. .

上記課題に鑑み、本発明は、他の端末との通話において他の端末との位置関係を聴覚をもちいて把握することができる音声端末及び通話システムを提供する。   In view of the above-described problems, the present invention provides a voice terminal and a call system that can grasp the positional relationship with another terminal using a hearing in a call with the other terminal.

本発明の特徴に係る音声端末は、外部から受信した音声を合成して出力する音声端末であって、現在位置情報を取得する取得部と、他の音声端末から、他の音声端末で録音された音声と他の音声端末の現在位置情報とを含む通話データを受信する受信部と、現在位置情報と他の音声端末の現在位置情報に基づいて、音声端末と他の音声端末との位置関係を求める算出部と、位置関係に基づいて他の音声端末で録音された音声を調整する調整部と、調整された音声を再生する再生部とを備える。   The voice terminal according to the feature of the present invention is a voice terminal that synthesizes and outputs a voice received from the outside, and is recorded by another voice terminal from an acquisition unit that acquires current position information and another voice terminal. A receiving unit that receives call data including the received voice and the current position information of the other voice terminal, and a positional relationship between the voice terminal and the other voice terminal based on the current position information and the current position information of the other voice terminal. A calculating unit that calculates the sound, an adjusting unit that adjusts sound recorded by another audio terminal based on the positional relationship, and a reproducing unit that reproduces the adjusted sound.

本発明によれば、他の端末との通話において他の端末との位置関係を把握することができる。   ADVANTAGE OF THE INVENTION According to this invention, the positional relationship with another terminal can be grasped | ascertained in the telephone call with another terminal.

図1に示すように、本発明の最良の実施形態に係る音声システムは、複数の音声端末10a〜10dがそれぞれ他の音声端末との通話が可能になっている。音声システムでは、各音声端末10a〜10dはそれぞれ他の一台の音声端末との通話するだけでなく、複数台の音声端末と同時に通話することができる。   As shown in FIG. 1, the voice system according to the best embodiment of the present invention enables a plurality of voice terminals 10a to 10d to talk with other voice terminals. In the voice system, each voice terminal 10a to 10d can make a call simultaneously with a plurality of voice terminals as well as a call with another voice terminal.

図1に示す音声システムは、4台の音声端末10a〜10dを有しているが、音声システムが有する音声端末の数は限定されず、4台より多くても少なくてもよい。   The voice system shown in FIG. 1 includes four voice terminals 10a to 10d, but the number of voice terminals included in the voice system is not limited and may be more or less than four.

図2に示す一例にあるように、音声端末10aは、位置情報を管理する管理部101と、管理部101から位置情報を取得する取得部102と、録音部103で録音した音声データと取得部102が取得した位置情報によって通話データを生成する生成部104と、生成部104で生成した通話データをアンテナ106を介して他の音声端末10b〜10dに送信する送信部105とを備えている。また音声端末10aは、他の音声端末10b〜10dから受信した通話データをアンテナ106を介して受信する受信部107と、受信した通話データと取得部102が取得した位置情報とから、他の音声端末10b〜10dとの距離を算出する算出部108と、算出された距離に基づいて、他の音声端末10b〜10dの音声データの音声レベルを調整し、録音部103で録音した音声データと合成する調整部109と、調整された音声データを再生する再生部110とを備えている。   As shown in the example illustrated in FIG. 2, the voice terminal 10 a includes a management unit 101 that manages position information, an acquisition unit 102 that acquires position information from the management unit 101, and voice data and acquisition unit recorded by the recording unit 103. 102 includes a generation unit 104 that generates call data based on the location information acquired by 102, and a transmission unit 105 that transmits the call data generated by the generation unit 104 to the other voice terminals 10b to 10d via the antenna 106. The voice terminal 10a also receives other voices from the reception unit 107 that receives the call data received from the other voice terminals 10b to 10d via the antenna 106, and the received call data and the position information acquired by the acquisition unit 102. The calculation unit 108 that calculates the distance to the terminals 10b to 10d, and the audio level of the audio data of the other audio terminals 10b to 10d is adjusted based on the calculated distance, and synthesized with the audio data recorded by the recording unit 103 An adjustment unit 109 that performs adjustment, and a reproduction unit 110 that reproduces the adjusted audio data.

この音声端末10aは、例えば、トランシーバや携帯電話等のように利用場所が特定されていない音声端末であることが考えられる。なお、固定電話やテレビ会議で利用するコンピュータ端末等のように利用場所が特定されている音声端末であっても良い。   The voice terminal 10a may be a voice terminal whose use place is not specified, such as a transceiver or a mobile phone. Note that it may be a voice terminal whose place of use is specified, such as a fixed-line telephone or a computer terminal used in a video conference.

例えば、管理部101は、GPS(global positioning system)等を利用して音声端末10aの現在の位置を管理している。具体的には、管理部101は、現在の音声端末10aの位置情報(現在位置情報)を緯度及び経度を用いて管理している。   For example, the management unit 101 manages the current position of the voice terminal 10a using a GPS (global positioning system) or the like. Specifically, the management unit 101 manages the current position information (current position information) of the voice terminal 10a using the latitude and longitude.

取得部102は、管理部101から音声端末10aの現在位置情報を取得し、位置データとして生成部104および算出部108に出力する。   The acquisition unit 102 acquires the current position information of the voice terminal 10a from the management unit 101, and outputs it to the generation unit 104 and the calculation unit 108 as position data.

録音部103は、マイク等のサウンドデバイスを備えて音声を録音し、音声データとして生成部104に出力する。   The recording unit 103 includes a sound device such as a microphone, records voice, and outputs it as voice data to the generation unit 104.

生成部104は、入力するデータをメモリ(図示せず)に一時記憶し、録音部103から入力した音声データと、取得部102から入力した位置データとを合成して通話データを生成し、送信部105に出力する。通話データのフォーマットは、例えば、図3に一例を示すように、データの一部が録音部103で録音された音声データであり、データの残り部分が取得部102が取得した位置データで構成されるフォーマットである。   The generation unit 104 temporarily stores input data in a memory (not shown), generates speech data by combining the voice data input from the recording unit 103 and the position data input from the acquisition unit 102, and transmits the data. Output to the unit 105. The format of the call data is, for example, as shown in FIG. 3, a part of the data is voice data recorded by the recording unit 103, and the remaining part of the data is configured by position data acquired by the acquisition unit 102. Format.

通話データを入力した送信部105は、アンテナ106を介して送信中の他の音声端末10b〜10dに通話データを送信する。   The transmission unit 105 that has input the call data transmits the call data to the other voice terminals 10 b to 10 d that are transmitting via the antenna 106.

受信部107は、アンテナ106を介して通話中の他の音声端末10b〜10dから送信されたデータを受信し、算出部108に出力する。受信部107が受信する通話データのフォーマットも図3で上述した形式と同一のフォーマットであり、それぞれ音声端末10b〜10dで録音された音声データおよび各音声端末10b〜10dの位置データを含んでいる。   The receiving unit 107 receives data transmitted from the other voice terminals 10 b to 10 d during a call via the antenna 106 and outputs the data to the calculating unit 108. The format of the call data received by the receiving unit 107 is also the same format as that described above with reference to FIG. 3, and includes voice data recorded by the voice terminals 10b to 10d and position data of the voice terminals 10b to 10d, respectively. .

算出部108は、入力する通信データを位置データと音声データとに分割し、各音声端末10b〜10dのデータ毎にメモリ(図示せず)に記憶する。また、算出部108は、メモリに記憶される他の音声端末10b〜10dの位置データと、取得部102から入力した自らの音声端末10aの位置データとを比較して、自らの音声端末10aと他の音声端末10b〜10dとの「距離」を算出し、算出した音声データと算出した距離とを調整部109へ出力する。算出部108は、受信した全ての通話データに対して、データの分割、距離の算出及び出力を行なう。   The calculation unit 108 divides input communication data into position data and voice data, and stores the data in a memory (not shown) for each data of the voice terminals 10b to 10d. The calculation unit 108 compares the position data of the other voice terminals 10b to 10d stored in the memory with the position data of the own voice terminal 10a input from the acquisition unit 102, and compares the position data of the voice terminal 10a with the own voice terminal 10a. The “distance” with the other voice terminals 10 b to 10 d is calculated, and the calculated voice data and the calculated distance are output to the adjustment unit 109. The calculation unit 108 performs data division, distance calculation, and output for all received call data.

調整部109は、算出部108から音声データとともに入力した距離に基づいて、音声データの音声レベルを調整し、同一時間軸に受信した音声データを合成する。具体的には、調整部109は、受信した全ての音声データの音声レベルを調整し、調整した全ての通話データに含まれる音声データを合成した音声データを再生部110に出力する。例えば、調整部109は、複数の距離範囲と各距離範囲に対応する音声レベルを対応させたテーブルを有しており、音声データとともに算出部108から入力した距離に該当する音声レベルに調整する。   The adjustment unit 109 adjusts the audio level of the audio data based on the distance input together with the audio data from the calculation unit 108, and synthesizes the audio data received on the same time axis. Specifically, adjustment unit 109 adjusts the audio level of all received audio data, and outputs audio data obtained by synthesizing audio data included in all adjusted call data to reproduction unit 110. For example, the adjustment unit 109 has a table in which a plurality of distance ranges and audio levels corresponding to the respective distance ranges are associated with each other, and adjusts the audio level corresponding to the distance input from the calculation unit 108 together with the audio data.

再生部110は、スピーカ等のサウンドデバイスを備え、調整部109から入力した音声データを再生する。   The reproduction unit 110 includes a sound device such as a speaker, and reproduces audio data input from the adjustment unit 109.

図2では、音声端末10aについて説明したが、音声端末10b〜10dも音声端末10aと同一の構成であるため、ここでは説明を省略する。   Although the voice terminal 10a has been described with reference to FIG. 2, the voice terminals 10b to 10d have the same configuration as the voice terminal 10a, and thus the description thereof is omitted here.

なお、上述した例において、通話データには音声データの他に位置データを含んでいる。したがって、音声のみの通信が可能な単純な通信方法では、音声データとともに位置データを送信することができない。したがって、音声システムにおける音声端末10a〜10d間の通話にはIP通信等を利用し、送受信される通話データはIPパケット等のディジタルデータを利用することが望ましい。   In the example described above, the call data includes position data in addition to voice data. Therefore, in a simple communication method capable of only voice communication, position data cannot be transmitted together with voice data. Therefore, it is desirable to use IP communication or the like for a call between the voice terminals 10a to 10d in the voice system, and to use digital data such as an IP packet for call data to be transmitted and received.

以下に、音声端末10a〜10d間で通話が行われる際の音声端末10aにおける処理について説明する。   Below, the process in the audio | voice terminal 10a at the time of a telephone call between audio | voice terminals 10a-10d is demonstrated.

まず、図4を用いて、音声端末10aが音声を録音し、通話中である他の音声端末10b〜10dに通話データを送信する処理について説明する。   First, a process in which the voice terminal 10a records voice and transmits call data to the other voice terminals 10b to 10d that are in a call will be described with reference to FIG.

音声端末10aでは、まず、録音部103が音声を録音すると同時に、取得部102が現在位置情報を取得し、音声データと位置データとして生成部104に出力する(S01)。   In the voice terminal 10a, first, the recording unit 103 records voice, and at the same time, the acquisition unit 102 acquires current position information, and outputs the current position information to the generation unit 104 as voice data and position data (S01).

ステップS01で音声データと位置データを入力した生成部104は、図3で一例を上述したフォーマットの通話データを生成し、送信部105に出力する(S02)。   The generation unit 104 that has received the voice data and the position data in step S01 generates call data in the format described above with reference to FIG. 3 and outputs the call data to the transmission unit 105 (S02).

ステップS02で通話データを入力した送信部105は、アンテナ106を介して、入力した通話データを通話中の他の音声端末10b〜10dに送信する(S03)。   The transmitting unit 105 that has input the call data in step S02 transmits the input call data to the other voice terminals 10b to 10d that are in a call via the antenna 106 (S03).

音声端末10aからは、このようにユーザの音声が他の音声端末10b〜10dに送信される。   In this way, the voice of the user is transmitted from the voice terminal 10a to the other voice terminals 10b to 10d.

続いて、図5を用いて、音声端末10aが通話中の他の音声端末10b〜10dから通話データを受信し、再生する処理について説明する。   Next, a process of receiving and reproducing call data from the other voice terminals 10b to 10d in which the voice terminal 10a is talking will be described with reference to FIG.

音声端末10aでは、受信部107が通話データを受信して算出部108に出力すると同時に、取得部102が現在位置情報を取得して算出部108に出力する(S11)。   In the voice terminal 10a, the receiving unit 107 receives call data and outputs it to the calculating unit 108, and at the same time, the acquiring unit 102 acquires current position information and outputs it to the calculating unit 108 (S11).

ステップS11で通話データを入力した算出部108は、入力した通話データを音声データと位置データとに分割する(S12)。その後、算出部108は、ステップS12で分割した位置データと、ステップS11で入力した位置データとから、音声端末10aと、他の音声端末10b〜10dとの距離を算出し、各音声端末10b〜10dの音声データと算出した距離とを調整部109に出力する(S13)。   The calculation unit 108 that has input the call data in step S11 divides the input call data into voice data and position data (S12). Thereafter, the calculation unit 108 calculates the distance between the voice terminal 10a and the other voice terminals 10b to 10d from the position data divided in step S12 and the position data input in step S11, and each voice terminal 10b to The 10d audio data and the calculated distance are output to the adjustment unit 109 (S13).

ステップS13で音声データと距離とを入した調整部109は、各音声データについて、入力した距離に応じて音声レベルを調整する(S14)。ステップS14で全ての音声データの音声レベルを調整した調整部109は、調整された全ての音声データを合成し、再生部110に出力する(S15)。   The adjustment unit 109 that has input the audio data and the distance in step S13 adjusts the audio level of each audio data according to the input distance (S14). The adjusting unit 109 that has adjusted the audio levels of all the audio data in step S14 synthesizes all the adjusted audio data and outputs the synthesized audio data to the reproducing unit 110 (S15).

ステップS15で音声データを入力した再生部110は、入力した音声データを再生する(S16)。   The reproduction unit 110 that has input the audio data in step S15 reproduces the input audio data (S16).

音声端末10aは、このように他の音声端末10b〜10dから受信した音声データを調整して再生することで、音声端末10aを利用するユーザは、再生される音声データから、各音声レベルの違いによって通話中の他の音声端末10b〜10dとの位置関係(距離)を把握することができる。   The audio terminal 10a adjusts and reproduces the audio data received from the other audio terminals 10b to 10d in this way, so that the user using the audio terminal 10a can determine the difference in audio levels from the reproduced audio data. Can grasp the positional relationship (distance) with the other voice terminals 10b to 10d during the call.

なお、上述した例では、生成部104は、図3に示したような音声データと位置データとを有する通話データを生成するものとして説明したが、位置データは、毎回送信しなくても良い。すなわち、音声端末10a〜10dの位置変化が大きくない場合には、図3に示したような通話データを送信した後、位置データを含まず音声データのみから成る通話データを送信するようにすれば、不要な位置データを送信することなく必要な音声データのみが送受信される。なお、位置データを含まない通話データを受信した場合、算出部108は、最近取得した位置データに基づいて音声データの音声レベルを調整する。   In the example described above, the generation unit 104 has been described as generating call data having voice data and position data as illustrated in FIG. 3, but the position data may not be transmitted every time. That is, if the position change of the voice terminals 10a to 10d is not large, after transmitting the call data as shown in FIG. 3, the call data including only the voice data without including the position data is transmitted. Only necessary audio data is transmitted and received without transmitting unnecessary position data. When call data that does not include position data is received, the calculation unit 108 adjusts the sound level of the sound data based on the recently acquired position data.

また、上述した例では、音声端末10a〜10dは、現在位置を管理する管理部101を有し、取得部102では緯度及び経度からなる位置情報を取得していた。しかし、各音声端末10a〜10dは、位置情報として、緯度及び経度に加え、移動方向等を取得し、位置データとして通話データに加えても良い。この移動方向を含む通話データを取得した算出部108は、通話データを送信した他の音声端末10b〜10dとの距離に加え、通話中の端末10b〜10dがどの方向に存在するかを算出することができる。したがって、再生部110がステレオタイプのスピーカやイヤホンのような再生機能を有している場合、算出された距離及び方向に合わせて音声レベルをそれぞれ調節し、位置関係として、距離感覚とともに方向感覚を有する音声にして合成することができる。   In the above-described example, the voice terminals 10a to 10d have the management unit 101 that manages the current position, and the acquisition unit 102 acquires position information including latitude and longitude. However, each of the voice terminals 10a to 10d may acquire a moving direction or the like as position information in addition to latitude and longitude, and add it to the call data as position data. The calculation unit 108 that has acquired the call data including the moving direction calculates in which direction the terminals 10b to 10d that are in communication exist, in addition to the distance from the other voice terminals 10b to 10d that transmitted the call data. be able to. Therefore, when the playback unit 110 has a playback function such as a stereo type speaker or earphone, the sound level is adjusted according to the calculated distance and direction, respectively, and the direction sense as well as the distance sense is given as the positional relationship. It is possible to synthesize it with a voice.

さらに、上述した調整部109では、複数の距離範囲と音声レベルとを対応させたテーブルを用いて音声データを調節していた。しかし、通話中の音声端末10b〜10dが全て同一の範囲内に存在する場合、同一のレベルに調整されることになり、位置関係を把握することはできなくなる。したがって、距離範囲毎にレベル分けされたテーブルではなく、通話中の各音声端末10b〜10dとの距離を用いて、距離が遠い場合に音声レベルを低くし、近い場合に高くする等のように音声レベルを調整しても良い。   Further, the adjustment unit 109 described above adjusts audio data using a table in which a plurality of distance ranges and audio levels are associated with each other. However, when all the voice terminals 10b to 10d in a call are within the same range, the voice terminals 10b to 10d are adjusted to the same level, and the positional relationship cannot be grasped. Therefore, instead of a table divided into levels for each distance range, using the distance to each of the voice terminals 10b to 10d during a call, the voice level is lowered when the distance is far, the voice level is raised when the distance is close, and so on. The sound level may be adjusted.

本発明の最良の実施形態に係る音声端末によって構成される音声システムを説明する概略図である。It is the schematic explaining the audio | voice system comprised by the audio | voice terminal which concerns on the best embodiment of this invention. 本発明の最良の実施形態に係る音声端末を説明するブロック図である。It is a block diagram explaining the voice terminal concerning the best embodiment of the present invention. 図1の音声端末が送信する通話データの一例である。It is an example of the call data which the voice terminal of FIG. 1 transmits. 図1の音声端末が録音した音声を送信する処理の一例を説明するフローチャートである。It is a flowchart explaining an example of the process which transmits the audio | voice which the audio | voice terminal of FIG. 1 recorded. 図1の音声端末が受信した音声を再生する処理の一例を説明するフローチャートである。It is a flowchart explaining an example of the process which reproduces | regenerates the audio | voice which the audio | voice terminal of FIG. 1 received.

符号の説明Explanation of symbols

10a〜10d…音声端末
101…管理部
102…取得部
103…録音部
104…生成部
105…送信部
106…アンテナ
107…受信部
108…算出部
109…調整部
110…再生部
10a to 10d ... voice terminal 101 ... management unit 102 ... acquisition unit 103 ... recording unit 104 ... generation unit 105 ... transmission unit 106 ... antenna 107 ... reception unit 108 ... calculation unit 109 ... adjustment unit 110 ... reproduction unit

Claims (5)

外部から受信した音声を合成して出力する音声端末であって、
現在位置情報を取得する取得部と、
他の音声端末から、前記他の音声端末で録音された音声と前記他の音声端末の現在位置情報とを含む通話データを受信する受信部と、
前記現在位置情報と前記他の音声端末の現在位置情報に基づいて、前記音声端末と前記他の音声端末との位置関係を求める算出部と、
前記位置関係に基づいて前記他の音声端末で録音された音声を調整する調整部と、
調整された前記音声を再生する再生部と、
を備えることを特徴とする音声端末。
An audio terminal that synthesizes and outputs audio received from outside,
An acquisition unit for acquiring current position information;
A receiving unit for receiving call data including voice recorded by the other voice terminal and current position information of the other voice terminal from another voice terminal;
Based on the current position information and the current position information of the other voice terminal, a calculation unit for obtaining a positional relationship between the voice terminal and the other voice terminal;
An adjustment unit that adjusts audio recorded by the other audio terminal based on the positional relationship;
A playback unit for playing back the adjusted sound;
A voice terminal comprising:
外部から受信した音声を合成して出力する音声端末であって、
現在位置情報を取得する取得部と、
複数の他の音声端末から、前記他の音声端末で録音された音声と前記他の音声端末の現在位置情報とを含む通話データを受信する受信部と、
前記現在位置情報と前記複数の他の音声端末の現在位置情報に基づいて、前記音声端末と前記複数の他の音声端末との位置関係をそれぞれ求める算出部と、
前記複数の他の音声端末との位置関係に基づいて前記他の音声端末で録音された音声を調整する調整部と、
調整された前記音声を再生する再生部と、
を備えることを特徴とする音声端末。
An audio terminal that synthesizes and outputs audio received from outside,
An acquisition unit for acquiring current position information;
A receiving unit that receives call data including voice recorded by the other voice terminal and current position information of the other voice terminal from a plurality of other voice terminals;
Based on the current position information and the current position information of the plurality of other voice terminals, a calculation unit for respectively obtaining a positional relationship between the voice terminal and the plurality of other voice terminals;
An adjustment unit that adjusts audio recorded by the other audio terminals based on a positional relationship with the other audio terminals;
A playback unit for playing back the adjusted sound;
A voice terminal comprising:
音声を録音する録音部と、
前記他の音声端末に、前記録音部で録音した前記音声と前記取得部で取得した前記現在位置情報とを含む通話データを送信する送信部と、
を備えることを特徴とする請求項1又は2に記載の音声端末。
A recording unit for recording audio;
A transmitter that transmits call data including the voice recorded by the recording unit and the current position information acquired by the acquisition unit to the other voice terminal;
The voice terminal according to claim 1, further comprising:
複数の音声端末を有し、前記複数の音声端末間で同時に通話を実現する通話システムであって、
各音声端末は、
現在位置情報を取得する取得部と、
複数の他の音声端末から、前記他の音声端末で録音された音声と前記他の音声端末の現在位置情報とを含む通話データを受信する受信部と、
前記現在位置情報と前記他の音声端末の現在位置情報に基づいて、前記音声端末と前記他の音声端末との位置関係を求める算出部と、
前記位置関係に基づいて前記他の音声端末で録音された音声を調整する調整部と、
調整された複数の前記他の端末からの前記音声を合成して再生する再生部とを備える
ことを特徴とする通話システム。
A call system that has a plurality of voice terminals and realizes a call simultaneously between the plurality of voice terminals,
Each voice terminal
An acquisition unit for acquiring current position information;
A receiving unit that receives call data including voice recorded by the other voice terminal and current position information of the other voice terminal from a plurality of other voice terminals;
Based on the current position information and the current position information of the other voice terminal, a calculation unit for obtaining a positional relationship between the voice terminal and the other voice terminal;
An adjustment unit that adjusts audio recorded by the other audio terminal based on the positional relationship;
A call system comprising: a playback unit that synthesizes and plays back the voices from the plurality of other adjusted terminals.
前記各音声端末は、
音声を録音する録音部と、
前記他の音声端末に、前記録音部で録音した前記音声と前記取得部で取得した前記現在位置情報とを含む通話データを送信する送信部とを備える
ことを特徴とする請求項4に記載の通話システム。
Each of the voice terminals
A recording unit for recording audio;
5. The transmitter according to claim 4, further comprising: a transmitter that transmits call data including the voice recorded by the recording unit and the current position information acquired by the acquisition unit to the other voice terminal. Call system.
JP2007313340A 2007-12-04 2007-12-04 Voice terminal and communication system Pending JP2009141469A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007313340A JP2009141469A (en) 2007-12-04 2007-12-04 Voice terminal and communication system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007313340A JP2009141469A (en) 2007-12-04 2007-12-04 Voice terminal and communication system

Publications (1)

Publication Number Publication Date
JP2009141469A true JP2009141469A (en) 2009-06-25

Family

ID=40871682

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007313340A Pending JP2009141469A (en) 2007-12-04 2007-12-04 Voice terminal and communication system

Country Status (1)

Country Link
JP (1) JP2009141469A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014016694A (en) * 2012-07-06 2014-01-30 Sony Corp Server, client terminal, and program
JP2014045416A (en) * 2012-08-28 2014-03-13 Kyocera Corp Portable terminal, voice control program, and voice control method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005184621A (en) * 2003-12-22 2005-07-07 Yamaha Corp Speech device
JP2007013407A (en) * 2005-06-29 2007-01-18 Matsushita Electric Ind Co Ltd Sound image localization mobile communication system, mobile communication terminal equipment, radio base station device and sound image localization method on mobile communication terminal
JP2008160397A (en) * 2006-12-22 2008-07-10 Yamaha Corp Voice communication device and voice communication system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005184621A (en) * 2003-12-22 2005-07-07 Yamaha Corp Speech device
JP2007013407A (en) * 2005-06-29 2007-01-18 Matsushita Electric Ind Co Ltd Sound image localization mobile communication system, mobile communication terminal equipment, radio base station device and sound image localization method on mobile communication terminal
JP2008160397A (en) * 2006-12-22 2008-07-10 Yamaha Corp Voice communication device and voice communication system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014016694A (en) * 2012-07-06 2014-01-30 Sony Corp Server, client terminal, and program
US9817630B2 (en) 2012-07-06 2017-11-14 Sony Corporation Server and client terminal for providing a result based on zoom operation
JP2014045416A (en) * 2012-08-28 2014-03-13 Kyocera Corp Portable terminal, voice control program, and voice control method

Similar Documents

Publication Publication Date Title
KR101059299B1 (en) Remote speaker controller with microphone
JP5536212B2 (en) MS stereo playback on device
RU2653136C2 (en) Audio recording and playback apparatus
US20040185773A1 (en) Mobile transceiver and electronic module for controlling the transceiver
US8488820B2 (en) Spatial audio processing method, program product, electronic device and system
KR20170100582A (en) Audio processing based on camera selection
JP4992591B2 (en) Communication system and communication terminal
EA013670B1 (en) Method and apparatus for recording, transmitting and playing back sound events for communication applications
US20100104118A1 (en) Earpiece based binaural sound capturing and playback
JP2005102219A (en) System and method for obscuring unwanted ambient noise and handset and central office equipment incorporating the same
JP2009141469A (en) Voice terminal and communication system
JP2005184621A (en) Speech device
US8526589B2 (en) Multi-channel telephony
JP2007013407A (en) Sound image localization mobile communication system, mobile communication terminal equipment, radio base station device and sound image localization method on mobile communication terminal
JP2002314676A (en) Sound recording and reproducing device
CN110856068B (en) Communication method of earphone device
JP6392161B2 (en) Audio conference system, audio conference apparatus, method and program thereof
JP6765697B1 (en) Information processing equipment, information processing methods and computer programs
JP2005217614A (en) Telephone terminal and method for reproducing melody
CN113612881B (en) Loudspeaking method and device based on single mobile terminal and storage medium
JP5391175B2 (en) Remote conference method, remote conference system, and remote conference program
JP2002199088A (en) Mobile radio terminal
CN111128104B (en) Wireless karaoke method, audio device and intelligent terminal
JP5210788B2 (en) Speech signal communication system, speech synthesizer, speech synthesis processing method, speech synthesis processing program, and recording medium storing the program
JP2008236640A (en) System, method and terminal for specifying right to speak

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110725

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110816