JP2010124133A - Sound relay device - Google Patents

Sound relay device Download PDF

Info

Publication number
JP2010124133A
JP2010124133A JP2008294721A JP2008294721A JP2010124133A JP 2010124133 A JP2010124133 A JP 2010124133A JP 2008294721 A JP2008294721 A JP 2008294721A JP 2008294721 A JP2008294721 A JP 2008294721A JP 2010124133 A JP2010124133 A JP 2010124133A
Authority
JP
Japan
Prior art keywords
sound
sound emitting
data
voice
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008294721A
Other languages
Japanese (ja)
Inventor
Hidetake Ogino
秀岳 荻野
Tomomitsu Urai
知光 浦井
Noriyuki Hata
紀行 畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2008294721A priority Critical patent/JP2010124133A/en
Publication of JP2010124133A publication Critical patent/JP2010124133A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Telephonic Communication Services (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To enable a user to arbitrarily decide a sound-emitting point where respective sounds that differ in bases or speakers are emitted. <P>SOLUTION: An audio distribution unit receives an insertion part selected by a user from among a plurality of insertion parts, and the input of a communication address of a conference terminal of a sound data transmitter, designated by the user or feature information regarding the sound designated by the user, associates them with each other, and stores them to a memory. The audio distribution unit acquires the communication address of the conference terminal, or the feature information regarding the sound represented by the sound data from the sound data transmitted from the conference terminal of the sound data transmitter, and specifies the identifier of the insertion part stored to the memory, in association with the acquired communication address or feature information, and supplies a sound emitter which is inserted in the insertion part identified by the specified identifier by the transmitted sound data. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、音声データを中継する技術に関する。   The present invention relates to a technique for relaying voice data.

複数のスピーカの中からいずれかを選択し、選択したスピーカから音声を出力する技術が知られている。例えば、特許文献1には、人間の移動を検出し、移動先に設置されたスピーカから音声を出力する技術が開示されている。また、特許文献2には、出力選択スイッチの切り替え動作に応じて、音声信号の出力先を切り替える技術が開示されている。そして、特許文献3には、椅子に着座した人間が音を聞くときの指向方向を検出し、分散して配置された複数のスピーカのうち、検出した指向方向に応じたスピーカに音声信号を供給する技術が開示されている。また、特許文献4には、テレビ会議システムにおいて、発言者が表示されている位置の近くのスピーカからその発言者の音声を出力する技術が開示されている。
特開昭58−147297号公報 特開平10−336786号公報 実開平04−027699号公報 特開平07−58859号公報
A technique for selecting any one of a plurality of speakers and outputting sound from the selected speakers is known. For example, Patent Document 1 discloses a technique for detecting the movement of a person and outputting sound from a speaker installed at a destination. Patent Document 2 discloses a technique for switching an output destination of an audio signal according to a switching operation of an output selection switch. Patent Document 3 detects the directivity direction when a person sitting on a chair listens to a sound, and supplies an audio signal to a speaker corresponding to the detected directivity direction among a plurality of speakers arranged in a distributed manner. Techniques to do this are disclosed. Patent Document 4 discloses a technique for outputting a voice of a speaker from a speaker near a position where the speaker is displayed in a video conference system.
JP 58-147297 A JP-A-10-336786 Japanese Utility Model Publication No. 04-027699 JP 07-58859 A

ところで、会議システムにおいては、通信回線を介して音声が伝達されるため、音質が劣化してしまう。そのため、会議システムでは、声質によって話者を判別するのが難しく、誰が発言を行っているのかわかりにくい。さらに、多地点を接続する会議システムにおいては、互いに異なる拠点にいる複数の話者の音声が同じスピーカから放音されるため、どの拠点にいるどの話者が発言を行っているのかわかりにくい。そこで、利用者が、他拠点にいる各々の話者の音声をどこから放音させるかを決められれば便利である。
本発明はこのような背景に鑑みてなされたものであり、拠点や話者などが異なる各々の音声を放音させる放音点を利用者が任意に決められるようにすることを目的とする。
By the way, in a conference system, since sound is transmitted via a communication line, sound quality is deteriorated. Therefore, in the conference system, it is difficult to determine the speaker based on the voice quality, and it is difficult to understand who is speaking. Furthermore, in a conference system that connects multiple points, since the voices of a plurality of speakers at different bases are emitted from the same speaker, it is difficult to determine which speaker at which base is speaking. Therefore, it is convenient if the user can decide where to emit the voice of each speaker at another base.
The present invention has been made in view of such a background, and it is an object of the present invention to allow a user to arbitrarily determine a sound emission point for emitting sounds of different bases and speakers.

本発明は、音声が放音される複数の放音点の中から利用者によって選択された放音点と、利用者によって指定された音声データ送信元を識別する送信元識別情報または利用者によって指定された音声の特徴情報との入力を受け付ける入力受付手段と、前記入力受付手段が入力を受け付けた、前記放音点と前記送信元識別情報または前記音声の特徴情報とを対応付けて記憶する記憶手段と、前記音声データ送信元から送信されてきた音声データから、当該音声データ送信元を識別する送信元識別情報または当該音声データが表す音声の特徴情報を取得する取得手段と、前記取得手段によって取得された前記送信元識別情報または前記特徴情報と対応付けて前記記憶手段に記憶されている放音点を特定する放音点特定手段と、前記放音点特定手段によって特定された放音点に配置される放音手段に、前記送信されてきた音声データを供給するデータ供給手段とを備えることを特徴とする音声中継装置を提供する。   The present invention provides a sound emitting point selected by a user from among a plurality of sound emitting points from which sound is emitted, and transmission source identification information for identifying a sound data transmission source designated by the user or a user. Input receiving means for receiving input of the specified voice feature information, and storing the sound emission point and the transmission source identification information or the voice feature information received by the input receiving means in association with each other. Storage means; acquisition means for acquiring transmission source identification information for identifying the voice data transmission source or voice feature information represented by the voice data from the voice data transmitted from the voice data transmission source; and the acquisition means A sound emitting point specifying means for specifying a sound emitting point stored in the storage means in association with the transmission source identification information or the feature information acquired by the sound source, and the sound emitting point specifying means. Thus the sound emitting means arranged identified sounded point, to provide a voice relay device comprising: a data supply means for supplying audio data which has the been transmitted.

本発明の好ましい態様においては、各々の前記放音点に配置された複数の差込口と、前記放音手段を有し、前記差込口に抜き差し自在な放音装置と、前記放音装置が差し込まれた前記差込口を検出する検出手段とを備え、前記入力受付手段は、前記検出手段によって検出された前記差込口が配置された放音点と、利用者によって指定された音声データ送信元を識別する送信元識別情報または利用者によって指定された音声の特徴情報との入力を受け付け、前記データ供給手段は、前記放音点特定手段によって特定された放音点に配置された差込口に差し込まれた前記放音装置に、前記送信されてきた音声データを供給し、前記放音装置は、前記データ供給手段によって音声データが供給されると、当該音声データに応じた音声を前記放音手段から放音してもよい。   In a preferred aspect of the present invention, a sound emitting device having a plurality of insertion ports arranged at each of the sound emitting points, the sound emitting means, and being detachable from the insertion port, and the sound emitting device. Detecting means for detecting the insertion port into which the insertion port has been inserted, and the input receiving means includes a sound emitting point where the insertion port detected by the detection means is arranged, and a voice designated by the user Accepting input of source identification information for identifying a data transmission source or voice feature information designated by a user, the data supply means is arranged at a sound emission point specified by the sound emission point specification means The transmitted sound data is supplied to the sound emitting device inserted into the insertion port. When the sound data is supplied by the data supplying means, the sound emitting device receives sound corresponding to the sound data. The sound emitting means It may be Luo sound.

本発明の好ましい態様において、前記入力受付手段は、前記検出手段によって検出された前記差込口が配置された放音点と、当該放音点から音声が放音されるときの音量を表す音量情報との入力を受け付け、前記記憶手段は、前記入力受付手段が入力を受け付けた前記放音点と前記音量情報とを対応付けて記憶し、前記放音点特定手段によって特定された放音点と対応付けて前記記憶手段に記憶されている音量情報を抽出する音量情報抽出手段を備え、前記データ供給手段は、前記放音点特定手段によって特定された放音点に配置された差込口に差し込まれた前記放音装置に、前記送信されてきた音声データと前記音量情報抽出手段によって抽出された音量情報とを供給し、前記放音装置は、前記データ供給手段によって前記音声データ及び前記音量情報が供給されると、当該音声データに応じた音声を当該音量情報が表す音量で前記放音手段から放出してもよい。   In a preferred aspect of the present invention, the input receiving means includes a sound emitting point at which the insertion port detected by the detecting means is disposed, and a volume representing a sound volume when sound is emitted from the sound emitting point. The input of information is received, and the storage means stores the sound emission point received by the input reception means in association with the sound volume information, and the sound emission point specified by the sound emission point specifying means. Volume information extraction means for extracting volume information stored in the storage means in association with the data supply means, wherein the data supply means is an insertion port arranged at the sound emission point specified by the sound emission point specification means To the sound emitting device plugged into the sound source, the transmitted sound data and the volume information extracted by the sound volume information extracting means, and the sound emitting device supplies the sound data and the sound data by the data supplying means. When serial volume information is supplied, the sound corresponding to the audio data may be released from the sound emitting means at the volume indicated by the volume information.

本発明の好ましい態様において、前記放音装置は、画像を表示する表示手段を備え、前記入力受付手段は、前記検出手段によって検出された前記差込口が配置された放音点と、当該差込口に差し込まれた放音装置にて表示する画像を表す画像データとの入力を受け付け、前記記憶手段は、前記入力受付手段が入力を受け付けた前記放音点と前記画像データとを対応付けて記憶し、前記放音点特定手段によって特定された放音点と対応付けて前記記憶手段に記憶されている画像データを抽出する画像データ抽出手段を備え、前記データ供給手段は、前記放音点特定手段によって特定された放音点に配置された差込口に差し込まれた前記放音装置に、前記送信されてきた音声データと前記画像データ抽出手段によって抽出された画像データとを供給し、前記放音装置は、前記データ供給手段によって前記画像データが供給されると、当該画像データに応じた画像を前記表示手段に表示してもよい。   In a preferred aspect of the present invention, the sound emitting device includes display means for displaying an image, and the input receiving means includes a sound emitting point where the insertion port detected by the detecting means is disposed, and the difference. The input of image data representing an image to be displayed by the sound emitting device inserted into the slot is received, and the storage means associates the sound emission point received by the input receiving means with the image data. Image data extracting means for extracting the image data stored in the storage means in association with the sound emission point specified by the sound emission point specifying means, and the data supply means The transmitted sound data and the image data extracted by the image data extracting means are supplied to the sound emitting device inserted into the insertion port arranged at the sound emitting point specified by the point specifying means. And the sound output device, when the image data by said data supply means is supplied, may display an image corresponding to the image data on the display means.

本発明の好ましい態様においては、各々の前記放音点に配置された複数の前記放音手段を備え、前記データ供給手段は、前記放音点特定手段によって特定された放音点に配置された放音手段に、前記送信されてきた音声データを供給し、前記放音手段は、前記データ供給手段によって音声データが供給されると、当該音声データに応じた音声を放音してもよい。   In a preferred aspect of the present invention, the sound source includes a plurality of the sound emitting means arranged at each of the sound emitting points, and the data supply means is arranged at the sound emitting point specified by the sound emitting point specifying means. The transmitted sound data may be supplied to a sound emitting means, and the sound emitting means may emit a sound corresponding to the sound data when the sound data is supplied by the data supplying means.

本発明によれば、拠点や話者などが異なる各々の音声を放音させる放音点を利用者が任意に決めることができる。   According to the present invention, the user can arbitrarily determine the sound emission point at which the sounds of different bases and speakers are emitted.

[構成]
(会議システムの構成)
図1は、本実施形態に係る会議システム1の構成を示す図である。同図に示すように、会議システム1は、複数の会議端末5を備えている。各々の会議端末5は、互いに異なる拠点に設置されており、インターネットなどのネットワークNを介して接続されている。これらの会議端末5は、利用者の映像や音声を表すデータを互いに送受信することができる。これにより、異なる拠点にいる利用者同士が、会議端末5を利用して、互いに映像や音声をやり取りしながら遠隔会議を行うことができる。図2は、会議端末5の外観を示す図である。同図に示すように、この会議端末5は、情報処理装置10と、複数の放音装置20と、音声分配装置30とを備えている。
[Constitution]
(Conference system configuration)
FIG. 1 is a diagram showing a configuration of a conference system 1 according to the present embodiment. As shown in FIG. 1, the conference system 1 includes a plurality of conference terminals 5. Each conference terminal 5 is installed in a different base and connected via a network N such as the Internet. These conference terminals 5 can transmit and receive data representing the user's video and audio to each other. Thereby, users at different bases can use the conference terminal 5 to perform a remote conference while exchanging video and audio with each other. FIG. 2 is a diagram illustrating an appearance of the conference terminal 5. As shown in the figure, the conference terminal 5 includes an information processing device 10, a plurality of sound emitting devices 20, and a sound distribution device 30.

(情報処理装置の構成)
次に、情報処理装置10の構成について説明する。情報処理装置10は、例えばパーソナルコンピュータであり、CPU(Central Processing Unit)が記憶部に記憶されているプログラムを実行することにより、利用者の映像や音声を他拠点に設置された会議端末5とやり取りする処理を行う。例えば、情報処理装置10は、利用者の音声を収音し、収音した音声を表す音声データを他の会議端末5へと送信する。また、情報処理装置10は、他の会議端末5から音声データが送信されてくると、その音声データを音声分配装置30に供給する。また、図に示すように、情報処理装置10は、操作部11と表示部12とを備えている。この操作部11は、例えばキーボードであり、利用者の操作を受け付ける。表示部12は、例えば液晶ディスプレイであり、画像データに応じた画像を表示する。
(Configuration of information processing device)
Next, the configuration of the information processing apparatus 10 will be described. The information processing apparatus 10 is, for example, a personal computer, and a CPU (Central Processing Unit) executes a program stored in a storage unit so that a user's video and audio are transmitted to the conference terminal 5 installed at another base. Perform the exchange process. For example, the information processing apparatus 10 collects the user's voice and transmits voice data representing the collected voice to the other conference terminals 5. In addition, when the audio data is transmitted from the other conference terminal 5, the information processing apparatus 10 supplies the audio data to the audio distribution device 30. As shown in the figure, the information processing apparatus 10 includes an operation unit 11 and a display unit 12. The operation unit 11 is a keyboard, for example, and accepts user operations. The display unit 12 is a liquid crystal display, for example, and displays an image according to the image data.

(放音装置の構成)
次に、放音装置20の構成について説明する。図3は、放音装置20の外観を示す図である。この放音装置20は、薄い板状の形状を有しており、その大きさは例えば幅25mm×長さ75mmである。図に示すように、放音装置20は、放音部21と、接点端子22と、表示部23とを備えている。放音部21は、静電型の平面スピーカとD/A変換器などを備えた放音手段である。この放音部21は、表示部23の背面側に設けられており、表示部23を振動板として用いて、音声データに応じた音声を放音する。接点端子22は、音声分配装置30側の接点端子と接触される端子である。表示部23は、例えば電子ペーパであり、画像データに応じた画像を表示する表示手段である。
(Configuration of sound emission device)
Next, the configuration of the sound emitting device 20 will be described. FIG. 3 is a diagram illustrating an appearance of the sound emitting device 20. The sound emitting device 20 has a thin plate shape, and its size is, for example, 25 mm wide × 75 mm long. As shown in the figure, the sound emitting device 20 includes a sound emitting unit 21, a contact terminal 22, and a display unit 23. The sound emitting unit 21 is sound emitting means including an electrostatic flat speaker, a D / A converter, and the like. The sound emitting unit 21 is provided on the back side of the display unit 23 and emits sound corresponding to the sound data using the display unit 23 as a diaphragm. The contact terminal 22 is a terminal that comes into contact with the contact terminal on the audio distribution device 30 side. The display unit 23 is, for example, electronic paper, and is a display unit that displays an image according to image data.

(音声分配装置の構成)
次に、音声分配装置30の構成について説明する。この音声分配装置30は、単体で又は放音装置20と協働して、音声中継装置として機能する。まず、音声分配装置30の取り付け構造について説明する。図2に示すように、音声分配装置30には、断面形状が略コの字状に形成された取付部301が設けられている。図4は、音声分配装置30を図2中の矢線V方向から見た側面図である。同図に示すように、取付部301は、情報処理装置10の表示部12の上縁部を挟み込むように配置される。これにより、音声分配装置30が情報処理装置10に固定される。また、図2に示すように、音声分配装置30には、通信ケーブル302が設けられている。この通信ケーブル302は、USB(Universal Serial Bus)ケーブルであり、先端に設けられたコネクタ303が情報処理装置10の接続口13に差し込まれることにより、情報処理装置10に接続される。これにより、音声分配装置30と情報処理装置10との間で、USB規格に従って通信を行うことができる。
(Configuration of audio distribution device)
Next, the configuration of the audio distribution device 30 will be described. The voice distribution device 30 functions as a voice relay device by itself or in cooperation with the sound emitting device 20. First, the mounting structure of the audio distribution device 30 will be described. As shown in FIG. 2, the voice distribution device 30 is provided with a mounting portion 301 having a substantially U-shaped cross section. 4 is a side view of the voice distribution device 30 as viewed from the direction of the arrow V in FIG. As shown in the figure, the attachment portion 301 is disposed so as to sandwich the upper edge portion of the display portion 12 of the information processing apparatus 10. Thereby, the voice distribution device 30 is fixed to the information processing device 10. As shown in FIG. 2, the audio distribution device 30 is provided with a communication cable 302. The communication cable 302 is a USB (Universal Serial Bus) cable, and is connected to the information processing apparatus 10 by inserting a connector 303 provided at the tip into the connection port 13 of the information processing apparatus 10. Thereby, communication can be performed between the audio distribution device 30 and the information processing device 10 in accordance with the USB standard.

続いて、音声分配装置30の構成について説明する。図5は、音声分配装置30の構成を示すブロック図である。同図に示すように、音声分配装置30は、制御部31と、通信部32と、複数の差込部33とを備えている。制御部31は、メモリを有しており、音声分配装置30の各部を制御する。このメモリは、データを記憶する記憶手段であり、差込部33を管理する管理テーブルTなどを記憶している。通信部32は、通信ケーブル302を介して接続された情報処理装置10と通信を確立し、データの送受信を行う。差込部33は、図4に示すように、放音装置20が差し込まれる差込口である。各々の差込部33は、図2に示すように、1列に並べて配置されている。各々の差込部33が配置された地点は、音声が放音される放音点となる。この差込部33には、図示せぬ係止部が設けられており、差込部33に放音装置20が差し込まれると、この係止部の作用により、「カチッ」という音がして放音装置20が差込部33の内部で固定されるようになっている。また、放音装置20が差込部33の内部で固定されているときに、放音装置20がさらに押し込まれると、「カチッ」という音がして、係止部による固定が解除される。これにより、放音装置20を差込部33から取り出すことができる。つまり、放音装置20は、差込部33に対して抜き差し自在になっている。   Next, the configuration of the voice distribution device 30 will be described. FIG. 5 is a block diagram showing a configuration of the voice distribution device 30. As shown in the figure, the voice distribution device 30 includes a control unit 31, a communication unit 32, and a plurality of insertion units 33. The control unit 31 has a memory and controls each unit of the audio distribution device 30. This memory is a storage means for storing data, and stores a management table T for managing the insertion unit 33 and the like. The communication unit 32 establishes communication with the information processing apparatus 10 connected via the communication cable 302 and transmits / receives data. As shown in FIG. 4, the insertion portion 33 is an insertion port into which the sound emitting device 20 is inserted. Each insertion part 33 is arranged in a line as shown in FIG. The point where each insertion part 33 is arrange | positioned becomes a sound emission point from which a sound is emitted. The insertion portion 33 is provided with a locking portion (not shown). When the sound emitting device 20 is inserted into the insertion portion 33, a sound of “click” is generated by the operation of the locking portion. The sound emitting device 20 is fixed inside the insertion portion 33. Further, when the sound emitting device 20 is fixed inside the plug-in portion 33 and the sound emitting device 20 is further pushed in, a “click” sound is generated and the fixing by the locking portion is released. Thereby, the sound emitting device 20 can be taken out from the insertion portion 33. That is, the sound emitting device 20 can be inserted into and removed from the insertion portion 33.

図5に示すように、各々の差込部33は、記憶部35と、接点端子36と、検出部37とを備えている。各差込部33の記憶部35、接点端子36及び検出部37は、バスBを介して制御部31に接続されている。記憶部35は、例えばメモリであり、自差込部33に割り当てられた識別子を記憶している。接点端子36は、自差込部33に放音装置20が差し込まれたときに、その放音装置20の接点端子22に接触される端子である。検出部37は、自差込部33に放音装置20が差し込まれると、放音装置20が接続されたことを検出する。   As shown in FIG. 5, each insertion unit 33 includes a storage unit 35, a contact terminal 36, and a detection unit 37. The storage unit 35, the contact terminal 36, and the detection unit 37 of each plug-in unit 33 are connected to the control unit 31 via the bus B. The storage unit 35 is a memory, for example, and stores an identifier assigned to the self-insertion unit 33. The contact terminal 36 is a terminal that is brought into contact with the contact terminal 22 of the sound emitting device 20 when the sound emitting device 20 is inserted into the self-insertion portion 33. When the sound emitting device 20 is inserted into the self-inserting unit 33, the detecting unit 37 detects that the sound emitting device 20 is connected.

ここで、制御部31のメモリに記憶されている管理テーブルTについて説明する。図6は、管理テーブルTの一例を示す図である。同図に示すように、管理テーブルTでは、上述した「差込部の識別子」と「接続状態」とが対応付けられている。この「接続状態」は、差込部33に放音装置20が差し込まれているか否かを表す情報である。この管理テーブルTでは、いずれの「差込部の識別子」にも、「OFF」という接続状態が対応付けられている。これは、いずれの差込部33にも、放音装置20が差し込まれていないことを表している。   Here, the management table T stored in the memory of the control unit 31 will be described. FIG. 6 is a diagram illustrating an example of the management table T. As illustrated in FIG. As shown in the figure, in the management table T, the above-mentioned “insertion unit identifier” and “connection state” are associated with each other. This “connection state” is information indicating whether or not the sound emitting device 20 is inserted into the insertion portion 33. In this management table T, any “insertion unit identifier” is associated with a connection state of “OFF”. This represents that the sound emitting device 20 is not inserted into any of the insertion portions 33.

[動作]
次に、会議システム1の動作について説明する。
(設定処理)
まず、利用者が、他拠点の話者の音声の放音点を設定する設定処理について説明する。この場合、利用者は、他拠点の話者の人数分の放音装置20を音声分配装置30の差込部33のいずれかに差し込む。つまり、利用者は、音声が放音される複数の放音点の中からいずれかを選択する。ここでは、図1において、拠点Aにいる利用者U0が、放音装置20p,20q,20rを図7に示すように差し込んだ場合を想定する。なお、以下の説明では、音声分配装置30の各差込部33を区別する場合には、図中の左側から順に「差込部33a」〜「差込部33j」と呼ぶ。
[Operation]
Next, the operation of the conference system 1 will be described.
(Setting process)
First, a setting process in which the user sets the sound emission point of the voice of a speaker at another base will be described. In this case, the user inserts the sound emitting device 20 for the number of speakers at other bases into one of the insertion sections 33 of the sound distribution device 30. That is, the user selects one of a plurality of sound emission points from which sound is emitted. Here, in FIG. 1, it is assumed that the user U0 at the site A has inserted the sound emitting devices 20p, 20q, and 20r as shown in FIG. In the following description, when each insertion unit 33 of the voice distribution device 30 is distinguished, they are referred to as “insertion unit 33a” to “insertion unit 33j” in order from the left side in the drawing.

放音装置20pが差し込まれると、放音装置20pの接点端子22と差込部33bの接点端子36とが接触する。これにより、差込部33bの検出部37は、放音装置20pが接続されたことを検出し、その記憶部35に記憶されている「2」という識別子と検出信号とを制御部31に送信する。同様にして、差込部33dの検出部37は、放音装置20qが接続されたことを検出し、その記憶部35に記憶されている「4」という識別子と検出信号とを制御部31に送信する。さらに、差込部33jの検出部37も、放音装置20rが接続されたことを検出し、その記憶部35に記憶されている「10」という識別子と検出信号とを制御部31に送信する。制御部31は、送信されてきた差込部の識別子及び検出信号に基づいて、放音装置20が差し込まれた差込部33を検出する。つまり、制御部31とこれらの検出部37とが協働して、検出手段として機能する。続いて、制御部31は、この検出結果に基づいて、メモリに記憶されている管理テーブルTの接続状態を更新する。この例では、図6に示した管理テーブルTにおいて、差込部の識別子「2」,「4」,「10」に対応付けられた接続状態が「OFF」から「ON」に変更される。   When the sound emitting device 20p is inserted, the contact terminal 22 of the sound emitting device 20p and the contact terminal 36 of the insertion portion 33b come into contact with each other. Thereby, the detection unit 37 of the plug-in unit 33b detects that the sound emitting device 20p is connected, and transmits the identifier “2” and the detection signal stored in the storage unit 35 to the control unit 31. To do. Similarly, the detection unit 37 of the plug-in unit 33d detects that the sound emitting device 20q is connected, and sends the identifier “4” and the detection signal stored in the storage unit 35 to the control unit 31. Send. Further, the detection unit 37 of the insertion unit 33j also detects that the sound emitting device 20r is connected, and transmits the identifier “10” and the detection signal stored in the storage unit 35 to the control unit 31. . The control part 31 detects the insertion part 33 in which the sound emission apparatus 20 was inserted based on the identifier and detection signal of the insertion part which were transmitted. That is, the control unit 31 and these detection units 37 cooperate to function as detection means. Subsequently, the control unit 31 updates the connection state of the management table T stored in the memory based on the detection result. In this example, in the management table T illustrated in FIG. 6, the connection state associated with the identifiers “2”, “4”, and “10” of the plug-in unit is changed from “OFF” to “ON”.

次に、利用者U0は、情報処理装置10の操作部11を操作して、放音装置20を差し込んだ各々の差込部33に対して、その差込部33に差し込まれた放音装置20から放音させる音声を判別する情報を登録する。このとき、利用者U0は、1つの拠点にいる話者が複数人である場合には、その音声の音声データの送信元となる会議端末5の通信アドレスと、その音声の特徴情報とを登録し、1つの拠点にいる話者が1人である場合には、その音声の音声データの送信元となる通信アドレスだけを登録する。この通信アドレスは、音声データの送信元となる会議端末5を識別する送信元識別情報である。また、音声の特徴情報は、話者の声質を表す情報である。この特徴情報としては、例えば周波数特性が用いられる。つまり、利用者は、音声データ送信元を識別する送信元識別情報または音声の特徴情報を指定する。このように、1つの拠点にいる話者が1人である場合に通信アドレスだけを登録するのは、音声データの送信元となる会議端末5の通信アドレスだけでその話者を特定することができるからである。また、利用者U0は、情報処理装置10の操作部11を操作して、放音装置20を差し込んだ各々の差込部33に対して、その差込部33に差し込まれた放音装置20にて表示させる文字画像を表す文字データを登録する。   Next, the user U <b> 0 operates the operation unit 11 of the information processing apparatus 10, and the sound emitting device inserted into the insertion unit 33 for each insertion unit 33 into which the sound emitting device 20 is inserted. Information for determining the sound to be emitted from 20 is registered. At this time, when there are a plurality of speakers at one base, the user U0 registers the communication address of the conference terminal 5 that is the transmission source of the voice data of the voice and the feature information of the voice. If there is only one speaker at one site, only the communication address that is the transmission source of the voice data of that voice is registered. This communication address is transmission source identification information for identifying the conference terminal 5 that is the transmission source of the audio data. The voice feature information is information representing the voice quality of the speaker. As this feature information, for example, frequency characteristics are used. That is, the user designates transmission source identification information for identifying a voice data transmission source or voice feature information. As described above, when there is only one speaker at one site, only the communication address is registered by specifying the speaker only by the communication address of the conference terminal 5 that is the transmission source of the voice data. Because it can. In addition, the user U0 operates the operation unit 11 of the information processing apparatus 10 to each of the insertion units 33 into which the sound emission device 20 is inserted, and the sound emission device 20 inserted into the insertion unit 33. Character data representing a character image to be displayed is registered.

この例では、差込部33b,33d,33jに対して、以下のような内容が登録された場合を想定する。まず、差込部33bに対しては、図1において、拠点Bに設置された会議端末5の通信アドレス「192.168.0.2」及び話者U1の音声の特徴情報F1と、話者U1がいる拠点Bと話者U1の名前を表す「東京 佐藤」という文字データとが登録される。また、差込部33dに対しては、拠点Bに設置された会議端末5の通信アドレス「192.168.0.2」及び話者U2の音声の特徴情報F2と、話者U2がいる拠点Bと話者U2の名前を表す「東京 鈴木」という文字データとが登録される。さらに、差込部33jに対しては、拠点Cに設置された会議端末5の通信アドレス「192.168.0.3」と、話者U3がいる拠点Cと話者U3の名前を表す「大阪 加藤」という文字データとが登録される。   In this example, it is assumed that the following contents are registered in the insertion units 33b, 33d, and 33j. First, for the plug-in unit 33b, in FIG. 1, the communication address “192.168.0.2” of the conference terminal 5 installed at the site B, the voice feature information F1 of the speaker U1, and the speaker The base B where U1 is located and the character data “Tokyo Sato” representing the name of the speaker U1 are registered. For the plug-in unit 33d, the communication address “192.168.0.2” of the conference terminal 5 installed at the site B, the voice feature information F2 of the speaker U2, and the site where the speaker U2 exists. B and character data “Tokyo Suzuki” representing the name of the speaker U2 are registered. Further, for the plug-in unit 33j, the communication address “192.168.0.3” of the conference terminal 5 installed at the site C, and the names of the site C and the speaker U3 where the speaker U3 is “ Text data “Osaka Kato” is registered.

この場合、情報処理装置10は、これら差込部33の識別子と、その差込部33に対して登録された通信アドレスまたは音声の特徴情報と、文字データとを対応付けて、割り当て情報Eを作成する。そして、情報処理装置10は、作成した割り当て情報Eを音声分配装置30に送信する。音声分配装置30の制御部31は、情報処理装置10から送信されてきた割り当て情報Eを通信部32によって受信し、メモリに記憶させる。つまり、制御部31は、放音装置が差し込まれた差込口が配置された放音点と、利用者によって指定された音声データ送信元を識別する送信元識別情報または利用者によって指定された音声の特徴情報と、当該差込口に差し込まれた放音装置にて表示する画像を表す画像データとの入力を受け付ける入力受付手段である。そして、メモリは、制御部31が入力を受け付けた放音点と、送信元識別情報または音声の特徴情報と、画像データとを対応付けて記憶する。図8は、このときにメモリに記憶される割り当て情報Eを示す図である。同図に示すように、この割り当て情報Eでは、差込部33bの識別子「2」と、通信アドレス「192.168.0.2」及び「特徴情報F1」と、「東京 佐藤」という文字データとが対応付けられている。また、この割り当て情報Eでは、差込部33dの識別子「4」と、通信アドレス「192.168.0.2」及び「特徴情報F2」と、「東京 鈴木」という文字データとが対応付けられている。さらに、この割り当て情報Eでは、差込部33jの識別子「10」と、通信アドレス「192.168.0.3」と、「大阪 加藤」という文字データとが対応付けられている。   In this case, the information processing apparatus 10 associates the identifier of the plug-in unit 33 with the communication address or voice feature information registered for the plug-in unit 33 and the character data, and assigns the allocation information E. create. Then, the information processing apparatus 10 transmits the created allocation information E to the audio distribution apparatus 30. The control unit 31 of the audio distribution device 30 receives the allocation information E transmitted from the information processing device 10 by the communication unit 32 and stores it in the memory. That is, the control unit 31 has a sound emitting point where the insertion port into which the sound emitting device is inserted is arranged, and transmission source identification information for identifying a sound data transmission source designated by the user or designated by the user. It is an input reception means for receiving input of audio feature information and image data representing an image to be displayed on the sound emitting device inserted into the insertion port. The memory stores the sound emission point from which the control unit 31 has received the input, the transmission source identification information or the voice feature information, and the image data in association with each other. FIG. 8 is a diagram showing allocation information E stored in the memory at this time. As shown in the figure, in this allocation information E, the identifier “2” of the plug-in part 33b, the communication address “192.168.0.2” and “feature information F1”, and the character data “Tokyo Sato” Are associated with each other. Further, in the allocation information E, the identifier “4” of the plug-in part 33d, the communication address “192.168.0.2” and “feature information F2”, and the character data “Tokyo Suzuki” are associated with each other. ing. Further, in the allocation information E, the identifier “10” of the plug-in unit 33j, the communication address “192.168.0.3”, and character data “Osaka Kato” are associated with each other.

(割り当て処理)
次に、他拠点の話者の音声を、設定された放音点に割り当てる割り当て処理について説明する。ここでは、まず図1において、拠点Bにいる話者U1の音声を表す音声データD1が、拠点Bに設置された会議端末5から拠点Aに設置された会議端末5へと送信された場合を想定する。この音声データD1には、拠点Bに設置された会議端末5の通信アドレスである「192.168.0.2」が付加されている。音声データD1が送信されてくると、拠点Aに設置された会議端末5の情報処理装置10は、この音声データD1を音声分配装置30に送信する。
(Assignment process)
Next, an assignment process for assigning the voice of a speaker at another site to a set sound emission point will be described. Here, first, in FIG. 1, a case where voice data D1 representing the voice of the speaker U1 at the base B is transmitted from the conference terminal 5 installed at the base B to the conference terminal 5 installed at the base A. Suppose. To this audio data D1, “192.168.0.2”, which is the communication address of the conference terminal 5 installed at the site B, is added. When the audio data D1 is transmitted, the information processing apparatus 10 of the conference terminal 5 installed at the site A transmits the audio data D1 to the audio distribution apparatus 30.

図9は、このときに音声分配装置30及び放音装置20にて行われる割り当て処理を示すシーケンス図である。まず、音声分配装置30の制御部31は、情報処理装置10から送信されてきた音声データD1を通信部32によって受信する(ステップS11)。続いて、制御部31は、受信した音声データD1から、その送信元となる会議端末5の通信アドレスと音声の特徴情報とを取得する(ステップS12)。つまり、制御部31は、音声データ送信元から送信されてきた音声データから、当該音声データ送信元を識別する送信元識別情報または当該音声データが表す音声の特徴情報を取得する取得手段である。この例では、音声データD1に付加されている「192.168.0.2」という通信アドレスと、音声データD1が表す音声の特徴情報F1とが取得される。続いて、制御部31は、メモリに記憶されている割り当て情報Eにおいて、取得した通信アドレス又は音声の特徴情報と対応付けられた差込部の識別子を特定する(ステップS13)。つまり、制御部31は、上述にて取得された送信元識別情報または音声の特徴情報と対応付けて記憶手段に記憶されている放音点を特定する放音点特定手段である。この例では、図8に示した割り当て情報Eにおいて、通信アドレス「192.168.0.2」及び特徴情報F1に対応付けられた「2」という識別子が特定される。   FIG. 9 is a sequence diagram showing an assignment process performed in the voice distribution device 30 and the sound emitting device 20 at this time. First, the control part 31 of the audio | voice distribution apparatus 30 receives the audio | voice data D1 transmitted from the information processing apparatus 10 by the communication part 32 (step S11). Then, the control part 31 acquires the communication address and audio | voice characteristic information of the conference terminal 5 used as the transmission source from the received audio | voice data D1 (step S12). That is, the control unit 31 is acquisition means for acquiring transmission source identification information for identifying the audio data transmission source or audio feature information represented by the audio data from the audio data transmitted from the audio data transmission source. In this example, the communication address “192.168.0.2” added to the audio data D1 and the audio feature information F1 represented by the audio data D1 are acquired. Subsequently, the control unit 31 specifies the identifier of the plug-in unit associated with the acquired communication address or voice feature information in the allocation information E stored in the memory (step S13). That is, the control unit 31 is a sound emission point specifying unit that specifies the sound emission point stored in the storage unit in association with the transmission source identification information or the voice feature information acquired as described above. In this example, in the assignment information E shown in FIG. 8, the identifier “2” associated with the communication address “192.168.0.2” and the feature information F1 is specified.

続いて、制御部31は、メモリに記憶されている割り当て情報Eにおいて、特定した差込部の識別子と対応付けられた文字データを抽出する(ステップS14)。つまり、制御部31は、上述にて特定された放音点と対応付けて記憶手段に記憶されている画像データを抽出する画像データ抽出手段である。この例では、図8に示した割り当て情報Eにおいて、差込部の識別子「2」に対応付けられた「東京 佐藤」という文字データが抽出される。続いて、制御部31は、ステップS11にて受信した音声データD1と抽出した文字データとを、ステップS13にて特定した識別子が割り当てられた差込部33に差し込まれた放音装置20に送信する(ステップS15)。つまり、制御部31は、上述にて特定された放音点に配置される放音手段に、送信されてきた音声データを供給するデータ供給手段である。この例では、音声データD1及び「東京 佐藤」という文字データが差込部33bに送られ、さらに差込部33bの接点端子36を介して、差込部33bに差し込まれた放音装置20pに送信される。音声データD1及び文字データが送信されてくると、放音装置20pは、接点端子22を介してこれらのデータを受信する(ステップS16)。続いて、放音装置20pは、受信した音声データD1に応じた音声を放音部21から放音するとともに、受信した文字データに応じた文字画像を表示部23に表示する(ステップS17)。これにより、差込部33bに差し込まれた放音装置20pにおいて、拠点Bにいる話者U1の音声が放音されるとともに、話者U1がいる拠点Bと話者U1の名前を表す「東京 佐藤」という文字画像が表示される。   Subsequently, the control unit 31 extracts character data associated with the identified identifier of the insertion unit in the allocation information E stored in the memory (step S14). That is, the control unit 31 is an image data extraction unit that extracts image data stored in the storage unit in association with the sound emission point specified above. In this example, in the assignment information E shown in FIG. 8, character data “Tokyo Sato” associated with the identifier “2” of the insertion part is extracted. Subsequently, the control unit 31 transmits the voice data D1 received in step S11 and the extracted character data to the sound emitting device 20 inserted in the insertion unit 33 to which the identifier specified in step S13 is assigned. (Step S15). That is, the control unit 31 is a data supply unit that supplies the transmitted sound data to the sound emitting unit arranged at the sound emitting point specified above. In this example, the voice data D1 and the character data “Tokyo Sato” are sent to the plug-in portion 33b, and further to the sound emitting device 20p inserted into the plug-in portion 33b via the contact terminal 36 of the plug-in portion 33b. Sent. When the sound data D1 and the character data are transmitted, the sound emitting device 20p receives these data via the contact terminal 22 (step S16). Subsequently, the sound emitting device 20p emits a sound corresponding to the received sound data D1 from the sound emitting unit 21 and displays a character image corresponding to the received character data on the display unit 23 (step S17). As a result, in the sound emitting device 20p inserted into the plug-in portion 33b, the voice of the speaker U1 at the base B is emitted, and the names of the base B and the speaker U1 where the speaker U1 is located are “Tokyo”. A character image “Sato” is displayed.

また、図1において、拠点Bにいる話者U2の音声を表す音声データD2が、拠点Bに設置された会議端末5から拠点Aに設置された会議端末5へと送信された場合を想定する。この場合、上述したステップS12では、音声データD2に付加されている「192.168.0.2」という通信アドレスと、音声データD2が表す音声の特徴情報F2とが取得される。続いて、ステップS13では、図8に示した割り当て情報Eにおいて、通信アドレス「192.168.0.2」及び音声の特徴情報F2に対応付けられた「4」という識別子が特定される。続いて、ステップS14では、図8に示した割り当て情報Eにおいて、差込部の識別子「4」に対応付けられた「東京 鈴木」という文字データが抽出される。続いて、ステップS15では、音声データD2及び「東京 鈴木」という文字データが、差込部33dの接点端子36を介して、差込部33dに差し込まれた放音装置20qに送信される。そして、ステップS17では、差込部33dに差し込まれた放音装置20qの放音部21から音声データD2に応じた音声が放音されるとともに、放音装置20qの表示部23にこの文字データに応じた文字画像が表示される。これにより、差込部33dに差し込まれた放音装置20qにおいて、拠点Bにいる話者U2の音声が放音されるとともに、話者U2がいる拠点Bと話者U2の名前を表す「東京 鈴木」という文字画像が表示される。   Further, in FIG. 1, it is assumed that audio data D2 representing the voice of the speaker U2 at the site B is transmitted from the conference terminal 5 installed at the site B to the conference terminal 5 installed at the site A. . In this case, in step S12 described above, the communication address “192.168.0.2” added to the audio data D2 and the audio feature information F2 represented by the audio data D2 are acquired. In step S13, the identifier “4” associated with the communication address “192.168.0.2” and the voice feature information F2 is specified in the allocation information E shown in FIG. Subsequently, in step S14, the character data “Tokyo Suzuki” associated with the identifier “4” of the plug-in part is extracted from the allocation information E shown in FIG. Subsequently, in step S15, the voice data D2 and the character data “Tokyo Suzuki” are transmitted to the sound emitting device 20q inserted into the insertion portion 33d via the contact terminal 36 of the insertion portion 33d. In step S17, a sound corresponding to the sound data D2 is emitted from the sound emitting unit 21 of the sound emitting device 20q inserted into the insertion unit 33d, and the character data is displayed on the display unit 23 of the sound emitting device 20q. A character image corresponding to is displayed. Thus, in the sound emitting device 20q inserted into the plug-in portion 33d, the voice of the speaker U2 at the base B is emitted and “Tokyo” representing the names of the base B and the speaker U2 where the speaker U2 is located. A character image “Suzuki” is displayed.

さらに、図1において、拠点Cにいる話者U3の音声を表す音声データD3が、拠点Cに設置された会議端末5から拠点Aに設置された会議端末5へと送信された場合を想定する。この場合、上述したステップS12では、音声データD3に付加されている「192.168.0.3」という通信アドレスが取得される。続いて、ステップS13では、図8に示した割り当て情報Eにおいて、通信アドレス「192.168.0.3」に対応付けられた「10」という識別子が特定される。続いて、ステップS14では、図8に示した割り当て情報Eにおいて、差込部の識別子「10」に対応付けられた「大阪 加藤」という文字データが抽出される。続いて、ステップS15では、音声データD3及び「大阪 加藤」という文字データが、差込部33jの接点端子36を介して、差込部33jに差し込まれた放音装置20rに送信される。そして、ステップS17では、差込部33jに差し込まれた放音装置20rの放音部21から音声データD3に応じた音声が放音されるとともに、放音装置20rの表示部23にこの文字データに応じた文字画像が表示される。これにより、差込部33jに差し込まれた放音装置20rにおいて、拠点Cにいる話者U3の音声が放音されるとともに、話者U3がいる拠点Cと話者U3の名前を表す「大阪 加藤」という文字画像が表示される。   Further, in FIG. 1, it is assumed that audio data D3 representing the voice of the speaker U3 at the site C is transmitted from the conference terminal 5 installed at the site C to the conference terminal 5 installed at the site A. . In this case, in step S12 described above, the communication address “192.168.0.3” added to the audio data D3 is acquired. Subsequently, in step S13, the identifier “10” associated with the communication address “192.168.0.3” is specified in the allocation information E shown in FIG. Subsequently, in step S14, the character data “Osaka Kato” associated with the identifier “10” of the plug-in part is extracted from the allocation information E shown in FIG. Subsequently, in step S15, the voice data D3 and the character data “Osaka Kato” are transmitted to the sound emitting device 20r inserted into the insertion portion 33j via the contact terminal 36 of the insertion portion 33j. In step S17, a sound corresponding to the sound data D3 is emitted from the sound emitting unit 21 of the sound emitting device 20r inserted into the insertion unit 33j, and the character data is displayed on the display unit 23 of the sound emitting device 20r. A character image corresponding to is displayed. Thus, in the sound emitting device 20r inserted into the plug-in portion 33j, the voice of the speaker U3 at the base C is emitted and “Osaka” representing the names of the base C and the speaker U3 where the speaker U3 is located. A character image “Kato” is displayed.

図10は、音声分配装置30において音声が放音される様子を示す図である。上述したように、この例では、拠点Bにいる話者U1の音声が、差込部33bに差し込まれた放音装置20pから放音され、拠点Bにいる話者U2の音声が、差込部33dに差し込まれた放音装置20qから放音され、拠点Cにいる話者U3の音声が、差込部33jに差し込まれた放音装置20rから放音される。このように、話者U1〜話者U3の音声は、それぞれ異なる放音点から放音される。また、各々の放音装置20には、その放音装置20から放音される音声の話者に関する情報が表示される。これにより、利用者U0は、他拠点にいる話者が発言を行ったときに、その話者を容易に識別することができる。また、利用者U0は、例えば遠くの拠点にいる話者の音声を自分の位置から離れた差込部33に差し込んだ放音装置20から放音させるようにし、近くの拠点にいる話者の音声を自分の位置から近い差込部33に差し込んだ放音装置20から放音させるようにしてもよい。これにより、利用者U0は、音声の話者が遠くの拠点にいるのか、あるいは近くの拠点にいるのかを直感的に把握することができる。以上説明したように、本実施形態によれば、拠点や話者などが異なる各々の音声を放音させる放音点を利用者が任意に決めることができる。   FIG. 10 is a diagram illustrating a state in which sound is emitted in the sound distribution device 30. As described above, in this example, the voice of the speaker U1 at the base B is emitted from the sound emitting device 20p inserted into the insertion unit 33b, and the voice of the speaker U2 at the base B is inserted. Sound is emitted from the sound emitting device 20q inserted into the portion 33d, and the voice of the speaker U3 at the base C is emitted from the sound emitting device 20r inserted into the insertion portion 33j. Thus, the voices of the speakers U1 to U3 are emitted from different sound emission points. Each sound emitting device 20 displays information related to the speaker of the sound emitted from the sound emitting device 20. Thus, the user U0 can easily identify the speaker when the speaker at another base speaks. In addition, the user U0, for example, causes the sound of the speaker at a distant base to be emitted from the sound emitting device 20 inserted into the plug-in part 33 away from his / her position, and the speaker U at the nearby base The sound may be emitted from the sound emitting device 20 inserted into the insertion unit 33 close to the user's position. As a result, the user U0 can intuitively grasp whether the voice speaker is at a remote site or a nearby site. As described above, according to the present embodiment, the user can arbitrarily determine the sound emission point at which the voices of different bases and speakers are emitted.

[変形例]
以上が実施形態の説明であるが、この実施形態の内容は以下のように変形し得る。また、以下の各変形例を適宜組み合わせてもよい。
(変形例1)
上述した実施形態において、放音装置20が差し込まれた差込部33毎に、その放音装置20から放音される音声の音量を調節できるようにしてもよい。この場合、利用者は、情報処理装置10の操作部11を操作して、放音装置20を差し込んだ各々の差込部33に対して、その差込部33に差し込まれた放音装置20から音声が放音されるときの音量を設定する。そして、情報処理装置10は、上述した割り当て情報Eを作成するときに、差込部33の識別子に、その差込部33に対して設定された音量を表す音量情報を対応付ける。この場合、音声分配装置30の制御部31は、情報処理装置10からこの音量情報を含む割り当て情報Eを受信する。そして、メモリは、上述した差込部33の識別子とこの音量情報とを対応付けて記憶することになる。また、制御部31は、上述したステップS13にて差込部の識別子が特定されると、メモリに記憶されている割り当て情報Eにおいて、特定された識別子と対応付けられた音量情報を抽出する。つまり、制御部31は、特定された放音点と対応付けて記憶手段に記憶されている音量情報を抽出する音量情報抽出手段である。そして、制御部31は、上述したステップS15において、上述した音声データ及び文字データに加えて、抽出した音量情報を送信する。この場合、放音装置20は、上述したステップS17において、受信した音声データに応じた音声をこの音量情報が表す音量で放音部21から放音する。これにより、例えば特定の話者の音量だけを大きくしたりすることができる。
[Modification]
The above is the description of the embodiment, but the contents of this embodiment can be modified as follows. Further, the following modifications may be combined as appropriate.
(Modification 1)
In the above-described embodiment, the volume of the sound emitted from the sound emitting device 20 may be adjusted for each insertion unit 33 into which the sound emitting device 20 is inserted. In this case, the user operates the operation unit 11 of the information processing apparatus 10 to each of the insertion units 33 into which the sound emission device 20 is inserted, and the sound emission device 20 inserted into the insertion unit 33. Set the volume when sound is emitted from. When the information processing apparatus 10 creates the above-described allocation information E, the information processing apparatus 10 associates the identifier of the insertion unit 33 with volume information indicating the volume set for the insertion unit 33. In this case, the control unit 31 of the voice distribution device 30 receives the allocation information E including the volume information from the information processing device 10. Then, the memory stores the identifier of the plug-in unit 33 and the sound volume information in association with each other. Further, when the identifier of the plug-in unit is specified in step S13 described above, the control unit 31 extracts volume information associated with the specified identifier in the allocation information E stored in the memory. That is, the control unit 31 is volume information extraction means for extracting volume information stored in the storage means in association with the specified sound emission point. Then, in step S15 described above, the control unit 31 transmits the extracted volume information in addition to the voice data and character data described above. In this case, the sound emitting device 20 emits the sound corresponding to the received sound data from the sound emitting unit 21 at the volume represented by the volume information in step S17 described above. Thereby, for example, only the volume of a specific speaker can be increased.

(変形例2)
上述した実施形態において、放音装置20が差込部33から抜き取られた場合には、この放音装置20から放音されていた音声を別の放音点から放音させてもよい。この場合、制御部31は、上述したステップS15にて音声データを送信する前に、メモリに記憶されている管理テーブルTにおいて、上述したステップS13にて特定された差込部の識別子と対応付けられた接続状態が「ON」であるか否かを判別する。そして、制御部31は、この接続状態が「ON」である場合には、上述した実施形態と同様の処理を行い、この接続状態が「OFF」である場合には、上述したステップS11にて受信したデータを他の放音点へと送信する。他の放音点としては、情報処理装置10がスピーカなどの放音手段を備えている場合には、情報処理装置10の放音手段であってもよいし、同一拠点にいる他の話者の音声が放音される他の放音装置20であってもよい。
(Modification 2)
In the embodiment described above, when the sound emitting device 20 is extracted from the plug-in portion 33, the sound emitted from the sound emitting device 20 may be emitted from another sound emitting point. In this case, the control unit 31 associates the identifier of the plug-in unit specified in step S13 described above with the management table T stored in the memory before transmitting the audio data in step S15 described above. It is determined whether or not the connected state is “ON”. When the connection state is “ON”, the control unit 31 performs the same processing as that of the above-described embodiment. When the connection state is “OFF”, the control unit 31 performs the above-described step S11. Send the received data to another sound emission point. As another sound emitting point, when the information processing apparatus 10 includes sound emitting means such as a speaker, the sound emitting means of the information processing apparatus 10 may be used, or another speaker at the same site. The other sound emitting device 20 that emits the sound may be used.

(変形例3)
上述した実施形態において、各々の放音装置20は、当該放音装置20に割り当てられた識別子を記憶する記憶部を備えていてもよい。この場合、利用者は、情報処理装置10の操作部11を操作して、差込部33に差し込んだ各々の放音装置20に対して、その放音装置20から放音させる音声を判別する情報を登録する。そして、情報処理装置10は、これらの放音装置20の識別子と、その放音装置20に対して登録された通信アドレスまたは音声の特徴情報と、文字データとを対応付けて、割り当て情報を作成する。この場合、上述したステップS13では、メモリに記憶されている割り当て情報において、取得した通信アドレスまたは音声の特徴情報と対応付けられた放音装置の識別子が特定される。また、ステップS14では、メモリに記憶されている割り当て情報において、特定した放音装置の識別子と対応付けられた文字データが抽出される。そして、ステップS15では、上述した音声データ及び文字データが、特定した放音装置の識別子が割り当てられた放音装置20に送信される。
(Modification 3)
In the embodiment described above, each sound emitting device 20 may include a storage unit that stores an identifier assigned to the sound emitting device 20. In this case, the user operates the operation unit 11 of the information processing device 10 to determine the sound to be emitted from the sound emitting device 20 for each sound emitting device 20 inserted into the insertion unit 33. Register information. Then, the information processing apparatus 10 creates allocation information by associating the identifiers of the sound emitting devices 20, the communication address or the voice feature information registered for the sound emitting device 20, and the character data. To do. In this case, in step S13 described above, the identifier of the sound emitting device associated with the acquired communication address or voice feature information is specified in the allocation information stored in the memory. In step S14, the character data associated with the identified identifier of the sound emitting device is extracted from the allocation information stored in the memory. In step S15, the above-described sound data and character data are transmitted to the sound emitting device 20 to which the identified sound emitting device identifier is assigned.

(変形例4)
上述した実施形態において、放音装置20は、音声分配装置30から抜き差し自在に設けられていたが、音声分配装置30の差込部33毎に複数の放音部が固定して設けられていてもよい。この複数の放音部としては、例えばアレイスピーカが用いられる。つまり、音声分配装置30は、各々の放音点に配置された複数の放音手段を備えてもよい。この場合には、上述した放音装置20に代えて差込部33に差し込まれる差込部材が用いられる。そして、利用者は、他拠点の話者の人数分の差込部材を音声分配装置30の差込部33のいずれかに差し込む。この場合、音声分配装置30の制御部31は、上述したステップS15において、上述した音声データ及び文字データを、ステップS13にて特定した識別子が割り当てられた差込部33の放音部に送信する。
また、この場合には、音声分配装置30の放音部毎にスイッチを設け、このスイッチが押された放音部によって音声が放音されるようにしてもよい。
(Modification 4)
In the above-described embodiment, the sound emitting device 20 is provided so as to be detachable from the sound distributing device 30, but a plurality of sound emitting portions are fixedly provided for each insertion portion 33 of the sound distributing device 30. Also good. For example, an array speaker is used as the plurality of sound emitting units. That is, the sound distribution device 30 may include a plurality of sound emitting means arranged at each sound emitting point. In this case, an insertion member that is inserted into the insertion portion 33 is used instead of the sound emitting device 20 described above. And a user inserts the insertion member for the number of speakers of another base into one of the insertion parts 33 of the voice distribution device 30. In this case, in step S15 described above, the control unit 31 of the voice distribution device 30 transmits the above-described voice data and character data to the sound emitting unit of the insertion unit 33 to which the identifier specified in step S13 is assigned. .
Further, in this case, a switch may be provided for each sound emitting unit of the sound distribution device 30, and sound may be emitted by the sound emitting unit where the switch is pressed.

(変形例5)
上述した実施形態では、放音部21が静電型の平面スピーカを備える例を挙げて説明したが、放音部21が他の形状又は方式のスピーカを備えていてもよい。例えば、放音部21が、電磁型のスピーカを備えていてもよい。また、放音装置20の形状も図3に示した例に限らない。
また、上述した実施形態では、複数の差込部33が1列に並べて配置されていたが、差込部33の配列はこれに限らない。例えば、複数の差込部33がマトリックス状に並べて配置されていてもよいし、地球儀を模した球体の表面に沿って並べて配置されていてもよい。
(Modification 5)
In the above-described embodiment, the sound emitting unit 21 has been described as an example including an electrostatic flat speaker, but the sound emitting unit 21 may include a speaker of another shape or method. For example, the sound emitting unit 21 may include an electromagnetic speaker. Further, the shape of the sound emitting device 20 is not limited to the example shown in FIG.
In the above-described embodiment, the plurality of insertion portions 33 are arranged in a line, but the arrangement of the insertion portions 33 is not limited to this. For example, the plurality of insertion portions 33 may be arranged side by side in a matrix or may be arranged side by side along the surface of a sphere simulating a globe.

(変形例6)
上述した実施形態では、情報処理装置10の操作部11が利用者の操作を受け付けていたが、音声分配装置30が操作部を備え、利用者の操作を受け付けてもよい。この場合、制御部31には、この操作部の操作によって、利用者によって登録された情報が入力される。そして、制御部31は、入力された情報に基づいて上述した割り当て情報Eを作成する。
(Modification 6)
In the above-described embodiment, the operation unit 11 of the information processing apparatus 10 receives a user operation. However, the voice distribution device 30 may include an operation unit and receive a user operation. In this case, the information registered by the user is input to the control unit 31 by the operation of the operation unit. And the control part 31 produces the allocation information E mentioned above based on the input information.

(変形例7)
上述した情報処理装置10、放音装置20、音声分配装置30の動作は、1又は複数のハードウェア構成によって実現されてもよいし、CPUが1又は複数のプログラムを実行することによって実現されてもよい。また、このCPUによって実行される各プログラムは、磁気テープや磁気ディスクなどの磁気記録媒体、光ディスクなどの光記録媒体、光磁気記録媒体、半導体メモリなどの、コンピュータ装置が読み取り可能な記録媒体に記憶された状態で提供し得る。また、このプログラムを、インターネットのようなネットワーク経由でダウンロードさせることも可能である。
(Modification 7)
The operations of the information processing device 10, the sound emitting device 20, and the sound distribution device 30 described above may be realized by one or a plurality of hardware configurations, or by the CPU executing one or a plurality of programs. Also good. Each program executed by the CPU is stored in a computer-readable recording medium such as a magnetic recording medium such as a magnetic tape or a magnetic disk, an optical recording medium such as an optical disk, a magneto-optical recording medium, or a semiconductor memory. Can be provided in the state. It is also possible to download this program via a network such as the Internet.

本実施形態に係る会議システムの構成を示す図である。It is a figure which shows the structure of the conference system which concerns on this embodiment. 前記会議システムの会議端末の外観を示す図である。It is a figure which shows the external appearance of the conference terminal of the said conference system. 前記会議端末の放音装置の外観を示す図である。It is a figure which shows the external appearance of the sound emission apparatus of the said conference terminal. 前記会議端末の音声分配装置の側面図である。It is a side view of the audio | voice distribution apparatus of the said conference terminal. 前記音声分配装置の構成を示すブロック図である。It is a block diagram which shows the structure of the said audio distribution apparatus. 前記音声分配装置が記憶する管理テーブルの一例を示す図である。It is a figure which shows an example of the management table which the said audio distribution apparatus memorize | stores. 前記放音装置が差し込まれる様子を示す図である。It is a figure which shows a mode that the said sound emission apparatus is inserted. 前記音声分配装置に記憶される割り当て情報を示す図である。It is a figure which shows the allocation information memorize | stored in the said audio distribution apparatus. 前記音声分配装置と前記放音装置の割り当て処理を示すシーケンス図である。It is a sequence diagram which shows the allocation process of the said audio | voice distribution apparatus and the said sound emission apparatus. 前記音声分配装置において音声が放音される様子を示す図である。It is a figure which shows a mode that an audio | voice is emitted in the said audio distribution apparatus.

符号の説明Explanation of symbols

1…会議システム、5…会議端末、10…情報処理装置、20…放音装置、21…放音部、22…接点端子、23…表示部、30…音声分配装置、31…制御部、32…通信部、33…差込部、35…記憶部、36…接点端子、37…検出部。 DESCRIPTION OF SYMBOLS 1 ... Conference system, 5 ... Conference terminal, 10 ... Information processing apparatus, 20 ... Sound emission device, 21 ... Sound emission part, 22 ... Contact terminal, 23 ... Display part, 30 ... Audio | voice distribution apparatus, 31 ... Control part, 32 ... Communication part, 33 ... Insertion part, 35 ... Storage part, 36 ... Contact terminal, 37 ... Detection part.

Claims (5)

音声が放音される複数の放音点の中から利用者によって選択された放音点と、利用者によって指定された音声データ送信元を識別する送信元識別情報または利用者によって指定された音声の特徴情報との入力を受け付ける入力受付手段と、
前記入力受付手段が入力を受け付けた、前記放音点と前記送信元識別情報または前記音声の特徴情報とを対応付けて記憶する記憶手段と、
前記音声データ送信元から送信されてきた音声データから、当該音声データ送信元を識別する送信元識別情報または当該音声データが表す音声の特徴情報を取得する取得手段と、
前記取得手段によって取得された前記送信元識別情報または前記特徴情報と対応付けて前記記憶手段に記憶されている放音点を特定する放音点特定手段と、
前記放音点特定手段によって特定された放音点に配置される放音手段に、前記送信されてきた音声データを供給するデータ供給手段と
を備えることを特徴とする音声中継装置。
The sound emission point selected by the user from the multiple sound emission points from which the sound is emitted, and the transmission source identification information for identifying the audio data transmission source specified by the user or the audio specified by the user Input accepting means for accepting input with feature information of
Storage means for storing the sound emission point and the transmission source identification information or the voice feature information in association with each other, the input receiving means receiving the input;
Acquisition means for acquiring transmission source identification information for identifying the audio data transmission source or audio feature information represented by the audio data from the audio data transmitted from the audio data transmission source;
A sound emission point specifying means for specifying a sound emission point stored in the storage means in association with the transmission source identification information or the feature information acquired by the acquisition means;
A voice relay apparatus comprising: data supply means for supplying the transmitted voice data to the sound emitting means arranged at the sound emitting point specified by the sound emitting point specifying means.
各々の前記放音点に配置された複数の差込口と、
前記放音手段を有し、前記差込口に抜き差し自在な放音装置と、
前記放音装置が差し込まれた前記差込口を検出する検出手段とを備え、
前記入力受付手段は、前記検出手段によって検出された前記差込口が配置された放音点と、利用者によって指定された音声データ送信元を識別する送信元識別情報または利用者によって指定された音声の特徴情報との入力を受け付け、
前記データ供給手段は、前記放音点特定手段によって特定された放音点に配置された差込口に差し込まれた前記放音装置に、前記送信されてきた音声データを供給し、
前記放音装置は、前記データ供給手段によって音声データが供給されると、当該音声データに応じた音声を前記放音手段から放音する
ことを特徴とする請求項1に記載の音声中継装置。
A plurality of outlets arranged at each of the sound emission points;
A sound emitting device having the sound emitting means and freely removable from the insertion port;
Detecting means for detecting the insertion port into which the sound emitting device is inserted;
The input receiving means is a sound emitting point where the insertion port detected by the detecting means is arranged, and transmission source identification information for identifying a voice data transmission source designated by the user or designated by the user Accepts input with audio feature information,
The data supplying means supplies the transmitted sound data to the sound emitting device inserted into the insertion port arranged at the sound emitting point specified by the sound emitting point specifying means,
2. The voice relay device according to claim 1, wherein, when voice data is supplied from the data supply unit, the sound emitting device emits a voice corresponding to the voice data from the sound emitting unit. 3.
前記入力受付手段は、前記検出手段によって検出された前記差込口が配置された放音点と、当該放音点から音声が放音されるときの音量を表す音量情報との入力を受け付け、
前記記憶手段は、前記入力受付手段が入力を受け付けた前記放音点と前記音量情報とを対応付けて記憶し、
前記放音点特定手段によって特定された放音点と対応付けて前記記憶手段に記憶されている音量情報を抽出する音量情報抽出手段を備え、
前記データ供給手段は、前記放音点特定手段によって特定された放音点に配置された差込口に差し込まれた前記放音装置に、前記送信されてきた音声データと前記音量情報抽出手段によって抽出された音量情報とを供給し、
前記放音装置は、前記データ供給手段によって前記音声データ及び前記音量情報が供給されると、当該音声データに応じた音声を当該音量情報が表す音量で前記放音手段から放出する
ことを特徴とする請求項2に記載の音声中継装置。
The input accepting unit accepts input of a sound emitting point where the insertion port detected by the detecting unit is arranged and volume information indicating a sound volume when sound is emitted from the sound emitting point,
The storage means stores the sound emission point received by the input receiving means and the volume information in association with each other,
Volume information extraction means for extracting volume information stored in the storage means in association with the sound emission point specified by the sound emission point specifying means,
The data supply means includes the sound data transmitted to the sound emitting device inserted into the insertion port arranged at the sound emitting point specified by the sound emitting point specifying means, and the sound volume information extracting means. Supply the extracted volume information and
When the sound data and the volume information are supplied from the data supply unit, the sound emitting device emits a sound corresponding to the sound data from the sound emitting unit at a volume represented by the volume information. The voice relay device according to claim 2.
前記放音装置は、画像を表示する表示手段を備え、
前記入力受付手段は、前記検出手段によって検出された前記差込口が配置された放音点と、当該差込口に差し込まれた放音装置にて表示する画像を表す画像データとの入力を受け付け、
前記記憶手段は、前記入力受付手段が入力を受け付けた前記放音点と前記画像データとを対応付けて記憶し、
前記放音点特定手段によって特定された放音点と対応付けて前記記憶手段に記憶されている画像データを抽出する画像データ抽出手段を備え、
前記データ供給手段は、前記放音点特定手段によって特定された放音点に配置された差込口に差し込まれた前記放音装置に、前記送信されてきた音声データと前記画像データ抽出手段によって抽出された画像データとを供給し、
前記放音装置は、前記データ供給手段によって前記画像データが供給されると、当該画像データに応じた画像を前記表示手段に表示する
ことを特徴とする請求項2又は3に記載の音声中継装置。
The sound emitting device includes display means for displaying an image,
The input accepting unit receives an input of a sound emitting point where the insertion port detected by the detecting unit is arranged and image data representing an image to be displayed by a sound emitting device inserted into the insertion port. Accept,
The storage means stores the sound emission point received by the input reception means in association with the image data,
Image data extraction means for extracting image data stored in the storage means in association with the sound emission point specified by the sound emission point specifying means;
The data supplying means includes the sound data transmitted to the sound emitting device inserted into the insertion port arranged at the sound emitting point specified by the sound emitting point specifying means, and the image data extracting means. Supply the extracted image data,
4. The voice relay device according to claim 2, wherein when the image data is supplied by the data supply unit, the sound emitting device displays an image corresponding to the image data on the display unit. 5. .
各々の前記放音点に配置された複数の前記放音手段を備え、
前記データ供給手段は、前記放音点特定手段によって特定された放音点に配置された放音手段に、前記送信されてきた音声データを供給し、
前記放音手段は、前記データ供給手段によって音声データが供給されると、当該音声データに応じた音声を放音する
ことを特徴とする請求項1に記載の音声中継装置。
A plurality of the sound emission means arranged at each of the sound emission points;
The data supply means supplies the transmitted audio data to the sound emitting means arranged at the sound emitting point specified by the sound emitting point specifying means,
The voice relay apparatus according to claim 1, wherein the sound emitting unit emits a voice corresponding to the voice data when the data supplying unit supplies the voice data.
JP2008294721A 2008-11-18 2008-11-18 Sound relay device Pending JP2010124133A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008294721A JP2010124133A (en) 2008-11-18 2008-11-18 Sound relay device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008294721A JP2010124133A (en) 2008-11-18 2008-11-18 Sound relay device

Publications (1)

Publication Number Publication Date
JP2010124133A true JP2010124133A (en) 2010-06-03

Family

ID=42325086

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008294721A Pending JP2010124133A (en) 2008-11-18 2008-11-18 Sound relay device

Country Status (1)

Country Link
JP (1) JP2010124133A (en)

Similar Documents

Publication Publication Date Title
CN107465959B (en) Online interaction method, device and system
CN107396137B (en) Online interaction method, device and system
US20110280388A1 (en) Audio conversation apparatus
KR100694162B1 (en) Method and apparatus for providing location information of device in home network
CN102158522A (en) Information processing apparatus, information processing method, control target device, and information processing system
TW201138487A (en) Audio monitoring system
JP4263873B2 (en) Server apparatus, client apparatus, distribution system, distribution program, and client program
JP4403999B2 (en) Remote controller and karaoke device
JP5786997B2 (en) Remote control device, karaoke system, and program
JP2010124133A (en) Sound relay device
JP5344188B2 (en) Portable information processing terminal and program for portable information processing terminal
CN101472128A (en) Playback controlling apparatus and image processing apparatus
KR20180126244A (en) System and method for providing paging services based on ai
EP3477485B1 (en) Distribution destination designation device, distribution destination designation method, and distribution destination designation program
CN112256230A (en) Menu interaction method and system and storage medium
JP5243909B2 (en) Karaoke system
JP6318989B2 (en) Karaoke service system and karaoke service device
CN110221891A (en) A kind of draw data acquisition methods, device, storage medium and terminal
JP6829606B2 (en) Karaoke system, server device
US20240015462A1 (en) Voice processing system, voice processing method, and recording medium having voice processing program recorded thereon
WO2022070379A1 (en) Signal processing system, signal processing device, and signal processing method
JP6527764B2 (en) Karaoke system
KR20170016691A (en) System And Method For Multilateral Broadcasting Music Using Mobile Application
JP5516634B2 (en) Remote control device, karaoke system, program and music reservation method
KR20170008180A (en) Module type broadcast equipment integrated control system and its control method