JP2018060297A - Conference terminal, microphone selection method, and program - Google Patents

Conference terminal, microphone selection method, and program Download PDF

Info

Publication number
JP2018060297A
JP2018060297A JP2016195990A JP2016195990A JP2018060297A JP 2018060297 A JP2018060297 A JP 2018060297A JP 2016195990 A JP2016195990 A JP 2016195990A JP 2016195990 A JP2016195990 A JP 2016195990A JP 2018060297 A JP2018060297 A JP 2018060297A
Authority
JP
Japan
Prior art keywords
microphone
touch panel
conference
panel display
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016195990A
Other languages
Japanese (ja)
Inventor
未来 袴谷
Miku Hakamatani
未来 袴谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2016195990A priority Critical patent/JP2018060297A/en
Publication of JP2018060297A publication Critical patent/JP2018060297A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve the problem in which: sounds when a finger or a pen or the like drawing an image touches on a conference terminal are collected.SOLUTION: A conference terminal comprises: a touch panel display accepting an input by drawing from a user and displaying an image; a plurality of microphones collecting surrounding sounds; and a control part determining a position on the touch panel display on which the user is drawing and selecting the microphone for sound collection for collecting sounds from the plurality of microphones according to the drawing position.SELECTED DRAWING: Figure 2

Description

本発明は、会議端末、マイク選択方法、及び、プログラムに関する。   The present invention relates to a conference terminal, a microphone selection method, and a program.

ネットワークを介して遠隔地間で会議を行うためのビデオ会議システムが知られている。このようなビデオ会議システムでは、一の遠隔地で取得した画像及び音声のデジタルデータを他の遠隔地へ送信して、他の遠隔地のディスプレイ及びスピーカで画像及び音声を出力して共有している。   There is known a video conference system for conducting a conference between remote locations via a network. In such a video conferencing system, digital image and audio data acquired at one remote location is transmitted to another remote location, and the image and audio are output and shared by the display and speaker at the other remote location. Yes.

また、ビデオ会議システムでは、タッチパネル搭載型のディスプレイによって実現されるインタラクティブ・ホワイトボード(または、電子黒板)を有する会議端末に関する技術が知られている。このような会議端末は、一の遠隔地でユーザがタッチパネル上に手描きした画像を電気的な画像データに変換して、他の遠隔地へ送信する。他の遠隔地の会議端末は、当該画像データを受信すると、手描き画像をディスプレイ上に表示する。   In video conference systems, a technology related to a conference terminal having an interactive whiteboard (or electronic blackboard) realized by a touch panel-mounted display is known. Such a conference terminal converts an image hand-drawn on the touch panel by a user at one remote location into electrical image data and transmits the image data to another remote location. When the other remote conference terminal receives the image data, it displays a hand-drawn image on the display.

しかしながら、上述の技術では、会議端末上で画像を描画する指またはペン等が接触する際の音が収集されてしまうといった課題がある。   However, the above-described technique has a problem that sounds are collected when a finger or a pen that draws an image on the conference terminal contacts.

本発明は、上記に鑑みてなされたものであって、会議端末上で画像を描画する音の収集を抑制できる会議端末を提供することを目的とする。   This invention is made in view of the above, Comprising: It aims at providing the conference terminal which can suppress collection of the sound which draws an image on a conference terminal.

上述した課題を解決し、目的を達成するために、本発明の会議端末は、ユーザからの描画による入力を受け付けるとともに、画像を表示するタッチパネル・ディスプレイと、周囲の音声を収集する複数のマイクと、前記ユーザが描画している前記タッチパネル・ディスプレイ上の位置に応じて音声を収集する音声収集用のマイクを前記複数のマイクから選択する制御部と、を備える。   In order to solve the above-described problems and achieve the object, the conference terminal of the present invention receives input by drawing from a user, displays a touch panel display that displays images, and a plurality of microphones that collect surrounding sounds And a control unit that selects, from the plurality of microphones, a voice collecting microphone that collects voice according to a position on the touch panel display on which the user is drawing.

本発明によれば、描画時の音の収集を抑制できるという効果を奏する。   According to the present invention, it is possible to suppress the collection of sound during drawing.

図1は、第1実施形態のビデオ会議システムの全体構成図である。FIG. 1 is an overall configuration diagram of the video conference system according to the first embodiment. 図2は、会議端末機能を有するインタラクティブ・ホワイトボートのハードウェア構成を説明するブロック図である。FIG. 2 is a block diagram illustrating a hardware configuration of an interactive whiteboard having a conference terminal function. 図3は、入出力ボード部の正面図である。FIG. 3 is a front view of the input / output board unit. 図4は、マイク選択処理における会議端末の情報処理部の機能を説明する機能ブロック図である。FIG. 4 is a functional block diagram illustrating functions of the information processing unit of the conference terminal in the microphone selection process. 図5は、制御部が実行するマイク選択処理のフローチャートである。FIG. 5 is a flowchart of microphone selection processing executed by the control unit. 図6は、ユーザがタッチパネル・ディスプレイの左上の描画エリアに描画している状態を示す図である。FIG. 6 is a diagram illustrating a state in which the user is drawing in the drawing area at the upper left of the touch panel display. 図7は、第1変形例を説明するための入出力ボード部の正面図である。FIG. 7 is a front view of the input / output board part for explaining the first modification. 図8は、第2変形例を説明するための入出力ボード部の正面図である。FIG. 8 is a front view of the input / output board part for explaining the second modification. 図9は、第3変形例を説明するための入出力ボード部の正面図である。FIG. 9 is a front view of the input / output board part for explaining the third modification. 図10は、第4変形例を説明するための入出力ボード部の正面図である。FIG. 10 is a front view of the input / output board part for explaining the fourth modification.

以下の例示的な実施形態等の同様の構成要素には共通の符号を付与して、重複する説明を適宜省略する。   Common constituent elements such as the following exemplary embodiments are denoted by common reference numerals, and redundant descriptions are omitted as appropriate.

<第1実施形態>
図1は、第1実施形態のビデオ会議システム10の全体構成図である。図1に示すように、ビデオ会議システム10は、会議予約サーバ12と、複数の会議端末14a、14b、14c、14dと、会議サーバ16とを備える。複数の会議端末14a、14b、14c、14dを区別する必要がない場合、会議端末14と記載する。会議予約サーバ12、会議サーバ16、及び、複数の会議端末14は、画像データ及び音声データ等のデータを送受信可能なインターネット及びLAN(Local Area Network)等の通信ネットワーク18を介して接続されている。
<First Embodiment>
FIG. 1 is an overall configuration diagram of a video conference system 10 according to the first embodiment. As shown in FIG. 1, the video conference system 10 includes a conference reservation server 12, a plurality of conference terminals 14 a, 14 b, 14 c, 14 d, and a conference server 16. When it is not necessary to distinguish between the plurality of conference terminals 14a, 14b, 14c, and 14d, they are referred to as conference terminals 14. The conference reservation server 12, the conference server 16, and the plurality of conference terminals 14 are connected via a communication network 18 such as the Internet and a LAN (Local Area Network) that can transmit and receive data such as image data and audio data. .

会議予約サーバ12の一例は、コンピュータである。会議予約サーバ12は、他のパーソナルコンピュータと接続されていてもよい。会議予約サーバ12は、会議主催者等のユーザが入力した会議情報を会議端末14から取得する。会議情報は、例えば、会議開催日時、場所、会議参加者、役割、参加する会議端末等に関する情報である。尚、会議予約サーバ12は、会議端末14以外の他のパーソナルコンピュータから会議情報を取得してもよい。   An example of the conference reservation server 12 is a computer. The conference reservation server 12 may be connected to another personal computer. The conference reservation server 12 acquires conference information input by a user such as a conference organizer from the conference terminal 14. The conference information is, for example, information related to the date and time of the conference, the location, the conference participant, the role, the conference terminal to participate in, and the like. The conference reservation server 12 may acquire conference information from a personal computer other than the conference terminal 14.

複数の会議端末14は、互いに離れた位置(例えば、遠隔地)に設置されている。会議端末14は、例えば、インタラクティブ・ホワイトボート機能を有するコンピュータである。インタラクティブ・ホワイトボート機能とは、通信可能なタッチパネル搭載型のディプレイによって実現される機能である。具体的には、インタラクティブ・ホワイトボート機能は、コンピュータからの指示によって表示する画像の画像データ、及び、ユーザが画面上で手描きした画像を変換した描画データを他の会議端末14との間で送受信する。会議端末14は、起動時に、自己が参加する会議端末14として登録されているビデオ会議の会議情報が有るか否かを会議予約サーバ12に問い合わせる。会議端末14は、自己が参加するビデオ会議が存在する場合、予め設定されたビデオ会議用のプログラム等に基づいて、ビデオ会議の制御を実行する。例えば、会議端末14は、ビデオ会議中において、ユーザから取得した画像データ及び音声データ等を会議サーバ16へ送信する。会議端末14は、他の会議端末14でユーザが入力した画像データ及び音声データ等を会議サーバ16から受信して、画像及び音声を出力する。   The plurality of conference terminals 14 are installed at positions separated from each other (for example, a remote place). The conference terminal 14 is, for example, a computer having an interactive whiteboard function. The interactive whiteboard function is a function realized by a display equipped with a touch panel capable of communication. Specifically, the interactive whiteboard function transmits / receives image data of an image displayed by an instruction from a computer and drawing data obtained by converting an image hand-drawn on the screen to / from other conference terminals 14. To do. The conference terminal 14 inquires of the conference reservation server 12 whether or not there is conference information of a video conference registered as the conference terminal 14 with which the conference terminal 14 participates. If there is a video conference in which the conference terminal 14 participates, the conference terminal 14 controls the video conference based on a preset video conference program or the like. For example, the conference terminal 14 transmits image data and audio data acquired from the user to the conference server 16 during the video conference. The conference terminal 14 receives image data, audio data, and the like input by the user at the other conference terminals 14 from the conference server 16 and outputs images and audio.

会議サーバ16の一例は、コンピュータである。会議サーバ16は、各会議端末14が通信ネットワーク18を介して自己と接続されているか否かの状態をモニタリングする。会議サーバ16は、会議予約サーバ12の会議情報に基づいて、会議開始時に会議端末14の呼び出し制御を実行する。会議サーバ16は、会議端末14との情報の送受信を含むビデオ会議の制御を実行する。   An example of the conference server 16 is a computer. The conference server 16 monitors whether or not each conference terminal 14 is connected to itself via the communication network 18. The conference server 16 performs call control of the conference terminal 14 at the start of the conference based on the conference information of the conference reservation server 12. The conference server 16 executes video conference control including transmission and reception of information with the conference terminal 14.

図2は、会議端末機能を有するインタラクティブ・ホワイトボートのハードウェア構成を説明するブロック図である。図2に示すように、会議端末14は、入出力ボード部20と、通信I/F部22と、操作部24と、情報処理部26とを有する。   FIG. 2 is a block diagram illustrating a hardware configuration of an interactive whiteboard having a conference terminal function. As shown in FIG. 2, the conference terminal 14 includes an input / output board unit 20, a communication I / F unit 22, an operation unit 24, and an information processing unit 26.

入出力ボード部20は、カメラ30と、タッチパネル・ディスプレイ32と、複数のマイク34a、34b、34c、34d、・・・と、スピーカ36とを有する。以下の説明において、マイク34a、34b、34c、34dを区別する必要がない場合、マイク34と記載する。カメラ30、タッチパネル・ディスプレイ32、マイク34、及び、スピーカ36は、情報処理部26とデータを送受信可能に接続されている。   The input / output board unit 20 includes a camera 30, a touch panel display 32, a plurality of microphones 34 a, 34 b, 34 c, 34 d,. In the following description, when it is not necessary to distinguish the microphones 34a, 34b, 34c, and 34d, they are described as the microphone 34. The camera 30, the touch panel display 32, the microphone 34, and the speaker 36 are connected to the information processing unit 26 so as to be able to transmit and receive data.

カメラ30の一例は、CMOSセンサ及びCCDセンサ等を有する撮像装置である。カメラ30は、周囲の被写体を撮像して動画等の画像データを生成する。カメラ30は、広角な範囲で周囲を撮像可能なことが好ましい。例えば、カメラ30は、ビデオ会議に参加している会議端末14の設置されている会議室の参加者等を撮像して画像データを生成する。カメラ30は、撮像した画像データを情報処理部26へ送信する。   An example of the camera 30 is an imaging device having a CMOS sensor, a CCD sensor, and the like. The camera 30 images surrounding subjects and generates image data such as a moving image. It is preferable that the camera 30 can image the surroundings in a wide angle range. For example, the camera 30 captures a participant in a conference room in which the conference terminal 14 participating in the video conference is installed and generates image data. The camera 30 transmits the captured image data to the information processing unit 26.

タッチパネル・ディスプレイ32は、液晶表示装置等による画像を表示する表示機能と、ユーザ(例えば、ビデオ会議の参加者)からの描画による入力を受け付けるタッチパネル機能とを有する。例えば、タッチパネル・ディスプレイ32は、ビデオ会議に参加している他の会議端末14が送信した画像データを情報処理部26から取得して、画像を表示する。タッチパネル・ディスプレイ32は、ユーザが指またはペン等で接触することによる入力を受け付けると、当該接触した位置の座標データを情報処理部26へ送信する。タッチパネル・ディスプレイ32は、ユーザが直接接触していなくても入力を受け付けることができるホバリング検知機能を有してもよい。ホバリング検知機能を有するタッチパネル・ディスプレイ32の一例は、ディスプレイ一体型の静電容量方式タッチパネルである。   The touch panel display 32 has a display function for displaying an image by a liquid crystal display device and the like, and a touch panel function for receiving an input by drawing from a user (for example, a participant in a video conference). For example, the touch panel display 32 acquires image data transmitted from another conference terminal 14 participating in a video conference from the information processing unit 26 and displays an image. When the touch panel display 32 receives an input by the user touching with a finger or a pen, the touch panel display 32 transmits the coordinate data of the touched position to the information processing unit 26. The touch panel display 32 may have a hovering detection function that can accept input even when the user is not in direct contact. An example of the touch panel display 32 having a hovering detection function is a display-integrated capacitive touch panel.

マイク34は、周囲の音声を収集して、当該音声を電気的な音声データに変換して、情報処理部26へ送信する。例えば、マイク34は、ビデオ会議の参加者の発言等の音声を収集して音声データに変換して、送信する。   The microphone 34 collects ambient sound, converts the sound into electrical sound data, and transmits the electrical sound data to the information processing unit 26. For example, the microphone 34 collects voices such as comments from participants in the video conference, converts them into voice data, and transmits the voice data.

スピーカ36は、情報処理部26から受信した音声データを音声に変換して外部に出力する。例えば、スピーカ36は、ビデオ会議に参加している他の会議端末14が送信した音声データを情報処理部26から取得して、音声を出力する。   The speaker 36 converts voice data received from the information processing unit 26 into voice and outputs the voice to the outside. For example, the speaker 36 acquires audio data transmitted from other conference terminals 14 participating in the video conference from the information processing unit 26 and outputs audio.

通信I/F部22は、データを送受信可能に情報処理部26及び通信ネットワーク18と接続する。これにより、通信I/F部22は、画像データ及び音声データ等のデータを送受信可能に情報処理部26を、会議予約サーバ12、会議サーバ16、及び、他の会議端末14と接続する。通信I/F部22は、例えば、10Base−T、100Base−TX、及び、1000Base−Tの少なくともいずれかに対応したEthernet(登録商標)に接続可能な有線LANのインターフェースである。また、通信I/F部22は、802.11a/b/g/nに対応した無線LANのインターフェースであってもよい。   The communication I / F unit 22 is connected to the information processing unit 26 and the communication network 18 so that data can be transmitted and received. Accordingly, the communication I / F unit 22 connects the information processing unit 26 to the conference reservation server 12, the conference server 16, and the other conference terminals 14 so that data such as image data and audio data can be transmitted and received. The communication I / F unit 22 is a wired LAN interface that can be connected to Ethernet (registered trademark) compatible with at least one of 10Base-T, 100Base-TX, and 1000Base-T, for example. The communication I / F unit 22 may be a wireless LAN interface compatible with 802.11a / b / g / n.

操作部24は、ユーザからの入力を受け付ける。操作部24は、例えば、キーボード、操作ボタン及びマウス等の少なくともいずれかを有する。操作部24は、情報処理部26とデータを送受信可能に接続されている。操作部24は、ユーザから受け付けた入力に関するデータを情報処理部26へ送信する。   The operation unit 24 receives input from the user. The operation unit 24 includes, for example, at least one of a keyboard, operation buttons, a mouse, and the like. The operation unit 24 is connected to the information processing unit 26 so that data can be transmitted and received. The operation unit 24 transmits data related to the input received from the user to the information processing unit 26.

情報処理部26は、会議端末14の制御全般を司る。情報処理部26の一例は、コンピュータである。情報処理部26は、入出力ボード部20と一体に設けられていてもよく、入出力ボード部20とは別部品として設けられていてもよい。情報処理部26は、制御部40と、記憶装置42と、メモリ44とを有する。   The information processing unit 26 performs overall control of the conference terminal 14. An example of the information processing unit 26 is a computer. The information processing unit 26 may be provided integrally with the input / output board unit 20, or may be provided as a separate component from the input / output board unit 20. The information processing unit 26 includes a control unit 40, a storage device 42, and a memory 44.

制御部40は、例えば、CPU(Central Processing Unit)を含むハードウェアのプロセッサ等の演算処理装置である。制御部40は、カメラ30、タッチパネル・ディスプレイ32、マイク34、スピーカ36、通信I/F部22、及び、操作部24とデータを送受信可能に接続されている。制御部40は、機器制御を実行する。具体的には、制御部40は、カメラ30、タッチパネル・ディスプレイ32、マイク34、スピーカ36、及び、操作部24の機器を制御する。例えば、制御部40は、カメラ30から会議室内のユーザ等の画像データを取得する。制御部40は、他の会議端末14等から受信した音声データをスピーカ36へ送信して音声を出力させる。制御部40は、他の会議端末14等から受信した画像データ及び描画データをタッチパネル・ディスプレイ32へ送信して画像を表示させる。制御部40は、マイク34からユーザが発言した音声等の音声データを取得する。制御部40は、タッチパネル・ディスプレイ32から取得したユーザが描画した画像の座標データに基づいて描画データを生成する。制御部40は、CODEC(Coder/Decoder)機能によってビデオ会議の制御を実行してよい。制御部40が有するCODEC機能は、例えば、H.264/AVC、H.264/SVC及びH.265等である。例えば、制御部40は、ビデオ会議において、画像データ、音声データ、及び、描画データにエンコード等の処理をした後、通信I/F部22を介して、当該データを会議サーバ16へ送信してよい。制御部40は、通信I/F部22を介して会議サーバ16から取得した他の会議端末14の画像データ、音声データ及び描画データ等にデコード等の処理をした後、当該データをタッチパネル・ディスプレイ32及びスピーカ36に送信してよい。   The control unit 40 is an arithmetic processing device such as a hardware processor including a CPU (Central Processing Unit), for example. The control unit 40 is connected to the camera 30, the touch panel / display 32, the microphone 34, the speaker 36, the communication I / F unit 22, and the operation unit 24 so that data can be transmitted and received. The control unit 40 performs device control. Specifically, the control unit 40 controls the camera 30, the touch panel / display 32, the microphone 34, the speaker 36, and the operation unit 24. For example, the control unit 40 acquires image data of a user or the like in the conference room from the camera 30. The control unit 40 transmits audio data received from another conference terminal 14 or the like to the speaker 36 to output audio. The control unit 40 transmits the image data and the drawing data received from the other conference terminal 14 or the like to the touch panel display 32 to display an image. The control unit 40 acquires voice data such as voice spoken by the user from the microphone 34. The control unit 40 generates drawing data based on the coordinate data of the image drawn by the user acquired from the touch panel display 32. The control unit 40 may execute control of the video conference by a CODEC (Coder / Decoder) function. The CODEC function of the control unit 40 is, for example, H.264. H.264 / AVC, H.H. H.264 / SVC and H.264. 265 and so on. For example, the control unit 40 performs processing such as encoding on image data, audio data, and drawing data in a video conference, and then transmits the data to the conference server 16 via the communication I / F unit 22. Good. The control unit 40 decodes the image data, audio data, drawing data, and the like of the other conference terminal 14 acquired from the conference server 16 via the communication I / F unit 22 and then displays the data on the touch panel display. 32 and the speaker 36 may be transmitted.

記憶装置42は、制御部40が実行する機器制御及びビデオ会議の制御で実行するマイク選択処理用のプログラム及びプログラムの実行に必要なパラメータ等のデータを記憶する。記憶装置42は、例えば、フラッシュメモリ、HDD(Hard Disk Drive)及びSSD(Solid State Drive)等の不揮発性の記憶媒体である。   The storage device 42 stores a microphone selection processing program executed by the device control and video conference control executed by the control unit 40, and data such as parameters necessary for the execution of the program. The storage device 42 is a nonvolatile storage medium such as a flash memory, an HDD (Hard Disk Drive), and an SSD (Solid State Drive).

メモリ44は、制御部40が実行するプログラムの展開及びプログラム実行中の演算データ等を一時的に記憶する。メモリ44は、例えば、DDR SDRAM(Double-Data-Rate SDRAM)等の揮発性のメモリである。   The memory 44 temporarily stores development of a program executed by the control unit 40 and operation data during the execution of the program. The memory 44 is a volatile memory such as a DDR SDRAM (Double-Data-Rate SDRAM).

図3は、入出力ボード部20の正面図である。図3に示すように、タッチパネル・ディスプレイ32は、入出力ボード部20のほぼ中央に配置されている。ユーザがペン46等を接触しつつタッチパネル・ディスプレイ32上を移動させると、タッチパネル・ディスプレイ32は、当該移動の軌跡に沿った画像DRを表示する。タッチパネル・ディスプレイ32は、水平方向及び鉛直方向に2×2で分割された4つの描画エリアAR1、AR2、AR3、AR4を有する。描画エリアAR1、AR2、AR3、AR4を区別する必要がない場合、描画エリアARと記載する。尚、説明上図面に点線を付与して描画エリアARを分割しているが、4つの描画エリアARは、物理的に分割されていなくてよい。好ましくは、ユーザが当該4つの描画エリアARを視認できない方がよい。4つの描画エリアARは、例えば、同じ面積を有する。描画エリアAR1は、タッチパネル・ディスプレイ32の左上に配置されている。描画エリアAR2は、タッチパネル・ディスプレイ32の右上に配置されている。描画エリアAR3は、タッチパネル・ディスプレイ32の右下に配置されている。描画エリアAR4は、タッチパネル・ディスプレイ32の左下に配置されている。   FIG. 3 is a front view of the input / output board unit 20. As shown in FIG. 3, the touch panel display 32 is disposed at substantially the center of the input / output board unit 20. When the user moves the touch panel display 32 while touching the pen 46 or the like, the touch panel display 32 displays an image DR along the movement locus. The touch panel display 32 has four drawing areas AR1, AR2, AR3, AR4 divided by 2 × 2 in the horizontal direction and the vertical direction. When there is no need to distinguish the drawing areas AR1, AR2, AR3, and AR4, they are referred to as a drawing area AR. Although the drawing area AR is divided by giving a dotted line to the drawing for the purpose of explanation, the four drawing areas AR do not have to be physically divided. Preferably, it is better that the user cannot visually recognize the four drawing areas AR. The four drawing areas AR have the same area, for example. The drawing area AR <b> 1 is arranged at the upper left of the touch panel display 32. The drawing area AR <b> 2 is arranged at the upper right of the touch panel display 32. The drawing area AR3 is arranged at the lower right of the touch panel display 32. The drawing area AR4 is arranged at the lower left of the touch panel display 32.

カメラ30は、タッチパネル・ディスプレイ32の上方であって、入出力ボード部20の上部の中央部に配置されている。   The camera 30 is disposed above the touch panel display 32 and in the center of the upper part of the input / output board unit 20.

スピーカ36は、タッチパネル・ディスプレイ32の下方であって、入出力ボード部20の下部に配置されている。   The speaker 36 is disposed below the touch panel display 32 and below the input / output board unit 20.

図3に示すように、本実施形態の入出力ボード部20は、4個のマイク34a、34b、34c、34dを有する。マイク34の個数は、描画エリアARの個数と同じである。換言すれば、描画エリアARの個数及び配置は、マイク34の個数に合わせて設定することが好ましい。4個のマイク34は、互いに離れた位置に配置されている。具体的には、マイク34aは、入出力ボード部20の左上に配置されている。マイク34bは、入出力ボード部20の右上に配置されている。マイク34cは、入出力ボード部20の右下に配置されている。マイク34dは、入出力ボード部20の左下に配置されている。即ち、4個のマイク34a、34b、34c、34dは、それぞれ描画エリアAR1、AR2、AR3、AR4と関連付けて配置されている。具体的には、マイク34aは、描画エリアAR1の近傍に関連付けて配置されている。マイク34bは、描画エリアAR2の近傍に関連付けて配置されている。マイク34cは、描画エリアAR3の近傍に関連付けて配置されている。マイク34dは、描画エリアAR4の近傍に関連付けて配置されている。   As shown in FIG. 3, the input / output board unit 20 of this embodiment includes four microphones 34a, 34b, 34c, and 34d. The number of microphones 34 is the same as the number of drawing areas AR. In other words, the number and arrangement of the drawing areas AR are preferably set in accordance with the number of microphones 34. The four microphones 34 are arranged at positions separated from each other. Specifically, the microphone 34 a is disposed at the upper left of the input / output board unit 20. The microphone 34 b is disposed on the upper right side of the input / output board unit 20. The microphone 34 c is disposed at the lower right of the input / output board unit 20. The microphone 34d is disposed at the lower left of the input / output board unit 20. That is, the four microphones 34a, 34b, 34c, and 34d are arranged in association with the drawing areas AR1, AR2, AR3, and AR4, respectively. Specifically, the microphone 34a is arranged in association with the vicinity of the drawing area AR1. The microphone 34b is arranged in association with the vicinity of the drawing area AR2. The microphone 34c is arranged in association with the vicinity of the drawing area AR3. The microphone 34d is arranged in association with the vicinity of the drawing area AR4.

次に、上述したビデオ会議システム10の動作について説明する。ここでは、一例として、会議端末14a、14b、14cが参加するビデオ会議について説明する。会議予約サーバ12の会議情報に登録されたビデオ会議の時間になると、会議サーバ16は、当該会議情報に参加する会議端末14として登録されている会議端末14を呼び出す。これにより、会議端末14は、呼び出しに応じた会議端末14とのデータの送受信を開始する。   Next, the operation of the video conference system 10 described above will be described. Here, as an example, a video conference in which the conference terminals 14a, 14b, and 14c participate will be described. When the video conference time registered in the conference information of the conference reservation server 12 is reached, the conference server 16 calls the conference terminal 14 registered as the conference terminal 14 participating in the conference information. Thereby, the conference terminal 14 starts transmission / reception of data with the conference terminal 14 in response to the call.

例えば、会議端末14aが、カメラ30で撮像したユーザ(例えば、会議参加者)の画像データ、マイク34が取得したユーザの発言等の音声データ、及び、ユーザがタッチパネル・ディスプレイ32に描画した画像の描画データ等を会議サーバ16へ送信する。この場合、会議サーバ16は、受信したデータを参加している会議端末14b、14cに送信するが、ビデオ会議に不参加の会議端末14dには当該データを送信しない。これにより、ビデオ会議に参加中の会議端末14b、14cは、受信したデータに基づいて、タッチパネル・ディスプレイ32に画像データ及び描画データの画像を反映させて表示するとともに、音声データの音声をスピーカ36から出力する。同様に、会議サーバ16は、会議端末14b(または会議端末14c)からデータを受信すると、会議端末14a、14c(または会議端末14a、14b)にはデータを送信するが、会議端末14dにはデータを送信しない。これにより、ビデオ会議システム10は、複数の会議端末14のうち、予め会議情報に登録された複数の会議端末14によって多拠点間でのビデオ会議を実現する。   For example, image data of a user (for example, a conference participant) captured by the conference terminal 14 a with the camera 30, voice data such as a user's speech acquired by the microphone 34, and an image drawn on the touch panel display 32 by the user. Drawing data and the like are transmitted to the conference server 16. In this case, the conference server 16 transmits the received data to the participating conference terminals 14b and 14c, but does not transmit the data to the conference terminal 14d not participating in the video conference. As a result, the conference terminals 14b and 14c participating in the video conference display the image of the image data and the drawing data on the touch panel display 32 based on the received data and display the sound of the audio data on the speaker 36. Output from. Similarly, when the conference server 16 receives data from the conference terminal 14b (or the conference terminal 14c), the conference server 16 transmits data to the conference terminals 14a and 14c (or the conference terminals 14a and 14b), but transmits data to the conference terminal 14d. Do not send. Thereby, the video conference system 10 realizes a video conference between multiple bases by using the plurality of conference terminals 14 registered in advance in the conference information among the plurality of conference terminals 14.

ここで、本実施形態では、会議端末14は、予め定められた条件を満たす場合、後述するマイク選択処理によって選択されたマイク34が生成した音声データのみを会議サーバ16へ送信する。一方、会議端末14は、予め定められた条件を満たさない場合、取得した音声の収音レベルの最も高いマイク34が取得した音声データを会議サーバ16へ送信する。予め定められた条件の一例は、ユーザがタッチパネル・ディスプレイ32に画像等を描画している時間及び描画終了から予め定められた判定時間が経過するまでの時間である。   Here, in this embodiment, when the predetermined condition is satisfied, the conference terminal 14 transmits only the audio data generated by the microphone 34 selected by the microphone selection process described later to the conference server 16. On the other hand, when the predetermined condition is not satisfied, the conference terminal 14 transmits the audio data acquired by the microphone 34 having the highest acquired sound collection level to the conference server 16. An example of the predetermined condition is a time during which the user draws an image or the like on the touch panel display 32 and a time from when the drawing ends until a predetermined determination time elapses.

図4は、マイク選択処理における会議端末14の情報処理部26の機能を説明する機能ブロック図である。図4に示すように、情報処理部26は、判定部50と、選択部52と、記憶部54とを有する。判定部50及び選択部52は、制御部40が記憶部54に格納されたマイク選択処理用のプログラムを読み込むことによってメモリ44に展開されて実現される機能である。尚、判定部50及び選択部52の一部または全部は、ASIC(Application Specific Integrated Circuit)を含む回路等のハードウェアによって構成されてもよい。記憶部54は、記憶装置42及びメモリ44によって実現される機能である。   FIG. 4 is a functional block diagram illustrating functions of the information processing unit 26 of the conference terminal 14 in the microphone selection process. As illustrated in FIG. 4, the information processing unit 26 includes a determination unit 50, a selection unit 52, and a storage unit 54. The determination unit 50 and the selection unit 52 are functions realized by being developed in the memory 44 when the control unit 40 reads a microphone selection processing program stored in the storage unit 54. Part or all of the determination unit 50 and the selection unit 52 may be configured by hardware such as a circuit including an ASIC (Application Specific Integrated Circuit). The storage unit 54 is a function realized by the storage device 42 and the memory 44.

判定部50は、ビデオ会議の制御処理において実行されるマイク選択処理における種々の判定を実行する。例えば、判定部50は、ビデオ会議が終了した否か、即ち、ビデオ会議が継続中か否かの判定を実行する。判定部50は、継続中であると判定すると、継続中である旨の判定結果を選択部52へ出力する。   The determination unit 50 performs various determinations in the microphone selection process executed in the video conference control process. For example, the determination unit 50 determines whether or not the video conference is ended, that is, whether or not the video conference is ongoing. If the determination unit 50 determines that the operation is ongoing, the determination unit 50 outputs a determination result indicating that the operation is ongoing to the selection unit 52.

判定部50は、タッチパネル・ディスプレイ32の画面上にユーザが描画中か否かの判定を実行する。判定部50は、例えば座標データを受け取ることによってタッチパネル・ディスプレイ32に描画中と判定すると、ユーザが描画しているタッチパネル・ディスプレイ32上の位置を判定して、更に、描画している位置がいずれの描画エリアARに含まれるかを判定する。判定部50は、ユーザの描画位置の描画エリアARの情報を選択部52へ出力する。   The determination unit 50 determines whether or not the user is drawing on the screen of the touch panel display 32. For example, if the determination unit 50 determines that drawing is being performed on the touch panel display 32 by receiving coordinate data, for example, the determination unit 50 determines the position on the touch panel display 32 where the user is drawing, and further determines which position is being drawn. Is included in the drawing area AR. The determination unit 50 outputs information on the drawing area AR of the user's drawing position to the selection unit 52.

判定部50は、タッチパネル・ディスプレイ32への描画終了から判定時間以上経過したか否かを判定する。判定時間は、予め定められて記憶部54に格納されている。尚、判定部50は、ユーザが一度描画した後は、描画終了から判定時間以上経過したと判定するまで、上述のビデオ会議が終了した否かの判定を実行しない。   The determination unit 50 determines whether or not the determination time has elapsed since the drawing on the touch panel display 32 has ended. The determination time is determined in advance and stored in the storage unit 54. Note that, after the user has drawn once, the determination unit 50 does not determine whether or not the video conference is ended until it is determined that the determination time has elapsed since the end of drawing.

選択部52は、判定部50からビデオ会議が継続中である旨の判定結果を取得すると、音声収集用のマイク34として、収音レベルが最も高いマイク34を選択する。   When acquiring the determination result indicating that the video conference is ongoing from the determination unit 50, the selection unit 52 selects the microphone 34 having the highest sound collection level as the microphone 34 for voice collection.

選択部52は、音声を収集する音声収集用のマイク34を複数のマイク34から選択する。例えば、選択部52は、ユーザがタッチパネル・ディスプレイ32に描画している場合、タッチパネル・ディスプレイ32上の描画している位置に応じて予め設定されたマイク34を複数のマイク34から音声収集用のマイク34として選択する。具体的には、選択部52は、判定部50からユーザが描画している位置を含む描画エリアARの情報を取得すると、当該描画エリアARに基づいて、音声収集用のマイク34を選択する。例えば、選択部52は、描画エリアARから最も遠いマイク34、即ち、描画している位置から最も遠いマイク34を音声収集用のマイク34として選択する。   The selection unit 52 selects the sound collection microphone 34 for collecting sound from the plurality of microphones 34. For example, when the user is drawing on the touch panel display 32, the selection unit 52 uses the microphones 34 set in advance according to the drawing position on the touch panel display 32 to collect sound from the plurality of microphones 34. Select as microphone 34. Specifically, when the information of the drawing area AR including the position where the user is drawing from the determination unit 50 is acquired from the determination unit 50, the selection unit 52 selects the microphone 34 for voice collection based on the drawing area AR. For example, the selection unit 52 selects the microphone 34 farthest from the drawing area AR, that is, the microphone 34 farthest from the drawing position as the voice collecting microphone 34.

ここで、選択部52は、ユーザの描画終了から判定時間以上経過するまで、判定部50から継続中である旨の判定結果を取得しない。従って、選択部52は、ユーザが一度描画した後は、タッチパネル・ディスプレイ32への描画終了から判定時間以上経過するまで、収音レベルが最も高いマイク34を選択することなく、描画している位置に基づいて選択したマイク34を音声収集用のマイク34として継続させる。一方、選択部52は、ユーザが一度描画した後、タッチパネル・ディスプレイ32への描画終了から判定時間以上経過して、判定部50からビデオ会議が継続中である旨の判定結果を取得すると、音声収集用のマイク34として、収音レベルが最も高いマイク34を選択する。   Here, the selection unit 52 does not acquire a determination result indicating that the determination unit 50 continues from the determination unit 50 until the determination time has elapsed since the end of the user's drawing. Therefore, after the user has drawn once, the selection unit 52 does not select the microphone 34 having the highest sound collection level until the determination time has elapsed since the drawing on the touch panel display 32 has ended. The microphone 34 selected based on the above is continued as the microphone 34 for voice collection. On the other hand, when the selection unit 52 obtains a determination result indicating that the video conference is continuing from the determination unit 50 after a drawing time has elapsed from the end of drawing on the touch panel display 32 after the user has once drawn, The microphone 34 having the highest sound collection level is selected as the collecting microphone 34.

記憶部54は、プログラム及びプログラムの実行に必要なパラメータ等のデータを記憶する。例えば、記憶部54は、マイク選択処理用のプログラムを記憶する。記憶部54は、タッチパネル・ディスプレイ32の描画エリアARの座標データ、各マイク34の位置、及び、判定時間等を記憶する。   The storage unit 54 stores data such as a program and parameters necessary for executing the program. For example, the storage unit 54 stores a program for microphone selection processing. The storage unit 54 stores the coordinate data of the drawing area AR of the touch panel display 32, the position of each microphone 34, the determination time, and the like.

本実施形態の会議端末14の制御部40が実行するマイク選択処理用のプログラムは、上述した各部(判定部50及び選択部52)を含むモジュール構成となっている。実際のハードウェアとしては制御部40が上記記憶装置42からマイク選択処理用のプログラムを読み出して実行することにより、上記各部が主記憶装置上にロードされる。これにより、判定部50及び選択部52が主記憶装置上に生成されて、これらの機能がコンピュータに実現されるようになっている。   The program for microphone selection processing executed by the control unit 40 of the conference terminal 14 according to the present embodiment has a module configuration including the above-described units (the determination unit 50 and the selection unit 52). As actual hardware, when the control unit 40 reads out and executes a program for microphone selection processing from the storage device 42, the respective units are loaded on the main storage device. Thereby, the determination part 50 and the selection part 52 are produced | generated on the main memory, and these functions are implement | achieved by the computer.

例えば、本実施形態の会議端末14の制御部40で実行されるマイク選択処理用のプログラムは、記憶装置42等に予め組み込まれて提供される。本実施の形態の会議端末14の制御部40で実行されるマイク選択処理用のプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。   For example, a microphone selection processing program executed by the control unit 40 of the conference terminal 14 according to the present embodiment is provided by being incorporated in advance in the storage device 42 or the like. The microphone selection processing program executed by the control unit 40 of the conference terminal 14 according to the present embodiment is a file in an installable format or an executable format, such as a CD-ROM, a flexible disk (FD), a CD-R, You may comprise so that it may record and provide on computer-readable recording media, such as DVD (Digital Versatile Disk).

さらに、本実施形態の会議端末14の制御部40で実行されるマイク選択処理用のプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、本実施形態の会議端末14の制御部40で実行されるマイク選択処理用のプログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。   Furthermore, a program for microphone selection processing executed by the control unit 40 of the conference terminal 14 of the present embodiment is stored on a computer connected to a network such as the Internet and provided by being downloaded via the network. It may be configured. Further, the microphone selection processing program executed by the control unit 40 of the conference terminal 14 according to the present embodiment may be provided or distributed via a network such as the Internet.

図5は、制御部40が実行するマイク選択処理のフローチャートである。制御部40は、マイク選択処理用のプログラムを読み込むことによって、ビデオ会議の制御処理の一部として、マイク選択方法の一例であるマイク選択処理を実行する。   FIG. 5 is a flowchart of the microphone selection process executed by the control unit 40. The control unit 40 reads a program for microphone selection processing, and executes microphone selection processing, which is an example of a microphone selection method, as part of video conference control processing.

図5に示すように、マイク選択処理では、制御部40の判定部50は、ビデオ会議が開始すると、ビデオ会議が終了したか否かを判定する(S102)。例えば、判定部50は、ユーザが操作部24を操作してビデオ会議の終了の指示を入力したか否かによって、ビデオ会議の終了を判定する。判定部50は、ビデオ会議が終了していない、即ち、ビデオ会議が継続中と判定すると(S102:No)、当該判定結果を選択部52に出力する。   As shown in FIG. 5, in the microphone selection process, the determination unit 50 of the control unit 40 determines whether or not the video conference is ended when the video conference is started (S102). For example, the determination unit 50 determines the end of the video conference depending on whether or not the user operates the operation unit 24 and inputs an instruction to end the video conference. If the determination unit 50 determines that the video conference has not ended, that is, that the video conference is continuing (S102: No), the determination unit 50 outputs the determination result to the selection unit 52.

選択部52は、判定部50からビデオ会議が継続中である旨の判定結果を取得すると、収音レベルが最大のマイク34を、音声収集用のマイク34として選択する(S104)。これにより、制御部40は、収音レベルが最大のマイク34が収音した音声の音声データを会議サーバ16へと送信する。   Upon acquiring the determination result indicating that the video conference is ongoing from the determination unit 50, the selection unit 52 selects the microphone 34 having the maximum sound collection level as the sound collection microphone 34 (S104). As a result, the control unit 40 transmits to the conference server 16 the audio data of the sound collected by the microphone 34 having the maximum sound collection level.

判定部50は、ユーザ(例えば、会議参加者)がタッチパネル・ディスプレイ32に描画しているか否かを判定する(S108)。例えば、判定部50は、タッチパネル・ディスプレイ32からユーザが描画している位置の座標データを受け取るか否かによって、描画しているか否かを判定する。判定部50は、ユーザがタッチパネル・ディスプレイ32に描画していないと判定すると(S108:No)、ステップS102以降を繰り返す。   The determination unit 50 determines whether or not a user (for example, a conference participant) is drawing on the touch panel display 32 (S108). For example, the determination unit 50 determines whether or not drawing is performed based on whether or not coordinate data of a position where the user is drawing is received from the touch panel display 32. If the determination part 50 determines with the user not drawing on the touchscreen display 32 (S108: No), it will repeat step S102 and subsequent steps.

一方、判定部50は、ユーザがタッチパネル・ディスプレイ32に描画していると判定すると(S108:Yes)、タッチパネル・ディスプレイ32から取得した座標データ及び記憶部54に格納されている描画エリアの座標データに基づいて、描画している位置がいずれの描画エリアARかを判定する。図6は、ユーザがタッチパネル・ディスプレイ32の左上の描画エリアAR1に描画している状態を示す図である。   On the other hand, when the determination unit 50 determines that the user is drawing on the touch panel display 32 (S108: Yes), the coordinate data acquired from the touch panel display 32 and the coordinate data of the drawing area stored in the storage unit 54 are displayed. The drawing area AR is determined based on the drawing position. FIG. 6 is a diagram illustrating a state in which the user is drawing in the drawing area AR <b> 1 at the upper left of the touch panel display 32.

判定部50は、描画している位置が左上の描画エリアAR1か否かを判定する(S110)。判定部50は、図6に示すように、描画している位置が左上の描画エリアAR1と判定すると(S110:Yes)、描画エリアAR1の情報を選択部52へ出力する。選択部52は、判定部50から描画エリアAR1の情報を取得すると、音声収集用のマイク34として描画エリアAR1から最も遠く描画の音を収集しにくい右下のマイク34cを選択する(S112)。   The determination unit 50 determines whether or not the drawing position is the upper left drawing area AR1 (S110). As illustrated in FIG. 6, when the determination unit 50 determines that the drawing position is the upper left drawing area AR <b> 1 (S <b> 110: Yes), the determination unit 50 outputs information on the drawing area AR <b> 1 to the selection unit 52. When acquiring the information of the drawing area AR1 from the determination unit 50, the selection unit 52 selects the lower right microphone 34c that is farthest from the drawing area AR1 and hardly collects the drawing sound as the voice collecting microphone 34 (S112).

判定部50は、描画している位置が左上の描画エリアAR1でないと判定すると(S110:No)、描画している位置が右上の描画エリアAR2か否かを判定する(S114)。判定部50は、描画している位置が右上の描画エリアAR2と判定すると(S114:Yes)、描画エリアAR2の情報を選択部52へ出力する。選択部52は、判定部50から描画エリアAR2の情報を取得すると、音声収集用のマイク34として描画エリアAR2から最も遠く描画の音を収集しにくい左下のマイク34dを選択する(S116)。   If the determination unit 50 determines that the drawing position is not the upper left drawing area AR1 (S110: No), the determination unit 50 determines whether the drawing position is the upper right drawing area AR2 (S114). If the determination unit 50 determines that the drawing position is the upper right drawing area AR <b> 2 (S <b> 114: Yes), it outputs information on the drawing area AR <b> 2 to the selection unit 52. Upon acquiring the information on the drawing area AR2 from the determination unit 50, the selection unit 52 selects the lower left microphone 34d that is the farthest from the drawing area AR2 and hardly collects the drawing sound as the sound collection microphone 34 (S116).

判定部50は、描画している位置が右上の描画エリアAR2でないと判定すると(S114:No)、描画している位置が右下の描画エリアAR3か否かを判定する(S118)。判定部50は、描画している位置が右下の描画エリアAR3と判定すると(S118:Yes)、描画エリアAR3の情報を選択部52へ出力する。選択部52は、判定部50から描画エリアAR3の情報を取得すると、音声収集用のマイク34として描画エリアAR3から最も遠く描画の音を収集しにくい左上のマイク34aを選択する(S120)。   If the determination unit 50 determines that the drawing position is not the upper right drawing area AR2 (S114: No), the determination unit 50 determines whether the drawing position is the lower right drawing area AR3 (S118). If the determination unit 50 determines that the drawing position is the lower right drawing area AR3 (S118: Yes), the information is output to the selection unit 52. When acquiring the information of the drawing area AR3 from the determination unit 50, the selection unit 52 selects the upper left microphone 34a that is the farthest from the drawing area AR3 and hardly collects the drawing sound as the voice collecting microphone 34 (S120).

判定部50は、描画している位置が右下の描画エリアAR3でないと判定した場合(S118:No)、描画している位置は残りの左下の描画エリアAR4となるので、判定部50は、描画エリアAR4の情報を選択部52へ出力する。選択部52は、判定部50から描画エリアAR4の情報を取得すると、音声収集用のマイク34として描画エリアAR4から最も遠く描画の音を収集しにくい右上のマイク34bを選択する(S122)。   If the determination unit 50 determines that the drawing position is not the lower right drawing area AR3 (S118: No), the drawing position is the remaining lower left drawing area AR4. Information on the drawing area AR4 is output to the selection unit 52. Upon acquiring the information on the drawing area AR4 from the determination unit 50, the selection unit 52 selects the upper right microphone 34b that is the farthest from the drawing area AR4 and hardly collects the drawing sound as the voice collecting microphone 34 (S122).

選択部52がステップS112、S116、S120、S122においていずれかのマイク34を選択すると、判定部50は描画終了から予め定められて記憶部54に格納された判定時間経過以上したか否かを判定する(S124)。尚、判定部50は、タッチパネル・ディスプレイ32から描画の座標データを受け付けなくなると、描画終了と判定してよい。判定部50は、描画終了から判定時間経過以上していないと判定すると(S124:No)、ステップS124を繰り返して待機状態となる。これにより、選択部52が描画中の位置を含む描画エリアARに基づいて選択したマイク34によって音声収集が継続される。   When the selection unit 52 selects any one of the microphones 34 in steps S112, S116, S120, and S122, the determination unit 50 determines whether or not the determination time that has been determined in advance from the end of drawing and stored in the storage unit 54 has elapsed. (S124). Note that the determination unit 50 may determine that the drawing is finished when the drawing coordinate data is not received from the touch panel display 32. If the determination unit 50 determines that the determination time has not passed since the end of drawing (S124: No), the determination unit 50 repeats step S124 and enters a standby state. Thereby, voice collection is continued by the microphone 34 selected based on the drawing area AR including the position where the selection unit 52 is drawing.

判定部50は、描画終了から判定時間経過以上したと判定すると(S124:Yes)、ステップS102以降を繰り返す。これにより、選択部52は、ステップS104で収音レベルが最大のマイク34を再度選択する。この後、判定部50が、ビデオ会議が終了したと判定すると(S102:Yes)、ビデオ会議の制御処理とともにマイク選択処理を終了する。   If the determination unit 50 determines that the determination time has elapsed from the end of drawing (S124: Yes), it repeats step S102 and subsequent steps. Thereby, the selection part 52 selects again the microphone 34 with the largest sound collection level by step S104. Thereafter, when the determination unit 50 determines that the video conference is ended (S102: Yes), the microphone selection processing is ended together with the video conference control processing.

上述したように、ビデオ会議システム10の会議端末14では、制御部40の選択部52が、ユーザが描画している描画エリアARから最も遠いマイク34を選択するので、描画により生じる音の収集を抑制できる。これにより、会議端末14は、描画により生じる音を他の会議端末14へ送信することを抑制して、他の会議端末14でノイズが出力されることを抑制できる。   As described above, in the conference terminal 14 of the video conference system 10, the selection unit 52 of the control unit 40 selects the microphone 34 farthest from the drawing area AR on which the user is drawing. Can be suppressed. Thereby, the conference terminal 14 can suppress the sound generated by the drawing from being transmitted to the other conference terminals 14, and can suppress the noise output from the other conference terminals 14.

会議端末14では、制御部40の判定部50が描画終了から判定時間以上経過したと判定するまで、選択部52が描画中の描画エリアARで選択したマイク34によって音声収集が継続される。これにより、ユーザが描画エリアARを跨いで描画した場合、及び、ユーザが一時的に描画を中止して発言等をしている場合でも、会議端末14は、音声収集のマイク34が頻繁かつ不自然に切り替わることを低減して、マイク34の切り替わりによる違和感を低減できる。   In the conference terminal 14, voice collection is continued by the microphone 34 selected by the selection unit 52 in the drawing area AR being drawn until the determination unit 50 of the control unit 40 determines that the determination time has elapsed since the end of drawing. As a result, even when the user draws across the drawing area AR and when the user temporarily stops drawing and speaks, the conference terminal 14 has the microphone 34 for voice collection frequently and unintentionally. Natural switching can be reduced, and the uncomfortable feeling due to the switching of the microphone 34 can be reduced.

上述した実施形態の一部を変形した変形例について説明する。以下の変形例では、タッチパネル・ディスプレイ32が、上述のシングルタッチのみならず、同時に複数個所に描画するマルチタッチを受け付け可能な構成となっている。   A modification in which a part of the above-described embodiment is modified will be described. In the following modification, the touch panel display 32 is configured to accept not only the single touch described above but also multi-touch drawing at a plurality of locations at the same time.

<第1変形例>
図7は、第1変形例を説明するための入出力ボード部20の正面図である。図7に示す状況では、判定部50は、ユーザがタッチパネル・ディスプレイ32の3個所に同時に描画していると判定して、当該描画している位置を含む描画エリアAR1、AR3、AR4の情報を選択部52に出力する。選択部52は、描画エリアAR1、AR3、AR4の情報を取得すると、描画中の3個所の描画エリアAR1、AR3、AR4のいずれからも最も遠いマイク34bを選択する。例えば、選択部52は、3個所の描画エリアAR1、AR3、AR4の重心から最も遠いマイク34bを選択する。換言すれば、選択部52は、描画されていない描画エリアAR2に最も近いマイク34bを選択する。
<First Modification>
FIG. 7 is a front view of the input / output board unit 20 for explaining the first modification. In the situation shown in FIG. 7, the determination unit 50 determines that the user is drawing at three locations on the touch panel display 32 at the same time, and obtains information on the drawing areas AR1, AR3, AR4 including the drawing positions. The data is output to the selection unit 52. When acquiring the drawing areas AR1, AR3, and AR4, the selection unit 52 selects the microphone 34b that is farthest from any of the three drawing areas AR1, AR3, and AR4 that are being drawn. For example, the selection unit 52 selects the microphone 34b farthest from the center of gravity of the three drawing areas AR1, AR3, AR4. In other words, the selection unit 52 selects the microphone 34b closest to the drawing area AR2 that is not drawn.

<第2変形例>
図8は、第2変形例を説明するための入出力ボード部20の正面図である。図8に示す状況では、ユーザがタッチパネル・ディスプレイ32の2個所に同時に描画している。この場合、判定部50は、当該描画している位置を含むタッチパネル・ディスプレイ32の複数の描画エリアAR1、AR3の情報を選択部52に出力する。選択部52は、描画エリアAR1、AR3の情報を取得すると、描画中の描画エリアAR1、AR3のいずれからも最も遠いマイク34を選択する。但し、ユーザが交差した2個所の描画エリアAR1、AR3(または描画エリアAR2、AR4)に描画しており、描画している位置及び描画エリアARから最も遠いマイク34が複数(例えば、2つ)ある場合、選択部52は、ユーザUSの体で覆われる可能性の低い上方のマイク34bを優先的に音声収集用のマイク34として選択する。同様に、ユーザUSが縦に並んだ2個所の描画エリアAR(例えば、描画エリアAR1、AR4)に同時に描画している場合、選択部52は、上方のマイク34(例えば、マイク34b)を選択する。これにより、会議端末14は、描画中のユーザがマイク34を塞いで音声の収集を妨げることを抑制できる。
<Second Modification>
FIG. 8 is a front view of the input / output board unit 20 for explaining the second modification. In the situation shown in FIG. 8, the user is drawing simultaneously at two locations on the touch panel display 32. In this case, the determination unit 50 outputs information on a plurality of drawing areas AR <b> 1 and AR <b> 3 of the touch panel display 32 including the drawing position to the selection unit 52. When acquiring the information of the drawing areas AR1 and AR3, the selection unit 52 selects the microphone 34 farthest from any of the drawing areas AR1 and AR3 being drawn. However, drawing is performed in two drawing areas AR1 and AR3 (or drawing areas AR2 and AR4) intersected by the user, and a plurality of (for example, two) microphones 34 that are farthest from the drawing position and the drawing area AR are drawn. In some cases, the selection unit 52 preferentially selects the upper microphone 34b that is unlikely to be covered with the body of the user US as the microphone 34 for voice collection. Similarly, when the user US is drawing simultaneously in two drawing areas AR (for example, the drawing areas AR1 and AR4) arranged vertically, the selection unit 52 selects the upper microphone 34 (for example, the microphone 34b). To do. Thereby, the conference terminal 14 can suppress that the user who is drawing blocks the microphone 34 and prevents the voice collection.

<第3変形例>
図9は、第3変形例を説明するための入出力ボード部20の正面図である。図9に示す状況では、判定部50は、ユーザがタッチパネル・ディスプレイ32の2個所に同時に描画していると判定して、当該描画している位置を含む描画エリアAR3、AR4の情報を選択部52に出力する。選択部52は、描画エリアAR3、AR4の情報を取得すると、描画中の描画エリアAR3、AR4から最も遠いマイク34を選択する。但し、ユーザが水平方向に並んだ2個所の描画エリアAR3、AR4に描画している場合、最も遠いマイク34が同じ高さに2つあるので、選択部52は、予め設定された優先度に基づいて、マイク34を選択する。
<Third Modification>
FIG. 9 is a front view of the input / output board unit 20 for explaining the third modification. In the situation shown in FIG. 9, the determination unit 50 determines that the user is drawing at two locations on the touch panel display 32 at the same time, and selects information on the drawing areas AR3 and AR4 including the drawing positions. To 52. When acquiring the information of the drawing areas AR3 and AR4, the selection unit 52 selects the microphone 34 farthest from the drawing areas AR3 and AR4 being drawn. However, when the user is drawing in two drawing areas AR3 and AR4 arranged in the horizontal direction, the two farthest microphones 34 are at the same height, so the selection unit 52 sets the priority to a preset priority. Based on this, the microphone 34 is selected.

<第4変形例>
図10は、第4変形例を説明するための入出力ボード部20の正面図である。図10に示すように、入出力ボード部20は、6個のマイク34a、34b、34c、34d、34e、34fを有してもよい。マイク34eは、入出力ボード20の上部の中央に設置されている。マイク34fは、入出力ボード20の下部の中央に設置されている。この場合、マイク34に合わせて、タッチパネル・ディスプレイ32を細分化して6個の描画エリアAR1、AR2、AR3、AR4、AR5、AR6を設定してよい。描画エリアAR5は、タッチパネル・ディスプレイ32の中央の上側に配置されている。描画エリアAR6は、タッチパネル・ディスプレイ32の中央の下側に配置されている。これにより、選択部52は、マルチタッチ時により精度よくマイク34を選択することができる。
<Fourth Modification>
FIG. 10 is a front view of the input / output board unit 20 for explaining the fourth modification. As shown in FIG. 10, the input / output board unit 20 may include six microphones 34a, 34b, 34c, 34d, 34e, and 34f. The microphone 34 e is installed at the center of the upper part of the input / output board 20. The microphone 34 f is installed at the lower center of the input / output board 20. In this case, according to the microphone 34, the touch panel display 32 may be subdivided to set six drawing areas AR1, AR2, AR3, AR4, AR5, AR6. The drawing area AR5 is arranged on the upper side of the center of the touch panel display 32. The drawing area AR6 is arranged below the center of the touch panel display 32. Thereby, the selection part 52 can select the microphone 34 more accurately at the time of multi-touch.

上述の実施形態の各構成の機能、配置、形状、個数等は適宜変更してよい。また、上述の実施形態と各変形例とを組み合わせてもよい。   You may change suitably the function, arrangement | positioning, shape, number, etc. of each structure of the above-mentioned embodiment. Moreover, you may combine the above-mentioned embodiment and each modification.

例えば、マイク34及び描画エリアARの個数は適宜変更してよい。   For example, the number of microphones 34 and drawing areas AR may be changed as appropriate.

上述の判定部50による描画エリアARを判定するステップS110、S114、S118の順序は、適宜変更してよい。   The order of steps S110, S114, and S118 for determining the drawing area AR by the determination unit 50 may be changed as appropriate.

上述の実施形態は、例として提示したものであり、本発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことも可能である。実施形態および実施形態の変形は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   The above-described embodiments have been presented by way of example and are not intended to limit the scope of the present invention. The novel embodiment can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. The embodiments and modifications of the embodiments are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

14…会議端末
20…入出力ボード部
26…情報処理部(コンピュータ)
30…カメラ
32…タッチパネル・ディスプレイ
34…マイク
40…制御部
AR…描画エリア
14 ... Conference terminal 20 ... Input / output board unit 26 ... Information processing unit (computer)
30 ... Camera 32 ... Touch panel display 34 ... Microphone 40 ... Control unit AR ... Drawing area

特開2016−111645号公報JP 2016-111645 A 特開2012−203122号公報JP2012-203122A

Claims (8)

ユーザからの描画による入力を受け付けるとともに、画像を表示するタッチパネル・ディスプレイと、
周囲の音声を収集する複数のマイクと、
前記ユーザが描画している前記タッチパネル・ディスプレイ上の位置に応じて音声を収集する音声収集用のマイクを前記複数のマイクから選択する制御部と、
を備える会議端末。
A touch panel display that accepts input from a user and displays an image;
Multiple microphones that collect ambient audio,
A control unit that selects, from the plurality of microphones, a microphone for voice collection that collects voice according to a position on the touch panel display on which the user is drawing;
A conference terminal.
前記制御部は、前記描画している位置から最も遠いマイクを前記音声収集用のマイクとして選択する
請求項1に記載の会議端末。
The conference terminal according to claim 1, wherein the control unit selects a microphone farthest from the drawing position as the microphone for voice collection.
前記制御部は、前記タッチパネル・ディスプレイ上の位置に応じて予め設定されたマイクを前記音声収集用のマイクとして選択する
請求項1または2に記載の会議端末。
The conference terminal according to claim 1, wherein the control unit selects a microphone set in advance according to a position on the touch panel display as the microphone for voice collection.
前記制御部は、前記ユーザによる描画終了から予め定められた判定時間以上経過すると、最も収音レベルの高い前記マイクを前記音声収集用のマイクとして選択する
請求項1から3のいずれか1項に記載の会議端末。
4. The control unit according to claim 1, wherein the control unit selects the microphone having the highest sound collection level as the microphone for sound collection when a predetermined determination time has elapsed from the end of drawing by the user. 5. The listed conference terminal.
前記制御部は、前記描画している位置から最も遠いマイクが複数存在する場合、上方の前記マイクを優先的に前記音声収集用のマイクとして選択する
請求項1から4のいずれか1項に記載の会議端末。
5. The control unit according to claim 1, wherein when there are a plurality of microphones farthest from the drawing position, the control unit preferentially selects the upper microphone as the microphone for voice collection. 6. Meeting terminal.
前記タッチパネル・ディスプレイは、水平方向及び鉛直方向に2×2で分割された4個の描画エリアを有し、
前記制御部は、前記ユーザが前記タッチパネル・ディスプレイ上の複数の描画エリアに描画している場合、前記複数の描画エリアからから最も遠いマイクが複数存在する場合、上方の前記マイクを優先的に前記音声収集用のマイクとして選択する
請求項1から4のいずれか1項に記載の会議端末。
The touch panel display has four drawing areas divided by 2 × 2 in the horizontal and vertical directions,
When the user is drawing in a plurality of drawing areas on the touch panel display, and there are a plurality of microphones farthest from the plurality of drawing areas, the control unit preferentially selects the upper microphone. The conference terminal according to claim 1, wherein the conference terminal is selected as a microphone for voice collection.
ユーザからの描画による入力を受け付けるとともに、画像を表示するタッチパネル・ディスプレイと、
周囲の音声を収集する複数のマイクと、
を備える会議端末のマイク選択方法において、
前記ユーザが描画している前記タッチパネル・ディスプレイ上の位置を判定する段階と、
当該描画している位置に応じて音声を収集する音声収集用のマイクを前記複数のマイクから選択する段階と、
を備えるマイク選択方法。
A touch panel display that accepts input from a user and displays an image;
Multiple microphones that collect ambient audio,
In the microphone selection method of the conference terminal comprising:
Determining a position on the touch panel display that the user is drawing;
Selecting a microphone for voice collection for collecting voice according to the drawing position from the plurality of microphones;
A microphone selection method comprising:
ユーザからの描画による入力を受け付けるとともに、画像を表示するタッチパネル・ディスプレイと、
周囲の音声を収集する複数のマイクと、
を備える会議端末のコンピュータを、
前記ユーザが描画している前記タッチパネル・ディスプレイ上の位置を判定する機能と、
当該描画している位置に応じて音声を収集する音声収集用のマイクを前記複数のマイクから選択する機能と、
を実現させるためのプログラム。
A touch panel display that accepts input from a user and displays an image;
Multiple microphones that collect ambient audio,
A conference terminal computer comprising:
A function of determining a position on the touch panel display that the user is drawing;
A function of selecting a microphone for voice collection that collects voice according to the drawing position from the plurality of microphones;
A program to realize
JP2016195990A 2016-10-03 2016-10-03 Conference terminal, microphone selection method, and program Pending JP2018060297A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016195990A JP2018060297A (en) 2016-10-03 2016-10-03 Conference terminal, microphone selection method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016195990A JP2018060297A (en) 2016-10-03 2016-10-03 Conference terminal, microphone selection method, and program

Publications (1)

Publication Number Publication Date
JP2018060297A true JP2018060297A (en) 2018-04-12

Family

ID=61909927

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016195990A Pending JP2018060297A (en) 2016-10-03 2016-10-03 Conference terminal, microphone selection method, and program

Country Status (1)

Country Link
JP (1) JP2018060297A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023028098A1 (en) * 2021-08-27 2023-03-02 Cisco Technology, Inc. Microphone selection for teleconferencing device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023028098A1 (en) * 2021-08-27 2023-03-02 Cisco Technology, Inc. Microphone selection for teleconferencing device

Similar Documents

Publication Publication Date Title
JP7379907B2 (en) Information processing device, information processing program, information processing system, information processing method
JP6171263B2 (en) Remote conference system and remote conference terminal
US8264518B2 (en) Gesture-based actions in a video communication session
EP3047356B1 (en) Configuration of a touch screen display for conferencing
US9794209B2 (en) User interface for multi-modality communication
JP2012023595A (en) Conference system
JP2014233035A (en) Information processor, display control method and program
US20160294892A1 (en) Storage Medium Storing Program, Server Apparatus, and Method of Controlling Server Apparatus
JP2011205243A (en) Information processing apparatus, conference system, information processing method, and computer program
EP3466057A1 (en) Information processing apparatus, conference system, and control method of information processing apparatus
JP2019159261A (en) Electronic blackboard, picture display method, and program
JP2015225400A (en) Communication system, transfer control device, communication method, and program
US9131109B2 (en) Information processing device, display control system, and computer program product
JP2018060297A (en) Conference terminal, microphone selection method, and program
JP7095356B2 (en) Communication terminal and conference system
JP2019165277A (en) Electronic blackboard system, electronic blackboard, and display control method
JP2019208167A (en) Telepresence system
JP2016046720A (en) Management device, terminal device, transmission system, transmission method and program
JP6586907B2 (en) Information processing apparatus, conference system, and control method for information processing apparatus
US10015055B2 (en) Management system, communication terminal, communication system, method of management, and computer program product
JP2020088618A (en) Video conference system, communication terminal, and method for controlling microphone of communication terminal
US11290831B2 (en) Ambient sound adjustments during call handling
JP2018046379A (en) Video conference device, information processing method, and program
JP6763277B2 (en) Terminal device, program, communication method
JP6933163B2 (en) Communication devices, communication systems, communication methods and programs